in

Los chatbots no ayudarán a nadie a fabricar armas de destrucción masiva, pero otros sistemas de inteligencia artificial sí podrían

chatbot

  chatbot

Crédito: Pixabay/CC0 Dominio público

En los últimos dos años, hemos visto mucho escrito sobre el «promesa y peligro» de la inteligencia artificial (IA). Algunos han sugerido que los sistemas de IA podrían ayudar en la construcción de armas químicas o biológicas.

¿Cuán realistas son estas preocupaciones? Como investigadores en el campo del bioterrorismo y la inteligencia sanitaria, hemos estado tratando de separar los riesgos genuinos del revuelo en línea.

Las implicaciones exactas para las armas «químicas biológicas» aún son inciertas. Sin embargo, está muy claro que las regulaciones no van a la par de los avances tecnológicos.

Evaluación de los riesgos

Evaluar el riesgo que presenta un modelo de IA no es fácil. Es más, no existe una manera consistente y ampliamente seguida de hacerlo.

Tomemos el caso de los modelos de lenguajes grandes (LLM). Estos son los motores de inteligencia artificial detrás de chatbots como ChatGPT, Claude y Gemini.

En septiembre, OpenAI lanzó un LLM llamado o1 (apodado «Fresa»). Tras su lanzamiento, los desarrolladores afirmaron que el nuevo sistema tenía un riesgo de nivel «medio» de ayudar a alguien a crear un arma biológica.

Esta evaluación puede parecer alarmante. Sin embargo, una lectura más cercana del o1 tarjeta del sistema revela riesgos de seguridad más triviales.

El modelo podría, por ejemplo, ayudar a un individuo no capacitado a navegar más rápidamente en una base de datos pública de información genética sobre virus. Es poco probable que esa asistencia tenga muchas repercusiones materiales en la bioseguridad.

A pesar de esto, los medios informó rápidamente que el nuevo modelo «contribuyó significativamente» a los riesgos de armamentismo.

Más allá de los chatbots

Cuando se lanzó la primera ola de chatbots LLM a fines de 2022, hubo temores generalizados de que estos sistemas podría ayudar a personas no capacitadas a desencadenar una pandemia.

Sin embargo, estos chatbots se basan en datos ya existentes y es poco probable que generen algo realmente nuevo. Podrían ayudar a una empresa de bioterrorismo a generar algunas ideas y establecer una dirección inicial. pero eso es todo.

Más que los chatbots, los sistemas de inteligencia artificial con aplicaciones en las ciencias biológicas son una preocupación más genuina. Muchos de ellos, como el AlfaFold La serie ayudará a los investigadores a luchar contra las enfermedades y a buscar nuevos fármacos terapéuticos.

Algunos sistemas, sin embargo, pueden tener la capacidad de ser utilizados indebidamente. Cualquier IA que sea realmente útil para la ciencia probablemente sea un arma de doble filo: una tecnología que puede tener grandes beneficios para la humanidad, al tiempo que plantea riesgos.

Los sistemas de inteligencia artificial como estos son excelentes ejemplos de lo que se llama «investigación de doble uso preocupante«.

Priones y pandemias

La investigación preocupante sobre el uso dual en sí misma no es nada nuevo. Las personas que trabajan en bioseguridad y no proliferación nuclear han estado preocupadas por ello durante mucho tiempo. Muchas herramientas y técnicas de la química y la biología sintética podrían utilizarse con fines maliciosos.

En el campo de la ciencia de las proteínas, por ejemplo, ha habido preocupación por más de una década que las nuevas plataformas computacionales podrían ayudar en la síntesis de proteínas mal plegadas potencialmente mortales llamadas priones, o en la construcción de nuevas armas tóxicas. Nuevas herramientas de inteligencia artificial como AlphaFold pueden acercar este escenario a la realidad.

Sin embargo, si bien los priones y las toxinas pueden ser mortales para grupos relativamente pequeños de personas, ninguno de los dos puede causar una pandemia que pueda causar verdaderos estragos. En el estudio del bioterrorismo, nuestra principal preocupación son los agentes que tienen potencial pandémico.

Históricamente, la planificación del bioterrorismo se ha centrado en Yersinia pestis, la bacteria que causa la peste, y el virus variola, que causa la viruela.

La pregunta principal es si los nuevos sistemas de IA marcan alguna diferencia tangible para un individuo o grupo no capacitado que busca obtener patógenos como estos o crear algo desde cero.

En este momento, simplemente no lo sabemos.

Normas para evaluar y regular los sistemas de IA

Nadie tiene todavía una respuesta definitiva a la pregunta de cómo evaluar el nuevo panorama del riesgo de armas biológicas impulsadas por IA. La planificación más avanzada la ha realizado la administración saliente de Biden en Estados Unidos, a través de un orden ejecutiva sobre el desarrollo de la IA emitido en octubre de 2023.

Una disposición clave de la orden ejecutiva encarga a varias agencias estadounidenses el establecimiento de estándares para evaluar el impacto que los nuevos sistemas de inteligencia artificial pueden tener en la proliferación de armas químicas, biológicas, radiológicas o nucleares. Los expertos suelen agruparlos bajo el título «QBRN», pero la nueva dinámica que llamamos QBRN+IA todavía es incierto.

La orden ejecutiva también estableció nuevos procesos para regular el hardware y el software necesarios para la síntesis de genes. Esta es la maquinaria para convertir las ideas digitales producidas por un sistema de IA en la realidad física de la vida biológica.

El Departamento de Energía de EE.UU. es pronto debido a la guía de publicación sobre la gestión de los riesgos biológicos que podrían generar los nuevos sistemas de IA. Esto proporcionará una vía para comprender cómo la IA podría afectar la bioseguridad en los próximos años.

Presión política

Estas regulaciones incipientes ya están bajo presión política. La administración entrante de Trump en Estados Unidos ha prometió derogar Orden ejecutiva de Biden sobre IA, preocupado porque se basa en «ideas radicales de izquierda.» Esta postura se basa en disputas irrelevantes en la política de identidad estadounidense que no tienen relación con la bioseguridad.

Si bien es imperfecta, la orden ejecutiva es el mejor modelo para ayudarnos a comprender cómo la IA afectará la proliferación de amenazas químicas y biológicas en los próximos años. Derogarlo sería un flaco favor al interés nacional de Estados Unidos y a la seguridad humana global en general.

Proporcionado por La Conversación


Este artículo se republica desde La conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Los chatbots no ayudarán a nadie a fabricar armas de destrucción masiva, pero otros sistemas de inteligencia artificial sí podrían (2024, 5 de diciembre) recuperado el 5 de diciembre de 2024 de https://techxplore.com/news/2024-12-chatbots-wont-weapons-mass -destrucción.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

La primera actualización SSD de Mac Studio está aquí por mucho menos que los precios de Apple

Spotify

Spotify Wrapped es más que las canciones que escuchas: se trata de lo que te hace ser tú