
Crédito: Pavel Danilyuk de Pexels
La inteligencia artificial diseñada para influir en nuestras decisiones está en todas partes, en las búsquedas de Google, en sugerencias de compras en línea y en recomendaciones de transmisión de películas. Pero, ¿cómo afecta la toma de decisiones en momentos de crisis?
El investigador de la Universidad de la Commonwealth de Virginia, Christopher Whyte, Ph.D., investigó cómo los profesionales de la gestión de emergencias y la seguridad nacional respondieron durante los ataques de IA simulados.
Los resultados, publicado en el Revista de Seguridad Nacional y Gestión de Emergenciasrevelan que los profesionales dudaban más y dudaban de sus habilidades cuando se enfrentaban a amenazas completamente impulsadas por la IA que cuando se enfrentaban a las amenazas de piratas informáticos o piratas informáticos que solo fueron asistidos por IA.
«Estos resultados muestran que la IA juega un papel importante en impulsar a los participantes a ser más vacilantes, más cautelosos», dijo, «excepto en circunstancias bastante estrechas».
Esas circunstancias estrechas son más preocupantes para Whyte, un profesor asociado en la Escuela de Gobierno y Asuntos Públicos de L. Douglas de VCU.
Las organizaciones de seguridad nacional diseñan sus programas de capacitación para reducir la vacilación en momentos de incertidumbre. Si bien la mayoría de los casi 700 profesionales estadounidenses y europeos en el estudio pensaron que la IA podría impulsar las habilidades humanas, un pequeño grupo creía que la IA eventualmente podría reemplazar completamente su profesión y la experiencia humana en general. Ese grupo respondió imprudentemente a la amenaza basada en la IA, aceptando riesgos y falsificando con precisión.
«Estas son personas que creen la totalidad de lo que hacen, su misión profesional y la misión institucional que apoyan, podrían ser superados por AI», dijo Whyte.
Inteligencia artificial: la próxima ‘Gran Máquina’
Whyte tiene una teoría de por qué ese puede ser el caso.
La desacreditada teoría del «gran hombre» propone que el curso de la historia ha sido formado principalmente por fuertes figuras políticas, mientras que los historiadores modernos dan más crédito a los movimientos populares. Ahora, Whyte propone que la historia también ha sido moldeada por inventos tecnológicos transformadores, como las ondas de telégrafo o radio, y una fe fuera de lugar en su poder, lo que ha acuñado la teoría de la «gran máquina».
Pero a diferencia de la teoría del «gran hombre», Whyte dijo: «Grandes máquinas» son una fuerza social compartida que puede aprovecharse para beneficio de la sociedad, o en detrimento.
«A mediados de la década de 1930, por ejemplo, sabíamos que las ondas de radio tenían una gran cantidad de potencial para muchas cosas», dijo Whyte. «Pero una de las primeras ideas fue para los rayos de la muerte, podrías freír tu cerebro, y así sucesivamente».
Los rayos de la muerte se dieron cuenta, inspirando tanto las historias de ciencia ficción como los intentos de la vida real de construirlas durante la Primera Guerra Mundial y el período de entreguerras. No fue sino hasta unos años antes de que la Segunda Guerra Mundial comenzara a construir algo práctico con ondas de radio: radar.
Actualmente, la sociedad enfrenta el mismo problema con la IA, dijo Whyte, que es lo que él llama una tecnología de «propósito general» que podría ayudar o perjudicar a la sociedad. La tecnología ya ha cambiado drásticamente la forma en que algunas personas piensan sobre el mundo y su lugar en él.
«Hace tantas cosas diferentes que realmente tienes esta área emergente de mentalidades de reemplazo», dijo. «Como en el mundo del mañana se verá completamente diferente, y mi lugar en él simplemente no existirá porque [AI] fundará fundamentalmente todo «.
Esa línea de pensamiento podría plantear problemas para los profesionales de la seguridad nacional, ya que la nueva tecnología cambia la forma en que piensan sobre sus propias habilidades y cambian la forma en que responden a situaciones de emergencia.
«Ese es el tipo de condición psicológica en la que desafortunadamente terminamos teniendo que tirar el libro de reglas sobre lo que sabemos que va a combatir el sesgo o la incertidumbre», dijo Whyte.
Combatir las amenazas de nivel de ‘skynet’
Para estudiar cómo la IA afecta las habilidades de toma de decisiones de los profesionales, Whyte reclutó a casi 700 profesionales de gestión de emergencias y seguridad nacional de los Estados Unidos, Alemania, el Reino Unido y Eslovenia para participar en un juego de simulación.
Durante el experimento, los profesionales se enfrentaron a una amenaza típica de seguridad nacional: un gobierno extranjero que interfiere en una elección en su país. Luego fueron asignados a uno de los tres escenarios: un escenario de control, donde la amenaza solo involucraba a los piratas informáticos humanos; Un escenario con luz, participación de IA «táctica», donde los piratas informáticos fueron asistidos por AI; y un escenario con grandes niveles de participación de la IA, donde a los participantes se les dijo que la amenaza fue orquestada por un programa de IA «estratégico».
Cuando se enfrenta a una amenaza estratégica basada en la IA, lo que Whyte llama una amenaza a nivel de «Skynet», haciendo referencia a la franquicia de películas «Terminator», los profesionales tendían a dudar de su capacitación y dudaban en actuar. También tenían más probabilidades de solicitar información de inteligencia adicional en comparación con sus colegas en los otros dos grupos, que generalmente respondieron a la situación según su entrenamiento.
En contraste, los participantes que pensaron en la IA como una «gran máquina» que podría reemplazarlos por completo actuó sin restricciones y tomaron decisiones que contradecían su capacitación.
Y aunque la experiencia y la educación ayudaron a moderar cómo los profesionales respondieron a los ataques asistidos por AI-AI, no afectaron cómo los profesionales reaccionaron a la amenaza de nivel «Skynet». Eso podría representar una amenaza a medida que los ataques de IA se vuelven más comunes, dijo Whyte.
«La gente tiene opiniones variables sobre si la IA se trata de aumentar, o si realmente es algo que los reemplazará», dijo Whyte. «Y eso cambia significativamente la forma en que las personas reaccionarán en una crisis».
Más información:
Christopher Whyte, inteligencia artificial y el problema de la «gran máquina»: evitar la simplificación excesiva de la tecnología en seguridad nacional y gestión de emergencias, Revista de Seguridad Nacional y Gestión de Emergencias (2025). Doi: 10.1515/jhsem-2024-0030
Citación: Creencia en la IA como una ‘Gran Máquina’ podría debilitar las respuestas de la crisis de seguridad nacional, New Research Finds (2025, 19 de marzo) recuperado el 19 de marzo de 2025 de https://techxplore.com/news/2025-03-belief-ai-Great-Machine-weaken.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.