
Presentación de Enigma en ICML 2025. Investigadores Talor Abramovich (izquierda) y Minghao Shao (derecha). Crédito: Minghao Shao
Los agentes de inteligencia artificial, sistemas de AI que pueden trabajar independientemente hacia objetivos específicos sin orientación humana constante, han demostrado fuertes capacidades en el desarrollo de software y la navegación web. Sin embargo, su efectividad en la ciberseguridad se ha mantenido limitada.
Eso pronto puede cambiar, gracias a un equipo de investigación de la Escuela de Ingeniería NYU Tandon, NYU Abu Dhabi y otras universidades que desarrollaron un agente de IA capaz de resolver autónomos desafíos complejos de ciberseguridad.
El sistema, llamado Enigmaera presentado Este mes en el Conferencia internacional sobre aprendizaje automático (ICML) 2025 en Vancouver, Canadá.
«Enigma se trata de usar agentes de modelos de idiomas grandes para aplicaciones de ciberseguridad», dijo Meet Udeshi, un Ph.D. de NYU Tandon. estudiante y coautor de la investigación. Ramesh Karri, presidente del Departamento de Ingeniería Eléctrica e Informática de NYU Tandon (ECE), y miembro de la facultad del Centro NYU para Ciberseguridad y Centro NYU para Telecomunicaciones (CATT), y Farshad Khorrami, profesor de ECE y miembro de CathorMi, Profesor de Catts de Catsecuridad NYU, y miembro de Catts. Tanto Karri como Khorrami son coautores en el periódico, con Karri sirviendo como autor principal.
Para construir Enigma, los investigadores comenzaron con un marco existente llamado Swe-Agent, que originalmente fue diseñado para tareas de ingeniería de software. Sin embargo, los desafíos de ciberseguridad requerían herramientas especializadas que no existían en sistemas de IA anteriores. «Tenemos que reestructurar esas interfaces para alimentarlo en un LLM correctamente. Así que lo hemos hecho para un par de herramientas de ciberseguridad», explicó Udeshi.
La innovación clave fue desarrollar lo que llaman «herramientas de agentes interactivos» que convierten los programas de seguridad cibernética visual en formatos basados en texto que la IA puede entender. Las herramientas tradicionales de ciberseguridad, como debuggers y analizadores de redes, utilizan interfaces gráficas con botones en clic, pantallas visuales y elementos interactivos que los humanos pueden ver y manipular.
«Los modelos de lenguaje grandes solo procesan texto, pero estas herramientas interactivas con interfaces gráficas de usuario funcionan de manera diferente, por lo que tuvimos que reestructurar esas interfaces para trabajar con LLM», dijo Udeshi.
El equipo construyó su propio conjunto de datos mediante la recopilación y estructuración de los desafíos de captura de la bandera (CTF) específicamente para modelos de idiomas grandes. Estas concursos de ciberseguridad gamificados simulan vulnerabilidades del mundo real y tradicionalmente se han utilizado para capacitar a profesionales de ciberseguridad humana.

Enigma es un agente de LM alimentado con desafíos CTF del NYU CTF Benchmark. Interactúa con la computadora a través de un entorno construido sobre el agente SWE (Yang et al., 2024) y la extiende a la ciberseguridad. Incorporamos nuevas herramientas interactivas que ayudan al agente a depurar y conectarse al servidor remoto. El agente itera a través de interacciones y comentarios del entorno hasta que resuelve el desafío. Crédito: Talor Abramovich et al.
«Los CTF son como una versión gamificada de ciberseguridad utilizada en competiciones académicas. No son verdaderos problemas de ciberseguridad que enfrentarías en el mundo real, pero son muy buenas simulaciones», señaló Udeshi.
Coautor de papel Minghao Shao, un Ph.D. de NYU Tandon Estudiante y Ph.D. Global Miembro de NYU Abu Dhabi, aconsejado por Karri y Muhammad Shafique, profesor de ingeniería informática en NYU Abu Dhabi y el profesor de red global de ECE en NYU Tandon, describió la arquitectura técnica: «Creamos nuestro propio conjunto de datos de referencia CTF y creamos un sistema de carga de datos especializado para alimentar estos desafíos en el modelo». Shafique también es coautor en el papel.
El marco incluye indicaciones especializadas que proporcionan al modelo instrucciones adaptadas a escenarios de seguridad cibernética.
Enigma demostró un rendimiento superior en múltiples puntos de referencia. El sistema se probó en 390 desafíos de CTF en cuatro puntos de referencia diferentes, logrando resultados de última generación y resolviendo más de tres veces más desafíos que los agentes de IA anteriores.
Durante la investigación realizada hace aproximadamente 12 meses, «el soneto Claude 3.5 de Anthrope fue el mejor modelo, y GPT-4O fue segundo en ese momento», según Udeshi.
La investigación también identificó un fenómeno previamente desconocido llamado «soliloquismo», donde el modelo de IA genera observaciones alucinadas sin interactuar realmente con el medio ambiente, un descubrimiento que podría tener importantes consecuencias para la seguridad y confiabilidad de la IA.
Más allá de este hallazgo técnico, las aplicaciones potenciales se extienden fuera de las competiciones académicas. «Si piensa en un agente de LLM autónomo que puede resolver estos CTF, ese agente tiene habilidades sustanciales de ciberseguridad que también puede usar para otras tareas de ciberseguridad», explicó Udeshi. El agente podría aplicarse a la evaluación de vulnerabilidad del mundo real, con la capacidad de «probar cientos de enfoques diferentes» de forma autónoma.
Para Udeshi, cuya investigación se centra en la seguridad del sistema de control industrial, el marco abre nuevas posibilidades para asegurar sistemas robóticos y sistemas de control industrial. Shao ve aplicaciones potenciales más allá de la ciberseguridad, incluida la generación de código cuántico y la detección de vulnerabilidad de diseño de chips.
Los investigadores reconocen la naturaleza de doble uso de su tecnología. Si bien Enigma podría ayudar a los profesionales de la seguridad a identificar y parchear las vulnerabilidades de manera más eficiente, también podría ser mal utilizado para fines maliciosos. El equipo ha notificado a representantes de las principales compañías de IA, incluidas Meta, Anthrope y OpenAI sobre sus resultados.
Más información:
Enigma: las herramientas interactivas ayudan sustancialmente a los agentes de LM a encontrar vulnerabilidades de seguridad: icml.cc/virtual/2025/postert/45428
Citación: El agente de IA resuelve de forma autónoma desafíos complejos de seguridad cibernética utilizando herramientas basadas en texto (2025, 29 de julio) Recuperado el 29 de julio de 2025 de https://techxplore.com/news/2025-07-ai-agent-autonomy-complex-cybersecurity.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.