Si has visto dibujos animados como Tom y Jerry, reconocerás un tema común: un objetivo esquivo evita a su formidable adversario. Este juego de «gato y ratón», ya sea literal o de otro tipo, busca algo que te escape de manera tan estrecha en cada intento.
De manera similar, evadir a los piratas informáticos persistentes es un desafío continuo para los equipos de ciberseguridad. Manteniéndolos persiguiendo lo que está fuera de alcance, los investigadores del MIT están trabajando en un enfoque de IA llamado «inteligencia adversaria artificial» que imita a los atacantes de un dispositivo o red para probar las defensas de la red antes de que ocurran ataques reales. Otras medidas defensivas basadas en IA ayudan a los ingenieros a fortalecer aún más sus sistemas para evitar ransomware, robo de datos u otros hacks.
Aquí, una vez en mayo O’Reilly, un investigador principal del Laboratorio de Informática y la Informática Artificial (CSAIL) que lidera el aprendizaje de todos los grupos (ALFA), discute cómo la inteligencia artificial adversa nos protege de las amenazas cibernéticas.
¿De qué manera puede la inteligencia adversaria artificial jugar el papel de un atacante cibernético, y cómo retrata la inteligencia de la adversaria artificial a un defensor cibernético?
Los atacantes cibernéticos existen a lo largo de un espectro de competencia. En el extremo más bajo, hay llamados guionistas o actores de amenaza que rocían exploits y malware conocidos con la esperanza de encontrar una red o dispositivo que no haya practicado una buena higiene cibernética. En el medio hay mercenarios cibernéticos que son mejor recursos y organizados para aprovechar las empresas con ransomware o extorsión. Y, en el extremo superior, hay grupos que a veces son respaldados por el estado, que pueden lanzar las «amenazas persistentes avanzadas» más difícil de detectar (o APT).
Piense en la inteligencia especializada y nefasta que estos atacantes marcaron, esa es la inteligencia adversa. Los atacantes hacen herramientas muy técnicas que les permiten piratear el código, eligen la herramienta adecuada para su objetivo y sus ataques tienen múltiples pasos. En cada paso, aprenden algo, lo integran en su conciencia situacional y luego toman una decisión sobre qué hacer a continuación.
Para los APT sofisticados, pueden elegir estratégicamente su objetivo y idear un plan de visibilidad lento y lento que es tan sutil que su implementación escapa de nuestros escudos defensivos. ¡Incluso pueden planificar evidencia engañosa que apunte a otro hacker!
Mi objetivo de investigación es replicar este tipo específico de inteligencia ofensiva o atacante, inteligencia que está orientada adversa (inteligencia en la que los actores de amenaza humana confían). Utilizo AI y aprendizaje automático para diseñar agentes cibernéticos y modelar el comportamiento adversario de los atacantes humanos. También modelo el aprendizaje y la adaptación que caracteriza las carreras de armas cibernéticas.
También debo tener en cuenta que las defensas cibernéticas son bastante complicadas. Han evolucionado su complejidad en respuesta a la creciente capacidades de ataque. Estos sistemas de defensa implican diseñar detectores, registros del sistema de procesamiento, desencadenar alertas apropiadas y luego triándolos en sistemas de respuesta a incidentes. Tienen que estar constantemente alertas para defender una superficie de ataque muy grande que es difícil de rastrear y muy dinámica. En este otro lado de la competencia del atacante versus defensor, mi equipo y yo también inventamos IA al servicio de estos diferentes frentes defensivos.
Otra cosa se destaca sobre la inteligencia adversa: ¡tanto Tom como Jerry pueden aprender de competir entre sí! Sus habilidades se agudizan y se encerran en una carrera armamentista. Uno mejora, luego el otro, para salvar su piel, también mejora. ¡Esta mejora de teta por ojo avanza y más adelante! Trabajamos para replicar versiones cibernéticas de estas carreras de armas.
¿Cuáles son algunos ejemplos en nuestra vida cotidiana donde la inteligencia adversaria artificial nos ha mantenido a salvo? ¿Cómo podemos usar agentes de inteligencia adversos para mantenerse por delante de los actores de amenaza?
El aprendizaje automático se ha utilizado de muchas maneras para garantizar la ciberseguridad. Hay todo tipo de detectores que filtran amenazas. Están sintonizados con un comportamiento anómalo y a tipos reconocibles de malware, por ejemplo. Hay sistemas de triaje habilitados para AI. ¡Algunas de las herramientas de protección de spam en su teléfono celular están habilitados para AI!
Con mi equipo, diseño atacantes cibernéticos habilitados para AI que pueden hacer lo que hacen los actores de amenaza. Inventamos a la IA para dar a nuestros agentes cibernéticos habilidades informáticas expertas y conocimientos de programación, para que sean capaces de procesar todo tipo de conocimiento cibernético, planear pasos de ataque y tomar decisiones informadas dentro de una campaña.
Los agentes adversos inteligentes (como nuestros atacantes cibernéticos de IA) pueden usarse como práctica al probar las defensas de la red. Se hace mucho esfuerzo para verificar la robustez de una red para atacar, y la IA puede ayudar con eso. Además, cuando agregamos aprendizaje automático a nuestros agentes, y a nuestras defensas, juegan una carrera armamentista que podemos inspeccionar, analizar y usar para anticipar qué contramedidas se pueden usar cuando tomamos medidas para defendernos.
¿A qué nuevos riesgos se están adaptando y cómo lo hacen?
Parece que nunca se lanzará el nuevo software y se están diseñando nuevas configuraciones de sistemas. Con cada lanzamiento, hay vulnerabilidades a los que un atacante puede apuntar. Estos pueden ser ejemplos de debilidades en el código que ya están documentados, o pueden ser novedosos.
Las nuevas configuraciones representan el riesgo de errores o nuevas formas de ser atacadas. No imaginamos ransomware cuando estábamos lidiando con ataques de denegación de servicio. Ahora estamos haciendo malabarismos con el espionaje cibernético y el ransomware con IP [intellectual property] robo. Toda nuestra infraestructura crítica, incluidas las redes de telecomunicaciones y los sistemas financieros, de atención médica, municipal, de energía y de agua, son objetivos.
Afortunadamente, se está dedicando mucho esfuerzo a defender la infraestructura crítica. Tendremos que traducir eso a productos y servicios basados en IA que automatizan algunos de esos esfuerzos. Y, por supuesto, para seguir diseñando agentes adversos más inteligentes e inteligentes para mantenernos alerta o ayudarnos a practicar defender nuestros activos cibernéticos.
Esta historia se vuelve a publicar por cortesía de MIT News (web.mit.edu/newsoffice/), un sitio popular que cubre noticias sobre la investigación del MIT, la innovación y la enseñanza.
Citación: Preguntas y respuestas: Modelado de inteligencia adversa para explotar las vulnerabilidades de seguridad de AI (2025, 30 de enero) Recuperado el 30 de enero de 2025 de https://techxplore.com/news/2025-01-qa-adversarial-intelligence-exploit-ai.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
GIPHY App Key not set. Please check settings