
La startup de IA Perplexity advierte que estamos entrando en una era de vectores de ataque nuevos y novedosos en lo que respecta a la ciberseguridad.
Los expertos en ciberseguridad advierten que los agentes de inteligencia artificial, ampliamente considerados como la próxima frontera en la revolución de la IA generativa, podrían terminar siendo secuestrados y haciendo el trabajo sucio para los piratas informáticos.
Los agentes de IA son programas que utilizan chatbots de inteligencia artificial para realizar el trabajo que los humanos hacen en línea, como comprar un boleto de avión o agregar eventos a un calendario.
Pero la capacidad de dar órdenes a los agentes de IA con un lenguaje sencillo hace posible que incluso aquellos sin conocimientos técnicos hagan travesuras.
«Estamos entrando en una era en la que la ciberseguridad ya no se trata de proteger a los usuarios de malos actores con un conjunto de habilidades altamente técnicas», dijo la startup de IA Perplexity en una publicación de blog.
«Por primera vez en décadas, estamos viendo vectores de ataque nuevos y novedosos que pueden venir de cualquier lugar».
Estos llamados ataques de inyección no son nuevos en el mundo de los piratas informáticos, pero antes requerían un código informático inteligentemente escrito y oculto para causar daños.
Pero a medida que las herramientas de inteligencia artificial evolucionaron desde simplemente generar texto, imágenes o videos hasta convertirse en «agentes» que pueden rastrear Internet de forma independiente, ha aumentado el potencial de que sean controladas por indicaciones introducidas por piratas informáticos.
«La gente necesita comprender que existen peligros específicos al usar la IA en el sentido de seguridad», dijo la ingeniera de software Marti Jorda Roca de NeuralTrust, que se especializa en seguridad de modelos de lenguajes grandes.
Meta llama a esta amenaza de inyección de consultas una «vulnerabilidad». El director de seguridad de la información de OpenAI, Dane Stuckey, se ha referido a ello como «un problema de seguridad no resuelto».
Ambas empresas están invirtiendo miles de millones de dólares en IA, cuyo uso está aumentando rápidamente junto con sus capacidades.
IA ‘desviada’
En algunos casos, la inyección de consultas puede tener lugar en tiempo real cuando un mensaje de usuario («hazme una reserva de hotel») es manipulado por un actor hostil para convertirlo en otra cosa: «transfiera $100 a esta cuenta».
Pero estas nefastas indicaciones también pueden estar ocultas en Internet cuando los agentes de inteligencia artificial integrados en los navegadores encuentran datos en línea de dudosa calidad u origen, y potencialmente atrapados con comandos ocultos de los piratas informáticos.
Eli Smadja, de la firma israelí de ciberseguridad Check Point, considera que la inyección de consultas es el «problema de seguridad número uno» para los grandes modelos de lenguaje que impulsan a los agentes y asistentes de IA que están surgiendo rápidamente de la revolución ChatGPT.
Los principales rivales de la industria de la IA han instalado defensas y publicado recomendaciones para frustrar esos ciberataques.
Microsoft ha integrado una herramienta para detectar comandos maliciosos en función de factores que incluyen dónde se originan las instrucciones para los agentes de IA.
OpenAI alerta a los usuarios cuando los agentes que cumplen sus órdenes visitan sitios web confidenciales y bloquea el proceso hasta que el usuario humano supervise el software en tiempo real.
Algunos profesionales de la seguridad sugieren exigir que los agentes de IA obtengan la aprobación del usuario antes de realizar cualquier tarea importante, como exportar datos o acceder a cuentas bancarias.
«Un gran error que veo que ocurre con frecuencia es dar al mismo agente de inteligencia artificial todo el poder para hacerlo todo», dijo Smadja a la AFP.
A los ojos del investigador de ciberseguridad Johann Rehberger, conocido en la industria como «wunderwuzzi», el mayor desafío es que los ataques están mejorando rápidamente.
«Sólo mejoran», dijo Rehberger sobre las tácticas de los hackers.
Parte del desafío, según el investigador, es lograr un equilibrio entre seguridad y facilidad de uso, ya que las personas quieren la conveniencia de que la IA haga las cosas por ellos sin controles ni monitoreo constantes.
Rehberger sostiene que los agentes de IA aún no están lo suficientemente maduros como para confiarles misiones o datos importantes.
«No creo que estemos en una posición en la que se pueda tener una IA activa durante mucho tiempo y realizar una determinada tarea de forma segura», dijo el investigador.
«Simplemente se desvía».
© 2025 AFP
Citación: Los agentes de IA abren la puerta a nuevas amenazas de piratería (2025, 11 de noviembre) recuperado el 11 de noviembre de 2025 de https://techxplore.com/news/2025-11-ai-agents-door-hacking-threats.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.


