- Envenenamiento por datos: Los modelos de IA se pueden manipular introduciendo datos falsos o engañosos durante el entrenamiento. Esto puede afectar el proceso de toma de decisiones del agente y potencialmente hacer que se comporte de manera maliciosa o incorrecta.
- Ataques adversos: Estos implican alimentar al agente AI insumos cuidadosamente elaborados diseñados para engañarlo o confundirlo. En algunos casos, los ataques adversos pueden hacer que un modelo de IA malinterprete los datos, lo que lleva a decisiones nocivas.
- Ingeniería social: Los estafadores pueden explotar la interacción humana con los agentes de IA para engañar a los usuarios para que revelen información personal o dinero. Por ejemplo, si un agente de IA interactúa con los clientes, un estafador podría manipularlo para actuar de manera que defraude a los usuarios.
- Vulnerabilidades de seguridad: Si los agentes de IA están conectados a sistemas más grandes o Internet, pueden ser pirateados a través de fallas de seguridad, lo que permite a los actores maliciosos obtener el control sobre ellos. Esto puede ser particularmente preocupante en áreas como servicios financieros, vehículos autónomos o asistentes personales.
Por el contrario, si los agentes están bien diseñados y gobernados, la autonomía de su propia IA podría usarse para permitir la seguridad adaptativa, lo que les permite identificar y responder a las amenazas.
Litan de Gartner señaló soluciones emergentes, llamadas «Agentes de Guardián» – Sistema autónomo que puede supervisar a los agentes en todos los dominios. Aseguran la IA segura y confiable al monitorear, analizar y administrar las acciones de los agentes, incluido el bloqueo o la redirección para cumplir con los objetivos predefinidos.
Un agente de AI Guardian Registra las aplicaciones de IAHacer cumplir políticas, detectar anomalías, gestionar los riesgos y garantizar el cumplimiento dentro de la infraestructura de TI de una organización, según los principios de la consultoría comercial EA.