Cisco está adoptando un enfoque radical para la seguridad de la IA en su nueva solución AI Defense.
En una entrevista exclusiva el domingo con Rowan Cheung de La IA resumidael vicepresidente ejecutivo y CPO de Cisco, Jeetu Patel, dijo que AI Defense está «adoptando un enfoque radical para abordar los desafíos que las soluciones de seguridad existentes no están equipadas para manejar».
AI Defense, anunciado la semana pasada, tiene como objetivo abordar los riesgos en el desarrollo e implementación de aplicaciones de IA, así como identificar dónde se utiliza la IA en una organización.
AI Defense puede proteger los sistemas de IA de ataques y salvaguardar el comportamiento del modelo en todas las plataformas con características como:
- Detección de aplicaciones de IA autorizadas y en la sombra en nubes públicas y privadas;
- Pruebas automatizadas de modelos de IA para cientos de posibles problemas de seguridad; y
- La validación continua protege contra posibles amenazas a la seguridad, como la inyección rápida, la denegación de servicio y la fuga de datos confidenciales.
La solución también permite a los equipos de seguridad proteger mejor los datos de sus organizaciones al proporcionar una vista integral de las aplicaciones de IA utilizadas por los empleados, crear políticas que restringen el acceso a herramientas de IA no autorizadas e implementar salvaguardias contra amenazas y pérdida de datos confidenciales al tiempo que garantiza el cumplimiento.
«La adopción de la IA expone a las empresas a nuevos riesgos que las soluciones tradicionales de ciberseguridad no abordan», Kent Noyes, director global de IA y ciberinnovación de una empresa de servicios tecnológicos. Tecnología mundial en St. Louis, dijo en un comunicado. «Cisco AI Defense representa un importante avance en la seguridad de la IA, ya que proporciona visibilidad completa de los activos de IA de una empresa y protección contra amenazas en evolución».
Paso positivo para la seguridad de la IA
MJ Kaufmann, autor e instructor en O’Reilly Mediosoperador de una plataforma de aprendizaje para profesionales de la tecnología, en Boston, afirmó el análisis de Cisco sobre las soluciones de ciberseguridad existentes. «Cisco tiene razón», dijo a TechNewsWorld. «Las herramientas existentes no logran abordar muchos ataques impulsados operativamente contra sistemas de inteligencia artificial, como ataques de inyección rápida, fuga de datos y acciones de modelos no autorizados».
«Los implementadores deben tomar medidas e implementar soluciones específicas para abordarlos», añadió.
Cisco está en una posición única para ofrecer este tipo de solución, señaló Jack E. Gold, fundador y analista principal de J. Gold Asociadosuna empresa de asesoría de TI en Northborough, Massachusetts. «Eso se debe a que tienen una gran cantidad de datos de su telemetría de red que pueden usarse para reforzar las capacidades de IA que desean proteger», dijo a TechNewsWorld.
Cisco también quiere brindar seguridad en todas las plataformas (locales, en la nube y en múltiples nubes) y en todos los modelos, agregó.
«Será interesante ver cuántas empresas adoptan esto», afirmó. «Cisco ciertamente se está moviendo en la dirección correcta con este tipo de capacidad porque las empresas, en términos generales, no están analizando esto de manera muy efectiva».
Proporcionar protección multimodelo y multinube es importante para la seguridad de la IA.
«Las soluciones de IA multimodelo y multinube amplían la superficie de ataque de una organización al introducir complejidad en entornos dispares con protocolos de seguridad inconsistentes, múltiples puntos de transferencia de datos y desafíos para coordinar el monitoreo y la respuesta a incidentes, factores que los actores de amenazas pueden explotar más fácilmente». Patricia Thaine, directora ejecutiva y cofundadora de IA privadadijo a TechNewsWorld una empresa de privacidad y seguridad de datos en Toronto.
Respecto a las limitaciones
Aunque el enfoque de Cisco de incorporar controles de seguridad en la capa de red a través de su malla de infraestructura existente es prometedor, también revela limitaciones preocupantes, sostuvo Dev Nag, director ejecutivo y fundador de ConsultaPalun chatbot de atención al cliente con sede en San Francisco.
«Si bien la visibilidad a nivel de red proporciona una telemetría valiosa, muchos ataques específicos de IA ocurren en las capas de aplicación y modelo que el monitoreo de la red por sí solo no puede detectar», dijo a TechNewsWorld.
«La adquisición de Robust Intelligence el año pasado brinda a Cisco capacidades importantes en torno a la validación de modelos y la protección del tiempo de ejecución, pero su enfoque en la integración de la red puede generar brechas en la seguridad del ciclo de vida real del desarrollo de la IA», dijo. «Las áreas críticas como la seguridad del proceso de capacitación, la verificación de la cadena de suministro de modelos y el ajuste de las barreras de seguridad requieren una integración profunda con las herramientas MLOps que van más allá del paradigma tradicional centrado en la red de Cisco».
«Piense en los dolores de cabeza que hemos visto con los ataques a la cadena de suministro de código abierto donde el código ofensivo es abiertamente visible», añadió. «Los ataques modelo a la cadena de suministro son casi imposibles de detectar en comparación».
Nag señaló que desde una perspectiva de implementación, Cisco AI Defense parece ser principalmente un reempaquetado de productos de seguridad existentes con algunas capacidades de monitoreo específicas de AI superpuestas.
«Si bien su amplia huella de implementación proporciona ventajas para la visibilidad en toda la empresa, la solución parece más reactiva que transformadora por ahora», sostuvo. «Para algunas organizaciones que comienzan su viaje hacia la IA y que ya están trabajando con productos de seguridad de Cisco, Cisco AI Defense puede proporcionar controles útiles, pero aquellas que buscan capacidades avanzadas de IA probablemente necesitarán arquitecturas de seguridad más sofisticadas diseñadas específicamente para sistemas de aprendizaje automático».
Para muchas organizaciones, mitigar los riesgos de la IA requiere evaluadores de penetración humanos que sepan cómo hacer preguntas a los modelos que obtengan información confidencial, agregó Karen Walsh, directora ejecutiva de Soluciones Allegrouna empresa de consultoría de ciberseguridad en West Hartford, Connecticut.
«El lanzamiento de Cisco sugiere que su capacidad para crear barreras de seguridad específicas para cada modelo mitigará estos riesgos para evitar que la IA aprenda de datos incorrectos, responda a solicitudes maliciosas y comparta información no deseada», dijo a TechNewsWorld. «Como mínimo, podríamos esperar que esto identifique y mitigue los problemas básicos para que los evaluadores puedan centrarse en estrategias de compromiso de IA más sofisticadas».
Necesidad crítica en el camino hacia la AGI
Kevin Okemwa, escribiendo para Centro de Windowsseñala que el lanzamiento de AI Defense no podría llegar en mejor momento, ya que los principales laboratorios de IA se están acercando a la producción de verdadera inteligencia artificial general (AGI), que se supone replica la inteligencia humana.
«A medida que AGI se acerca cada año que pasa, lo que está en juego no podría ser mayor», dijo James McQuiggan, defensor de la concientización sobre la seguridad en saberbe4un proveedor de capacitación en concientización sobre seguridad en Clearwater, Florida.
«La capacidad de AGI para pensar como un ser humano con intuición y orientación puede revolucionar las industrias, pero también introduce riesgos que podrían tener consecuencias de gran alcance», dijo a TechNewsWorld. «Una solución sólida de seguridad de IA garantiza que AGI evolucione de manera responsable, minimizando riesgos como la toma de decisiones deshonestas o consecuencias no deseadas».
«La seguridad de la IA no es sólo algo ‘bueno’ o algo en lo que pensar en los próximos años», añadió. «Es fundamental a medida que avanzamos hacia AGI».
¿Perdición existencial?
Okemwa también escribió: “Si bien AI Defense es un paso en la dirección correcta, su adopción en las organizaciones y los principales laboratorios de IA aún está por verse. Curiosamente, el director ejecutivo de OpenAI [Sam Altman] reconoce la amenaza que representa la tecnología para la humanidad, pero cree que la IA será lo suficientemente inteligente como para evitar que cause una ruina existencial”.
«Veo cierto optimismo sobre la capacidad de la IA para autorregularse y prevenir resultados catastróficos, pero también observo en la adopción que alinear los sistemas avanzados de IA con los valores humanos sigue siendo una ocurrencia tardía y no un imperativo», Adam Ennamli, director de riesgos y seguridad. del Banco General de Canadá dijo a TechNewsWorld.
«La noción de que la IA resolverá sus propios riesgos existenciales es peligrosamente optimista, como lo demuestran los sistemas de IA actuales que ya pueden manipularse para crear contenido dañino y eludir los controles de seguridad», añadió Stephen Kowski, director de tecnología de campo de Barra diagonalSiguienteuna empresa de seguridad informática y de redes, en Pleasanton, California.
«Las salvaguardias técnicas y la supervisión humana siguen siendo esenciales, ya que los sistemas de inteligencia artificial están impulsados fundamentalmente por sus datos de entrenamiento y objetivos programados, no por un deseo inherente de bienestar humano», dijo a TechNewsWorld.
«Los seres humanos son bastante creativos», añadió Gold. “No creo en toda esta tontería apocalíptica. Descubriremos una manera de hacer que la IA funcione para nosotros y lo hagamos de forma segura. Eso no quiere decir que no habrá problemas en el camino, pero no todos vamos a terminar en ‘The Matrix’”.
GIPHY App Key not set. Please check settings