La nueva herramienta de seguridad de IA, que puede responder preguntas sobre vulnerabilidades y problemas de ingeniería inversa, ya está en versión preliminar.
Las manos de la IA están llegando más lejos en la industria tecnológica.
Microsoft ha agregado Security Copilot, un chatbot de lenguaje natural que puede escribir y analizar código, a su conjunto de productos habilitados por el modelo de IA generativa GPT-4 de OpenAI. Security Copilot, que se anunció el miércoles, ahora está en versión preliminar para clientes selectos. Microsoft publicará más información a través de sus actualizaciones por correo electrónico acerca de cuándo Security Copilot podría estar disponible para el público en general.
Salta a:
¿Qué es el copiloto de seguridad de Microsoft?
Microsoft Security Copilot es un conjunto de datos de inteligencia artificial en lenguaje natural que aparecerá como una barra de aviso. Esta herramienta de seguridad podrá:
- Responda preguntas conversacionales como «¿Cuáles son todos los incidentes en mi empresa?»
- Escribe resúmenes.
- Proporcione información sobre URL o fragmentos de código.
- Señale las fuentes de las que la IA extrajo su información.
La IA se basa en el modelo de lenguaje grande de OpenAI, además de un modelo específico de seguridad de Microsoft. Ese modelo patentado se basa en la inteligencia de amenazas global establecida y en curso. Las empresas que ya están familiarizadas con la línea de infraestructura Azure Hyperscale encontrarán las mismas características de seguridad y privacidad adjuntas a Security Copilot.
VER: Microsoft lanza la disponibilidad general del servicio Azure OpenAI (República Tecnológica)
¿Cómo ayuda Security Copilot a TI a detectar, analizar y mitigar las amenazas?
Microsoft posiciona a Security Copilot como una forma para que los departamentos de TI manejen la escasez de personal y las brechas de habilidades. El campo de la ciberseguridad “necesita críticamente más profesionales”, dicho el Consorcio Internacional de Certificación de Seguridad de Sistemas de Información (ISC)². La brecha mundial entre los trabajos de ciberseguridad y los trabajadores es de 3,4 millones, según el Estudio de Fuerza Laboral 2022 del consorcio.
Debido a las brechas de habilidades, las organizaciones pueden buscar formas de ayudar a los empleados que son más nuevos o están menos familiarizados con tareas específicas. Security Copilot automatiza algunas de esas tareas para que el personal de seguridad pueda escribir indicaciones como «buscar presencia de compromiso» para facilitar la búsqueda de amenazas. Los usuarios pueden guardar avisos y compartir libros de avisos con otros miembros de su equipo; estos libros de indicaciones registran lo que le han preguntado a la IA y cómo respondió.
Security Copilot puede resumir un evento, incidente o amenaza y crear un informe para compartir. También puede aplicar ingeniería inversa a un script malicioso, explicando lo que hace el script.
VER: Microsoft agrega el bot de productividad Copilot AI a la suite 365 (República Tecnológica)
Copilot se integra con varias ofertas de seguridad existentes de Microsoft. Microsoft Sentinel (una herramienta de gestión de eventos e información de seguridad), Defender (detección y respuesta ampliadas) e Intune (gestión de terminales y mitigación de amenazas) pueden comunicarse con Security Copilot y proporcionar información.
Microsoft asegura a los usuarios que estos datos y las indicaciones que brinda están seguros dentro de cada organización. El gigante tecnológico también crea pistas de auditoría transparentes dentro de la IA para que los desarrolladores puedan ver qué preguntas se hicieron y cómo las respondió Copilot. Los datos de Security Copilot nunca se retroalimentan a los grandes lagos de datos de Microsoft para entrenar otros modelos de IA, lo que reduce la posibilidad de que la información confidencial de una empresa termine como respuesta a una pregunta dentro de otra empresa.
¿Es segura la ciberseguridad administrada por IA?
Si bien la IA del lenguaje natural puede llenar los vacíos para el personal con exceso de trabajo o sin capacitación, los gerentes y los jefes de departamento deben tener un marco establecido para mantener los ojos humanos en el trabajo antes de que el código entre en funcionamiento; después de todo, la IA aún puede arrojar resultados falsos o engañosos. (Microsoft tiene opciones para informar cuando Security Copilot comete errores).
Soo Choi-Andrews, cofundador y director ejecutivo de la empresa de seguridad Mondoo, señaló las siguientes preocupaciones que los responsables de la ciberseguridad podrían tener en cuenta antes de asignar a su equipo el uso de IA.
“Los equipos de seguridad deben abordar las herramientas de IA con el mismo rigor que lo harían al evaluar cualquier producto nuevo”, dijo Choi-Andrews en una entrevista por correo electrónico. “Es esencial comprender las limitaciones de la IA, ya que la mayoría de las herramientas todavía se basan en algoritmos probabilísticos que pueden no siempre producir resultados precisos… Al considerar la implementación de la IA, los CISO deben preguntarse si la tecnología ayuda a la empresa a generar ingresos más rápido y al mismo tiempo proteger los activos y cumplimiento de las obligaciones de cumplimiento”.
“En cuanto a la cantidad de IA que se debe usar, el panorama está evolucionando rápidamente y no existe una respuesta única para todos”, dijo Choi-Andrews.
VER: Como hoja de ciberseguridad, ChatGPT puede cortar en ambos sentidos (República Tecnológica)
OpenAI enfrentó una filtración de datos el 20 de marzo de 2023. «Desconectamos ChatGPT a principios de esta semana debido a un error en una biblioteca de código abierto que permitía a algunos usuarios ver títulos del historial de chat de otro usuario activo», escribió OpenAI en un entrada en el blog el 24 de marzo de 2023. Se parcheó la biblioteca de código abierto del cliente de Redis, redis-py.
A día de hoy, más de 1700 personas, incluidos Elon Musk y Steve Wozniak firmó una petición que las empresas de IA como OpenAI “pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4” para “desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos”. La petición fue iniciada por el Future of Life Institute, una organización sin fines de lucro dedicada a utilizar la IA para el bien y reducir su potencial de «riesgos a gran escala» como la «IA militarizada».
Tanto los atacantes como los defensores usan productos OpenAI
El principal rival de Microsoft en el campo de encontrar el uso más lucrativo para la IA del lenguaje natural, Google, aún no ha anunciado un producto de IA dedicado para la seguridad empresarial. Microsoft anunció en enero de 2023 que su El brazo de ciberseguridad ahora es un negocio de $ 20 mil millones.
Algunas otras empresas que se enfocan en la seguridad han intentado agregar el producto hablador de OpenAI. ARMO, que fabrica la plataforma de seguridad Kubescape para Kubernetes, agregado ChatGPT a su función de controles personalizados en febrero. Orca Security agregó el GPT-3 de OpenAI, en ese momento el modelo más actualizado, a su plataforma de seguridad en la nube en enero para elaborar instrucciones para los clientes sobre cómo remediar un problema. Skyhawk Security agregó el moderno modelo de IA a su productos de respuesta y detección de amenazas en la nubetambién.
En cambio, otra señal fuerte aquí podría ser para aquellos en el lado del sombrero negro de la línea de ciberseguridad. Hackers y corporaciones gigantes continuará luchando por los muros digitales más defendibles y cómo romperlos.
“Es importante tener en cuenta que la IA es un arma de doble filo: si bien puede beneficiar las medidas de seguridad, los atacantes también la aprovechan para sus propósitos”, dijo Andrews.