Microsoft tiene lanzó una nueva colección de herramientas y una guía para solucionar problemas de seguridad que han surgido en torno a la forma en que el asistente Copilot de IA generativa (genAI) de la empresa maneja la información. Es decir, la indexación por parte de la herramienta de los datos internos de una organización puede hacer que el asistente de IA comparta información confidencial cuando no debería.
Un empleado de Microsoft familiarizado con las quejas de los clientes dice Información privilegiada sobre negocios: “Ahora, cuando Joe Blow inicia sesión en una cuenta e inicia Copilot, pueden ver todo. De repente, Joe Blow puede ver el correo electrónico del director ejecutivo”.
Información privilegiada sobre negocios informa que el comportamiento llevó a varias organizaciones a retrasar el uso de Copilot por razones de seguridad. «Muchos desafíos de gobernanza de datos asociados con la IA no fueron causados por la llegada de la IA», dijo un portavoz de Microsoft a la publicación.
En cambio, según el portavoz, las herramientas de inteligencia artificial como Copilot resaltan cómo las empresas deben asumir la responsabilidad proactiva de cómo gestionan los documentos internos y otra información.
GIPHY App Key not set. Please check settings