in

OpenAI, Google y más acuerdan la lista de la Casa Blanca de ocho garantías de seguridad de IA

Las garantías incluyen marcas de agua, informes sobre capacidades y riesgos, inversión en salvaguardas para evitar sesgos y más.

La casa Blanca.
Imagen: Bill Chizek/Adobe Stock

Algunas de las empresas de IA generativa más grandes que operan en los EE. UU. planean poner una marca de agua en su contenido, una hoja informativa de la Casa Blanca revelado el viernes 21 de julio. Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI acordaron ocho compromisos voluntarios en torno al uso y la supervisión de la IA generativa, incluida la marca de agua.

Esto sigue a una declaración de marzo sobre las preocupaciones de la Casa Blanca sobre el mal uso de la IA. Además, el acuerdo llega en un momento en que los reguladores están estableciendo procedimientos para gestionar el efecto que la inteligencia artificial generativa ha tenido en la tecnología y las formas en que las personas interactúan con ella desde que ChatGPT puso el contenido de IA a la vista del público en noviembre de 2022.

Salta a:

¿Cuáles son los ocho compromisos de seguridad de la IA?

Los ocho compromisos de seguridad de la IA incluyen:

  • Pruebas de seguridad internas y externas de los sistemas de IA antes de su lanzamiento.
  • Compartir información en toda la industria y con los gobiernos, la sociedad civil y la academia sobre la gestión de riesgos de IA.
  • Invertir en seguridad cibernética y protección contra amenazas internas, específicamente para proteger los pesos del modelo, que afectan el sesgo y los conceptos que el modelo de IA asocia.
  • Fomentar el descubrimiento y la notificación de vulnerabilidades en sus sistemas de inteligencia artificial por parte de terceros.
  • Informar públicamente sobre las capacidades, limitaciones y áreas de uso apropiado e inapropiado de todos los sistemas de IA.
  • Priorizar la investigación sobre sesgo y privacidad.
  • Ayudar a utilizar la IA con fines beneficiosos, como la investigación del cáncer.
  • Desarrollar mecanismos técnicos robustos para la marca de agua.

El compromiso de la marca de agua implica que las empresas de IA generativa desarrollen una forma de marcar contenido de texto, audio o visual como generado por máquina; se aplicará a cualquier contenido de IA generativo disponible públicamente creado después de que el sistema de marcas de agua esté bloqueado. Dado que el sistema de marcas de agua aún no se ha creado, pasará algún tiempo antes de que una forma estándar de saber si el contenido es generado por IA esté disponible públicamente.

VER: Kit de contratación: ingeniero rápido (TechRepublic Premium)

La regulación gubernamental de la IA puede desalentar a los actores maliciosos

El exvicepresidente global de Microsoft Azure y actual director de adquisiciones de Cognite, Moe Tanabian, apoya la regulación gubernamental de la IA generativa. Comparó la era actual de la IA generativa con el auge de las redes sociales, incluidas posibles desventajas como el escándalo de privacidad de datos de Cambridge Analytica y otra información errónea durante las elecciones de 2016, en una conversación con TechRepublic.

“Hay muchas oportunidades para que los actores maliciosos aprovechen [generative AI], y lo usan y lo usan mal, y lo están haciendo. Entonces, creo que los gobiernos deben tener alguna marca de agua, algún elemento de raíz de confianza que deben instanciar y definir”, dijo Tanabian.

“Por ejemplo, los teléfonos deberían poder detectar si los actores malintencionados están utilizando voces generadas por IA para dejar mensajes de voz fraudulentos”, dijo.

“Tecnológicamente, no estamos en desventaja. sabemos cómo [detect AI-generated content]”, dijo Tanabian. “Exigir a la industria y establecer esas regulaciones para que exista una raíz de confianza de que podemos autenticar este contenido generado por IA es la clave”.

Fuente

Written by TecTop

Apple lanza macOS Ventura 13.5

Apple lanza macOS Ventura 13.5

Cómo maximizar la efectividad de Molduga Jaws en Tears of the Kingdom