Un memorando de política interna redactado por OpenAI muestra que la compañía apoya la idea de exigir licencias gubernamentales a cualquier persona que quiera desarrollar sistemas avanzados de inteligencia artificial. El documento también sugiere que la empresa está dispuesta a retirar el telón de los datos que utiliza para entrenar a los generadores de imágenes.
El creador de ChatGPT y DALL-E presentó una serie de compromisos de política de IA en el documento interno luego de una reunión del 4 de mayo entre funcionarios de la Casa Blanca y ejecutivos de tecnología, incluido el director ejecutivo de OpenAI, Sam Altman. «Nos comprometemos a trabajar con el gobierno de EE. UU. y los responsables políticos de todo el mundo para apoyar el desarrollo de requisitos de licencia para las generaciones futuras de los modelos de base más capaces», dijo la compañía con sede en San Francisco en el borrador.
La idea de un sistema de licencias del gobierno desarrollado conjuntamente por pesos pesados de la IA como OpenAI prepara el escenario para un posible enfrentamiento con las nuevas empresas y los desarrolladores de código abierto que pueden verlo como un intento de dificultar que otros entren en el espacio. No es la primera vez que OpenAI plantea la idea: durante una audiencia en el Senado de EE. UU. en mayo, Altman respaldó la creación de una agencia que, dijo, podría emitir licencias para productos de IA y retirarlas si alguien viola las reglas establecidas.
El documento de política llega justo cuando se espera que Microsoft Corp., Google de Alphabet Inc. y OpenAI se comprometan públicamente el viernes a salvaguardar el desarrollo de la tecnología, respondiendo a un llamado de la Casa Blanca. Según personas familiarizadas con los planes, las empresas se comprometerán con el desarrollo y despliegue responsable de la IA.
OpenAI advirtió que las ideas establecidas en el documento de política interna serán diferentes de las que pronto anunciará la Casa Blanca, junto con las empresas tecnológicas. Anna Makanju, vicepresidenta de asuntos globales de la compañía, dijo en una entrevista que la compañía no está «presionando» para obtener licencias tanto como cree que tales permisos son una forma «realista» para que los gobiernos rastreen los sistemas emergentes.
«Es importante que los gobiernos estén al tanto de si están surgiendo sistemas súper poderosos que podrían tener impactos dañinos potenciales», dijo, y hay «muy pocas formas en que puede asegurarse de que los gobiernos estén al tanto de estos sistemas si alguien no está dispuesto a autoinformarse como lo hacemos nosotros».
Makanju dijo que OpenAI admite regímenes de licencia solo para modelos de IA más potentes que el GPT-4 actual de OpenAI y quiere garantizar que las nuevas empresas más pequeñas estén libres de demasiada carga regulatoria. «No queremos sofocar el ecosistema», dijo.
OpenAI también señaló en el documento de política interna que está dispuesto a ser más abierto sobre los datos que utiliza para capacitar a los generadores de imágenes como DALL-E, y dijo que estaba comprometido a «incorporar un enfoque de procedencia» para fin de año. La procedencia de los datos, una práctica utilizada para responsabilizar a los desarrolladores por la transparencia en su trabajo y de dónde proviene, ha sido planteada por los formuladores de políticas como fundamental para evitar que las herramientas de IA difundan información errónea y sesgada.
Los compromisos establecidos en el memorando de OpenAI siguen de cerca algunas de las propuestas de políticas de Microsoft anunciadas en mayo. OpenAI ha señalado que, a pesar de recibir una inversión de $10 mil millones de Microsoft, sigue siendo una empresa independiente.
La firma reveló en el documento que está realizando una encuesta sobre marcas de agua, un método para rastrear la autenticidad y los derechos de autor de las imágenes generadas por IA, así como la detección y divulgación en el contenido creado por IA. Tiene previsto publicar resultados.
La compañía también dijo en el documento que estaba abierta a equipos rojos externos; en otras palabras, permitir que las personas ingresen y prueben las vulnerabilidades en su sistema en múltiples frentes, incluido el contenido ofensivo, el riesgo de manipulación, información errónea y sesgo. La firma dijo en el memorando que apoya la creación de un centro de intercambio de información para colaborar en ciberseguridad.
En el memorando, OpenAI parece reconocer el riesgo potencial que los sistemas de IA representan para los mercados laborales y la desigualdad. La compañía dijo en el borrador que llevaría a cabo una investigación y haría recomendaciones a los legisladores para proteger la economía contra una posible «perturbación».
2023 Bloomberg LP
Distribuido por Tribune Content Agency, LLC.
Citación: OpenAI respalda la idea de requerir licencias para sistemas avanzados de IA (21 de julio de 2023) consultado el 21 de julio de 2023 en https://techxplore.com/news/2023-07-openai-idea-requiring-advanced-ai.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.