in

Para la IA, el secreto a menudo no mejora la seguridad

Ciencias de la Computación

Ciencias de la Computación

Crédito: Pixabay/CC0 Dominio público

La preocupación por el uso indebido de la inteligencia artificial ha llevado a los líderes políticos a considerar regular la tecnología emergente de maneras que podrían limitar el acceso al funcionamiento interno de los modelos de IA. Pero investigadores de un grupo de importantes universidades, incluida Princeton, advierten que tales restricciones probablemente hagan más daño que bien.

en un artículo publicado en línea el 10 de octubre en la revista Cienciaun equipo de investigación que incluye al profesor de informática de Princeton, Arvind Narayanan, y al estudiante graduado Sayash Kapoor, concluye que limitar el acceso público a las estructuras subyacentes de los sistemas de IA podría tener varios resultados negativos.

Estos incluyen sofocar la innovación al restringir la capacidad de los ingenieros para mejorar y adaptar los modelos; creciente secreto del funcionamiento de los modelos; y concentrar el poder en manos de unos pocos individuos y corporaciones que controlan el acceso a la tecnología.

El artículo analiza en detalle las amenazas que plantea el uso indebido de los sistemas de inteligencia artificial en áreas que incluyen la desinformación, la piratería informática, el bioterrorismo y la creación de imágenes falsas. Los investigadores evalúan cada riesgo y discuten si existen formas más efectivas de combatirlos en lugar de restringir el acceso a los modelos de IA.

Por ejemplo, al analizar cómo se podría hacer un mal uso de la IA para generar texto para estafas por correo electrónico llamadas phishing, los investigadores señalan que es más eficaz reforzar las defensas que restringir la IA.

«[T]El cuello de botella clave para el phishing no es generalmente el texto de los correos electrónicos, sino las salvaguardias posteriores: los sistemas operativos, navegadores y servicios de correo electrónico modernos implementan varias capas de protección contra dicho malware», escriben.

El surgimiento de la inteligencia artificial en los últimos años ha generado llamados para regular la tecnología, incluidas medidas por parte de la Casa Blanca y la Unión Europea. Lo que está en juego es la construcción del código informático y los datos que componen los principales sistemas de IA actuales, como GPT-4 y Llama 2. Conocidos como modelos básicos, estos son los sistemas que se pueden aprovechar para escribir informes, crear gráficos y realizar otras tareas.

Una distinción importante entre los modelos es cómo se lanzan. Algunos modelos, llamados modelos abiertos, están completamente disponibles para inspección pública. Otros, llamados modelos cerrados, están disponibles sólo para sus diseñadores. Un tercer tipo son los híbridos, que mantienen en secreto partes de los modelos y permiten el acceso público a otras partes.

Aunque la distinción parece técnica, puede ser fundamental para la regulación. Los investigadores dijeron que la mayor parte de la preocupación sobre los modelos de IA se relaciona con las formas en que los modelos podrían subvertirse con fines maliciosos. Una opción para combatir el uso indebido es dificultar las adaptaciones restringiendo el acceso a los modelos de IA.

Los reguladores podrían hacer esto exigiendo a los desarrolladores que bloqueen el acceso externo. También podrían responsabilizar legalmente a los desarrolladores por el mal uso de los modelos por parte de otros, lo que probablemente tendría el mismo resultado.

Los investigadores encontraron que la evidencia disponible no muestra que los modelos abiertos sean más riesgosos que los modelos cerrados o la información ya disponible a través de técnicas de investigación estándar como la búsqueda en línea.

en un artículo Presentado a principios de este año en la Conferencia Internacional sobre Aprendizaje Automático, los investigadores concluyeron que la evidencia muestra que restringir el acceso a los modelos no necesariamente limita el riesgo de uso indebido. Esto se debe en parte a que incluso los modelos cerrados pueden subvertirse y en parte a que es posible que la información para actores maliciosos ya esté disponible en Internet a través de motores de búsqueda.

«Caracterizar correctamente el riesgo distintivo de los modelos de bases abiertas requiere centrar el riesgo marginal: en qué medida los modelos de bases abiertas aumentan el riesgo en relación con los modelos de bases cerradas o con tecnologías preexistentes como los motores de búsqueda», escriben los investigadores.

Los investigadores dijeron que esto no significa que el acceso a los modelos no deba limitarse. En algunas zonas, los modelos cerrados ofrecen la mejor solución. Pero, argumentan, los reguladores deben considerar cuidadosamente si limitar el acceso es la mejor manera de prevenir daños.

«Para muchos vectores de amenaza, la evidencia existente de riesgo marginal es limitada», escriben. «Esto no significa que los modelos de bases abiertas no representen ningún riesgo a lo largo de estos vectores, sino que se requiere un análisis más riguroso para fundamentar las intervenciones políticas».

Más información:
Rishi Bommasani et al, Consideraciones para gobernar los modelos de fundaciones abiertas, Ciencia (2024). DOI: 10.1126/ciencia.adp1848

Proporcionado por la Universidad de Princeton


Citación: Para la IA, el secreto a menudo no mejora la seguridad (2024, 14 de octubre) recuperado el 14 de octubre de 2024 de https://techxplore.com/news/2024-10-ai-secrecy.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Anker presenta ofertas de Black Friday con acceso anticipado, además de un 20% de descuento en accesorios seleccionados para lectores de MacRumors

Adobe permite a los clientes probar el generador de vídeo Firefly AI

Adobe permite a los clientes probar el generador de vídeo Firefly AI