in

Meta ahora permite que las agencias militares accedan a su software de inteligencia artificial. Plantea un dilema moral para todos los que lo utilizan.

Meta

Meta

Crédito: Pixabay/CC0 Dominio público

Meta pondrá sus modelos de inteligencia artificial (IA) generativa a disposición del gobierno de Estados Unidos, anunció el gigante tecnológico, en una medida controvertida que plantea un dilema moral para todos los que utilizan el software.

Meta la semana pasada revelado Pondría los modelos, conocidos como Llama, a disposición de agencias gubernamentales, «incluidas aquellas que están trabajando en aplicaciones de defensa y seguridad nacional, y socios del sector privado que apoyan su trabajo».

La decisión parece contravenir la propia decisión de Meta. política que enumera una variedad de usos prohibidos para Llama, incluido «[m]militares, bélicos, industrias o aplicaciones nucleares», así como espionaje, terrorismo, trata de personas y explotación o daño a niños.

La excepción de Meta También se dice que se aplica a agencias de seguridad nacional similares en el Reino Unido, Canadá, Australia y Nueva Zelanda. vino justo tres días después de que Reuters revelara China ha modificado Llama para sus propios fines militares.

La situación pone de relieve la creciente fragilidad del software de inteligencia artificial de código abierto. También significa que los usuarios de Facebook, Instagram, WhatsApp y Messenger (algunas de las cuales usan Llama) pueden estar contribuyendo sin darse cuenta a programas militares en todo el mundo.

¿Qué es Llama?

Llama es una recopilación de grandes modelos de lenguaje, similar a ChatGPT, y grandes modelos multimodales que manejan datos distintos del texto, como audio e imágenes.

Meta, la empresa matriz de Facebook, lanzó Llama en respuesta al ChatGPT de OpenAI. La diferencia clave entre los dos es que Todos los modelos de Llama se comercializan como de código abierto y de uso gratuito.. Esto significa que cualquiera puede descargar el código fuente de un modelo de Llama, ejecutarlo y modificarlo ellos mismos (si tiene el hardware adecuado). Por otro lado, solo se puede acceder a ChatGPT a través de OpenAI.

El Iniciativa de código abiertouna autoridad que define el software de código abierto, publicó recientemente un estándar que establece lo que debería implicar la IA de código abierto. La norma describe «cuatro libertades«un modelo de IA debe otorgar para ser clasificado como de código abierto:

  • utilizar el sistema para cualquier propósito y sin tener que pedir permiso
  • Estudiar cómo funciona el sistema e inspeccionar sus componentes.
  • modificar el sistema para cualquier propósito, incluido cambiar su salida
  • compartir el sistema para que otros lo utilicen con o sin modificaciones, para cualquier propósito.

La Llama de Meta no cumple con estos requisitos. Esto se debe a las limitaciones en el uso comercial, las actividades prohibidas que pueden considerarse dañinas o ilegales y la falta de transparencia sobre los datos de entrenamiento de Llama.

A pesar de esto, Meta todavía describe a Llama como de código abierto.

La intersección de la industria tecnológica y el ejército

Meta no es la única empresa de tecnología comercial que se dedica a aplicaciones militares de IA. La semana pasada, Anthropic también anunció que se asociará con Palantir, una empresa de análisis de datos, y Amazon Web Services para proporcionar servicios de inteligencia y defensa a las agencias estadounidenses. acceso a sus modelos de IA.

Meta ha defendido su decisión de permitir que las agencias de seguridad nacional de Estados Unidos y los contratistas de defensa utilicen Llama. La empresa afirma estos usos son «responsables y éticos» y «apoyan la prosperidad y la seguridad de Estados Unidos».

Meta no ha sido transparente sobre los datos que utiliza para entrenar a Llama. Pero las empresas que desarrollan modelos de IA generativa A menudo utilizan datos de entrada del usuario para entrenar aún más sus modelos.y las personas comparten mucha información personal cuando utilizan estas herramientas.

ChatGPT y Dall-E ofrecen opciones para optar por que sus datos no sean recopilados. Sin embargo, no está claro si Llama ofrece lo mismo.

La opción de exclusión voluntaria no se aclara explícitamente al registrarse para utilizar estos servicios. Esto impone a los usuarios la responsabilidad de informarse, y es posible que la mayoría de los usuarios no sepan dónde o cómo se utiliza Llama.

Por ejemplo, la última versión de Llama potencia las herramientas de inteligencia artificial en Facebook, Instagram, WhatsApp y Messenger. Cuando se utilizan las funciones de IA en estas plataformas, como crear carretes o sugerir subtítulos, los usuarios utilizan Llama.

La fragilidad del código abierto

Los beneficios del código abierto incluyen la participación abierta y la colaboración en software. Sin embargo, esto también puede conducir a sistemas frágiles que son fácilmente manipulables. Por ejemplo, tras la invasión rusa de Ucrania en 2022, el público realizó cambios en el software de código abierto. para expresar su apoyo a Ucrania.

Estos cambios incluyeron mensajes contra la guerra y eliminación de archivos del sistema en computadoras rusas y bielorrusas. Este movimiento llegó a ser conocido como «protestware».

La intersección de la IA de código abierto y las aplicaciones militares probablemente exacerbará esta fragilidad porque la solidez del software de código abierto depende de la comunidad pública. En el caso de modelos de lenguaje grandes como Llama, requieren uso y participación públicos porque los modelos están diseñados para mejorar con el tiempo a través de un circuito de retroalimentación entre los usuarios y el sistema de inteligencia artificial.

El uso mutuo de herramientas de inteligencia artificial de código abierto une a dos partes (el público y el ejército) que históricamente han tenido necesidades y objetivos separados. Este cambio expondrá desafíos únicos para ambas partes.

Para los militares, el acceso abierto significa que se pueden obtener fácilmente los detalles más finos de cómo opera una herramienta de IA, lo que podría generar problemas de seguridad y vulnerabilidad. Para el público en general, la falta de transparencia sobre cómo los militares utilizan los datos de los usuarios puede generar un grave dilema moral y ético.

Proporcionado por La Conversación


Este artículo se republica desde La conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación Este artículo se republica desde La conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Meta ahora permite que las agencias militares accedan a su software de inteligencia artificial. Plantea un dilema moral para todos los que lo usan (2024, 12 de noviembre) recuperado el 12 de noviembre de 2024 de https://techxplore.com/news/2024-11-meta-military-agencies-access-ai.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

La función beta de iOS 18.2 te ayuda a recordar canciones según dónde las escuchaste

Se informa que el CEO de EA está en la mezcla para ser el próximo jefe de Disney

Se informa que el CEO de EA está en la mezcla para ser el próximo jefe de Disney