in

¿Puede el contenido generado por IA ser una amenaza para la democracia?

¿Puede el contenido generado por IA ser una amenaza para la democracia?

¿Puede el contenido generado por IA ser una amenaza para la democracia?

Los seres humanos necesitan encontrar formas en las que la IA no influya en las decisiones que toman o en las preferencias que expresan, dice John Wihbey, profesor asociado de innovación y tecnología de medios en Northeastern. Crédito: Matthew Modoono/Universidad del Noreste

En un futuro no muy lejano, la mayor parte de la información que la gente consume en Internet estará influenciada por la inteligencia artificial, afirma un experto de Northeastern.

Y si bien es imposible frenar el uso de la IA, es crucial comprender sus límites (lo que no puede y no debe hacer) y adoptar normas éticas para su desarrollo y despliegue, afirma John Wihbey, profesor asociado de innovación en medios. y Tecnología.

De lo contrario, la democracia está en peligro, afirma Wihbey.

La democracia actual, dice, es un sistema complejo en el que las personas procesan información colectivamente para resolver problemas. El conocimiento y la información que consume el público desempeñan un papel clave en el apoyo a la vida democrática.

Los chatbots pueden simular conversaciones humanas y realizar tareas rutinarias de forma eficaz, y los agentes de IA son sistemas inteligentes autónomos que resuelven las solicitudes de los clientes realizando tareas sin intervención humana. Wihbey dice que pronto podrían reemplazar a los humanos en campos de la información como el periodismo, la moderación de las redes sociales y las encuestas.

«A medida que los sistemas de IA comiencen a crear narrativas públicas y comiencen a moderar y controlar el conocimiento público», dice Wihbey, «podría haber una especie de bloqueo en términos de comprensión del mundo».

La IA y los grandes modelos lingüísticos se entrenan y generan contenido basado en datos pasados ​​sobre los valores e intereses de las personas. Reforzarán continuamente ideas y preferencias pasadas, afirma Wihbey, creando bucles de retroalimentación y cámaras de eco.

Este riesgo de bucles de retroalimentación, afirma, seguirá siendo recurrente.

En periodismo, dice Wihbey, la IA podría incorporarse aún más a las redacciones para descubrir y verificar información, categorizar contenido, realizar análisis a gran escala de las redes sociales e incluso generar cobertura automatizada de eventos, incluidas reuniones cívicas y gubernamentales.

Municipios enteros o regiones más grandes, los llamados desiertos de noticias, podrían terminar siendo cubiertos por agentes de IA, afirma.

En las redes sociales, los moderadores de IA, cuyo juicio está condicionado por datos obsoletos y no se alinean con las preferencias humanas más recientes, dice Wihbey, podrían moderar en exceso y borrar las publicaciones y comentarios de los usuarios, un espacio vital para la deliberación humana moderna.

Si no pueden mantenerse al día con el entorno rápidamente cambiante de los contextos humanos, los chatmods también pueden estar sujetos a ciclos de retroalimentación. Sus acciones afectarán lo que se convierte en conocimiento público, o lo que los humanos creen que es verdadero y digno de atención.

Las simulaciones de encuestas basadas en inteligencia artificial podrían distorsionar los resultados y afectar las conclusiones de los ciudadanos. Ese conocimiento deformado influirá repetidamente en las preferencias y decisiones humanas en el espacio democrático (por ejemplo, en qué cree la gente o por quién puede votar), creando espirales recursivas.

Los modelos de IA, afirma Wihbey, intrínsecamente nunca podrán predecir con precisión la reacción del público ante algo o el resultado de una elección.

«Algunas de las investigaciones sobre cómo la IA puede servir para simular encuestas de opinión humanas muestran que esto es cierto cuando los datos aún no están bien establecidos en el modelo», afirma. «En la vida política y social, gran parte de lo que es importante es fundamentalmente emergente.

«Todavía no sabemos qué pensarán o harán los seres humanos hasta que, como individuos y como grupos, lleguemos a áreas de desafío, preocupación o ansiedad, y luego comencemos a tomar decisiones individuales y colectivas».

Wihbey afirma que se podrían ampliar las investigaciones a la búsqueda y el descubrimiento en línea. Por ejemplo, la nueva función AI Overview de Google que consolida una consulta en una única respuesta podría llevar a los usuarios a eludir los procesos tradicionales de navegación, descubrimiento, deliberación y razonamiento.

Debido a estas limitaciones y a lo incompleto de los modelos de IA, los humanos deberían diferenciar entre áreas donde la IA puede facilitar la conciencia colectiva y qué áreas pueden querer preservar como zonas centradas en el ser humano para el pensamiento independiente.

«A este nivel profundo, se trata de libertad y agencia humana», dice Wihbey. «Pero también creo que se trata simplemente de que los humanos puedan expresar legítimamente nuevos tipos de ideas y preferencias que no se ajusten al pasado».

Los humanos necesitan encontrar formas, dice, en las que la IA no moldee las decisiones que toman o las preferencias que expresan.

«Si queremos respetar verdaderamente a los humanos», dice Wihbey, «tenemos que asegurarnos de que estos modelos sean extremadamente modestos».

Los chatbots de IA ya están imitando la autoridad de los expertos, afirma, y ​​dando respuestas con un grado significativo de confianza, aunque las respuestas a menudo no sean correctas.

«Simplemente creo que los modelos no deben pretender ser expertos humanos en su voz, fraseo, encuadre y la forma en que hacen las cosas», dice Wihbey. «La IA no debería verse, sentirse ni comportarse como la inteligencia humana».

Estos son sólo modelos probabilísticos, afirma Wihbey, que reúnen los datos con los que han sido entrenados.

Los gobiernos y las grandes instituciones tienen un papel que desempeñar, dice Wihbey, en la preservación de los valores democráticos ayudando a abordar los riesgos de la IA. Al mismo tiempo, existe el peligro de que los gobiernos también utilicen sistemas impulsados ​​por IA para sus propios objetivos.

«Cualquier debate sobre la IA, el conocimiento público y la democracia debe abordar la amplia variación de los entornos de información en todo el mundo», afirma Wihbey.

Proporcionado por la Universidad del Noreste


Esta historia se republica por cortesía de Northeastern Global News. noticias.northeastern.edu.

Citación: ¿Puede el contenido generado por IA ser una amenaza para la democracia? (2024, 6 de junio) obtenido el 6 de junio de 2024 en https://techxplore.com/news/2024-06-ai-generated-content-threat-democracy.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Google compra Cameyo para ofrecer aplicaciones de Windows en Chromebooks

Google compra Cameyo para ofrecer aplicaciones de Windows en Chromebooks

Kena: Puente de los Espíritus Edición Premium

Kena: Bridge Of Spirits Premium Edition para Xbox viene con nuevo contenido