Vivimos en una nueva era de inteligencia artificial (IA), que está haciendo que todo sea mejor. Y peor.
La IA está transformando la vida cotidiana mejorando el diagnóstico, personalizar la medicina y el aprendizaje, detectar fraude, automatizar tareas, optimizar las operaciones, apoyar la toma de decisiones más inteligentes, reducir los costos, mejorar la productividad y permitir innovaciones como automóviles autónomos, analíticos predictivos y asistentes virtuales.
Esa es la buena noticia.
La mala noticia es que la IA generativa (Genai) basada en el modelo de lenguaje grande (LLM) muestra potencial en el ámbito de engañar, engañar o persuadir a las personas a escala con una eficiencia que va más allá de lo que las personas pueden hacer por su cuenta.
El primer paso para defender el potencial de AI para manipular a las masas es saber qué es posible. La investigación publicada en las últimas dos semanas comienza a pintar una imagen de lo que se puede hacer.
Ai que persuade políticamente
Un equipo de investigación de la Universidad de Washington descubrió recientemente que Las conversaciones cortas con chatbots de IA pueden persuadir rápidamente a las personas Hacia los sesgos políticos expresados por los chatbots.
El equipo trabajó con 150 republicanos y 149 demócratas. Cada persona usó tres versiones de CHATGPT: un modelo base, uno establecido con un sesgo liberal y otra con un sesgo conservador. Las tareas incluyeron decidir sobre temas de políticas como el matrimonio del pacto o la zonificación multifamiliar y entregar fondos falsos de la ciudad en categorías como educación, seguridad pública y servicios de veteranos.
Antes de usar CHATGPT, cada participante calificó cuán fuertemente se sentían sobre cada tema. Después de hablar con el bot entre tres y veinte veces, calificaron nuevamente. El equipo vio que incluso algunas respuestas, generalmente cinco, comenzaron a cambiar las opiniones de las personas. Si alguien habló con el bot liberal, se mudó a la izquierda. Si alguien hablaba con el bot conservador, sus puntos de vista cambiaron a la derecha.
El conocimiento de que las personas pueden ser persuadidas de esta manera aumentará la motivación para los líderes nacionales, los operadores políticos y otros con un interés personal en la opinión pública para que las personas usen chatbots políticamente parciales. (Advirtí en enero sobre el surgimiento de la IA políticamente parcial.)
Ai que el sigilo anuncia
Editores científicos en Fronteras en psicología Este mes publicó un artículo de investigadores de la Universidad de Tübingen que revela cómo los anuncios de las redes sociales engañan incluso a los usuarios más seguros. La Dra. Caroline Morawetz, quien dirigió el estudio, lo describe como «manipulación sistemática» que explota nuestra confianza en los influyentes y las personas que seguimos. Sus experimentos involucraron a más de 1,200 personas y mostraron que la mayoría de los usuarios no pueden detectar, o elegir no detectar, los mensajes patrocinados mezclados en publicaciones de influencers en Instagram, X, Facebook y Tiktok.
Morawetz dijo que las redes sociales no tienen que etiquetar todos los anuncios, por lo que las ubicaciones de los productos a menudo pasan por consejos genuinos. Incluso cuando aparecen etiquetas como «anuncio» o «patrocinado», la mayoría de los usuarios ignoran o no las procesan mentalmente.
Las plataformas sociales ahora usan AI para elegir y personalizar anuncios para cada usuario. Estos sistemas aprenden qué lanzamientos se deslizarán por nuestra atención y optimizarán la colocación para el compromiso. Los especialistas en marketing usan herramientas de aprendizaje automático para mejorar la forma en que se ven y sonan los anuncios, lo que hace que coincidan con el contenido cotidiano tanto que son difíciles de detectar.
El problema es: si la confianza del usuario de las personas influyentes en línea hace que las personas pierdan publicidad pagada, los chatbots futuros con personalidad y los asistentes personales pueden obtener aún más confianza del usuario y ser aún mejor para entregar anuncios bajo el radar.
Varios líderes tecnológicos dijeron recientemente que pretenden, o al menos estarían abiertos, a la inserción directa de anuncios en conversaciones de chatbot o asistente virtual. El CEO de Openai, Sam Altman, dijo por primera vez en junio que la publicidad podría convertirse en un flujo de ingresos. Repitió estos puntos de vista durante las apariciones públicas en julio y agosto. Y Nick Turley, quien dirige ChatGPT en Operai, dijo este mes que la introducción de anuncios en los productos ChatGPT ya se está considerando.
Elon Musk, CEO de XAI y propietario de X (anteriormente Twitter), dijo a los anunciantes en una discusión transmitida en vivo este mes que Grok, el chatbot de su compañía, pronto mostrará anuncios. El anuncio de Musk se produjo menos de una semana después de describir planes de automatización similar para la entrega de anuncios en la plataforma X utilizando la tecnología XAI.
Más allá de eso, el CEO de Amazon, Andy Jassy, también confirmó este mes que Amazon planea integrar anuncios en conversaciones con su asistente Alexa+ con motor Genai.
AI que roba datos de usuario
Un equipo en King’s College London ha demostrado cómo fácil es para chatbots extraer detalles privados de los usuarios. Los investigadores dirigidos por el Dr. Xiao Zhan probaron tres tipos de chatbot que usaban modelos de idiomas populares, Mistral y dos versiones de LLAMA, en 502 voluntarios. Los chatbots utilizando un llamado estilo recíproco, amigable con la actuación, compartiendo historias personales inventadas, usando empatía y prometiendo sin juicio, hicieron que los participantes revelen hasta 12.5 veces más información privada que los bots básicos.
Los estafadores o las empresas de recolección de datos podrían usar chatbots de inteligencia artificial para construir perfiles detallados sobre las personas sin su conocimiento o aprobación. Los investigadores dicen que se necesitan nuevas reglas y una supervisión más fuerte, y las personas deben aprender a detectar señales de advertencia.
Las extensiones ya recopilan datos personales
Investigadores del University London y Mediterranea de la Universidad de Reggio Calabria han descubierto que algunas extensiones de navegador web Genai, incluidas las de Chatgpt para Google, Merlín, Copilot, Sider y Tinamind – recopilar y transmitir información privada de las pantallas de usuarioincluidos registros médicos, datos personales y detalles bancarios.
Según el estudio dirigido por la Dra. Anna Maria Mandalari, estas extensiones del navegador no solo ayudan con la búsqueda web y resumen el contenido, sino que también capturan todo lo que un usuario ve y entra en una página. Esos datos se pasan a los servidores de la empresa y, a veces, se comparten con servicios de análisis de terceros como Google Analytics. Esto aumenta el riesgo de que la actividad del usuario se rastree en todos los sitios y se use para anuncios específicos.
El equipo de investigación creó un escenario de prueba en torno a un hombre milenaria ficticio en California y simuló la navegación diaria, como iniciar sesión en portales de salud y sitios de citas. En sus pruebas, los asistentes ignoraron los límites de privacidad y continuaron registrando actividades y datos incluso en sesiones privadas o autenticadas. Algunos, incluido Merlín, dieron un paso más allá y registraron entradas de forma confidencial, como información de salud. Varias herramientas luego usaron IA para inferir psicográficos como edad, ingresos e intereses; Esto les permitió personalizar las respuestas futuras, minando cada visita para obtener más detalles.
(Solo la perplejidad no realizó la construcción de perfil o la personalización en función de los datos recopilados).
Estas prácticas corren el riesgo de violar las leyes estadounidenses como HIPAA y FERPA, que protegen los registros de salud y educación. Los investigadores señalan que, si bien su análisis no evaluó el cumplimiento de GDPR, los problemas similares se considerarían aún más graves según las leyes europeas y del Reino Unido.
AI puede reducir la visión del mundo del público
Muchas personas ahora interactúan con los chatbots de IA todos los días, a menudo sin siquiera pensar en ello. Los modelos de idiomas grandes como ChatGPT o Géminis de Google se construyen a partir de vastas colecciones de escritura humana, formados a través de capas de juicio individual y proceso algorítmico. La promesa es la expansión mental-acceso a todo el conocimiento del mundo- Pero el efecto es en realidad una visión del mundo más estrecha. Estos sistemas producen respuestas conformadas por las ideas más comunes o populares que se encuentran en los datos que ven. Eso significa que los usuarios siguen obteniendo los mismos puntos de vista, expresaron la misma manera, dejando de lado muchas otras posibilidades.
Michal Shur-ofry, profesor de derecho en la Universidad Hebrea de Jerusalén, explica esta amenaza para la cultura y la democracia humana en un artículo publicado en junio en el Indiana Law Journal. Estos sistemas, escribe, producen «cosmovisiones concentradas y convencionales», dirigiendo a las personas hacia el promedio y lejos de los bordes intelectuales que hacen que una cultura sea interesante, diversa y resistente. El riesgo, argumenta Shurry, se extiende desde el contexto local hasta la memoria global.
Cuando AI reduce lo que podemos ver y escuchar, debilita la diversidad cultural, el debate público e incluso lo que la gente elige recordar u olvidar.
La clave para protegernos se encuentra en uno de los informes que describí aquí. En ese informe sobre las habilidades persuasivas de los chatbots de IA, los investigadores descubrieron que las personas que dijeron que sabían más sobre AI cambiaban menos. Saber cómo funcionan estos bots puede dar cierta protección contra ser influidos.
Sí, necesitamos transparencia y regulación. Pero mientras esperamos eso, nuestra mejor defensa es el conocimiento. Al saber de qué es capaz la IA, podemos evitar ser manipulados para obtener ganancias financieras o políticas por personas que desean explotarnos.