Imagine que está completando una encuesta en línea sobre el futuro de su ciudad. Respondes cuidadosamente cada pregunta, agregando tus ideas personales.
Ahora imagine que cientos de otros participantes no son personas reales en absoluto, sino robots, programas automatizados impulsados por inteligencia artificial que se hacen pasar por humanos.
¿Qué sucede cuando estas respuestas falsas se mezclan con las reales?
¿Podemos todavía confiar en los resultados?
Este no es un escenario hipotético, es exactamente lo que sucedió durante el desarrollo del informe Perth 2050. lanzado el año pasado como una colaboración entre Scitech y el Comité de Perth.
El informe, diseñado para dar forma al futuro de la ciudad, descubrió un giro sorprendente: robots que se hacen pasar por participantes reales.
Aunque estos bots fueron identificados y filtrados, el incidente plantea preguntas apremiantes.
¿Por qué los bots se hacen pasar por nosotros?
¿En qué otras áreas están influyendo y qué sucede si nadie se da cuenta?
La encuesta Perth 2050, ampliamente promocionada en las redes sociales, recibió más de 2.000 respuestas.
Pero después de un aumento de actividad en Facebook, se descubrió que aproximadamente 600 de esas respuestas procedían de bots.
Estos no eran guiones simples: dejaban comentarios que iban desde sin sentido hasta inquietantemente coherentes y capaces de influir en el análisis si no se controlaban.
Si bien se eliminaron las respuestas falsas, el incidente resalta un problema creciente en un mundo impulsado por la inteligencia artificial: la infiltración de bots cuando esperamos una participación humana genuina.
El problema no se limita a las encuestas locales, ya que los bots se convierten en participantes no deseados en las principales conversaciones globales.
Durante las elecciones presidenciales estadounidenses de 2016, los investigadores descubrieron que hasta el 20% del discurso político en Twitter (ahora X) fue generado por bots.
Amplificaron narrativas polarizadoras, difundieron información errónea y crearon la ilusión de un apoyo generalizado a ciertos puntos de vista.
En Australia, han salido a la luz preocupaciones similares cuando la Comisión Electoral Australiana dio la alarma sobre el potencial de desinformación impulsada por la IA.
Por ejemplo, las leyes australianas no impiden el uso de vídeos políticos muy falsos.
Esta cuestión adquiere mayor urgencia a medida que nos acercamos a un año electoral crucial, con elecciones federales y estatales de Australia Occidental programadas para principios de 2025.
¿Cómo podemos saber si los comentarios en artículos de noticias, publicaciones en plataformas como X o respuestas a encuestas provienen de personas genuinas o de bots?
Sin medidas efectivas para detectar y contrarrestar los bots, pueden manipular sutil y persistentemente la opinión pública, una interacción a la vez.
Si bien muchos bots están diseñados para tareas útiles, los que se hacen pasar por humanos plantean riesgos importantes.
Cuando participan en encuestas, impulsan tendencias en línea o incluso interactúan con anuncios, pueden distorsionar los datos en los que confiamos para tomar decisiones.
¿Qué sucede cuando las estrategias de marketing se basan en interacciones falsas?
¿O cuando la opinión pública parece cambiar porque los robots, no las personas, son los que impulsan la conversación?
Los robots se mezclan; sus comentarios, me gusta y acciones a menudo parecen creíbles, lo que hace más difícil distinguir entre influencia real y artificial.
La IA tiene el poder de transformar vidas, pero su uso indebido corre el riesgo de erosionar la confianza en el debate público.
La transparencia, una supervisión sólida, la educación y herramientas de detección más inteligentes son clave para salvaguardar su uso.
Al abordar estos desafíos, podemos aprovechar la promesa de la IA de impulsar el progreso, no crear confusión ni influir en el debate público, que debe seguir siendo un ámbito muy humano.
Asegurémonos de que la IA funcione para nosotros, no en nuestra contra.
Este artículo apareció por primera vez en Partículaun sitio web de noticias científicas con sede en Scitech, Perth, Australia. Lea el artículo original.
Citación: Encuestas en línea susceptibles al fraude automatizado por bot (2025, 10 de enero) obtenido el 10 de enero de 2025 en https://techxplore.com/news/2025-01-online-surveys-susceptible-automated-bot.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings