in

Los algoritmos de Google ayudan a engañar al público y legitiman a los teóricos de la conspiración, según un estudio

Google

Crédito: CC0 Dominio público

Los algoritmos de Google colocan subtítulos inofensivos en destacados teóricos de la conspiración, lo que engaña al público y amplifica las opiniones extremistas, según investigadores de la Universidad Simon Fraser (SFU).

Alguien como Gavin McInnes, creador de la organización neofascista Proud Boys, una entidad terrorista en Canadá y un grupo de odio en los Estados Unidos, no es mejor conocido simplemente como un «escritor canadiense», pero eso es lo primero que autocompleta el motor de búsqueda. los subtítulos se muestran en el campo cuando alguien escribe su nombre.

En un estudio publicado en Diario M/C este mes, los investigadores del Proyecto de desinformación de la Escuela de Comunicación de SFU observaron los subtítulos que Google sugirió automáticamente para 37 teóricos de la conspiración conocidos y descubrieron que «en todos los casos, el subtítulo de Google nunca fue consistente con el comportamiento conspirativo del actor».

Eso significa que el influyente negacionista del tiroteo en la escuela Sandy Hook y teórico de la conspiración Alex Jones figura como «locutor de radio estadounidense» y Jerad Miller, un nacionalista blanco responsable de un tiroteo en Las Vegas en 2014, figura como un «artista estadounidense» a pesar de que la mayoría de los resultados de búsqueda posteriores revelan que él es el autor de un tiroteo masivo.

Dada la gran dependencia de los usuarios de Internet en el motor de búsqueda de Google, los subtítulos «pueden representar una amenaza al normalizar a las personas que difunden teorías de conspiración, siembran disensión y desconfianza en las instituciones y causan daño a grupos minoritarios e individuos vulnerables», dice Nicole Stewart, una comunicadora. instructor de comunicación y Ph.D. estudiante en The Disinformation Project. Según Google, los subtítulos se generan automáticamente mediante algoritmos complejos y el motor no puede aceptar ni crear subtítulos personalizados.

Los investigadores encontraron que las etiquetas son neutras o positivas, reflejando principalmente la descripción o el trabajo preferido de la persona, pero nunca negativas.

«Las preferencias de los usuarios y la comprensión de la información pueden manipularse en función de su confianza en los resultados de búsqueda de Google, lo que permite que estas etiquetas sean ampliamente aceptadas en lugar de proporcionar una imagen completa del daño que causan sus ideologías y creencias», dice Nathan Worku, estudiante de maestría. en el proyecto de desinformación.

Si bien el estudio se centró en los teóricos de la conspiración, el mismo fenómeno ocurre cuando se buscan terroristas y asesinatos en masa ampliamente reconocidos, según los autores.

Este estudio destaca la necesidad urgente de que Google revise los subtítulos atribuidos a teóricos de la conspiración, terroristas y asesinos en masa, para informar mejor al público sobre la naturaleza negativa de estos actores, en lugar de etiquetarlos siempre de manera neutral o positiva.

Dirigido por el profesor asistente Ahmed Al-Rawi, The Disinformation Project es un proyecto de investigación financiado por el gobierno federal que examina los discursos de noticias falsas en los medios de comunicación canadienses y las redes sociales.

Al-Rawi, Stewart, Worku y la becaria postdoctoral Carmen Celestini fueron todos los autores de este último estudio.


Cómo las teorías de la conspiración en los EE. UU. se volvieron más personales, crueles y convencionales después de Sandy Hook


Más información:
Ahmed Al-Rawi et al, Cómo los algoritmos de autocompletado de Google sobre los teóricos de la conspiración engañan al público, Diario M/C (2022). DOI: 10.5204/mcj.2852

Proporcionado por la Universidad Simon Fraser


Citación: Los algoritmos de Google ayudan a engañar al público y legitiman a los teóricos de la conspiración, encuentra un estudio (31 de marzo de 2022) consultado el 31 de marzo de 2022 en https://techxplore.com/news/2022-03-google-algorithms-legitimize-conspiracy-theorists.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Written by TecTop

Informe: Microsoft está ampliando las opciones de suscripción de Game Pass con un nuevo plan familiar

Las notas del parche de Call Of Duty: Vanguard incluyen equilibrio de armas y mejoras en la carrera armamentista