Al luchar contra la difusión de información errónea, las plataformas de redes sociales suelen colocar a la mayoría de los usuarios en el asiento del pasajero. Las plataformas a menudo usan algoritmos de aprendizaje automático o verificadores de hechos humanos para señalar contenido falso o desinformativo para los usuarios.
«El hecho de que este sea el status quo no significa que sea la forma correcta o la única forma de hacerlo», dice Farnaz Jahanbakhsh, estudiante de posgrado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT.
Ella y sus colaboradores realizaron un estudio en el que pusieron ese poder en manos de los usuarios de las redes sociales.
Primero encuestaron a las personas para saber cómo evitan o filtran la información errónea en las redes sociales. Usando sus hallazgos, los investigadores desarrollaron una plataforma prototipo que permite a los usuarios evaluar la precisión del contenido, indicar en qué usuarios confían para evaluar la precisión y filtrar las publicaciones que aparecen en su feed en función de esas evaluaciones.
A través de un estudio de campo, descubrieron que los usuarios podían evaluar de manera efectiva las publicaciones desinformativas sin recibir capacitación previa. Además, los usuarios valoraron la capacidad de evaluar las publicaciones y ver las evaluaciones de forma estructurada. Los investigadores también vieron que los participantes usaban los filtros de contenido de manera diferente; por ejemplo, algunos bloquearon todo el contenido desinformativo mientras que otros usaron filtros para buscar dichos artículos.
Este trabajo muestra que un enfoque descentralizado de la moderación puede conducir a una mayor confiabilidad del contenido en las redes sociales, dice Jahanbakhsh. Este enfoque también es más eficiente y escalable que los esquemas de moderación centralizados y puede atraer a los usuarios que desconfían de las plataformas, agrega.
«Muchas investigaciones sobre la desinformación suponen que los usuarios no pueden decidir qué es verdad y qué no, por lo que tenemos que ayudarlos. No vimos eso en absoluto. Vimos que las personas realmente tratan el contenido con escrutinio y también tratan de ayudarse entre sí. Pero estos esfuerzos actualmente no cuentan con el apoyo de las plataformas”, dice.
Jahanbakhsh escribió el artículo con Amy Zhang, profesora asistente de la Facultad de Ciencias de la Computación e Ingeniería de la Universidad de Washington Allen; y el autor principal David Karger, profesor de informática en CSAIL. La investigación se presentará en la Conferencia ACM sobre trabajo cooperativo asistido por computadora y computación social, y se publica como parte de la Actas de la ACM sobre interacción humano-computadora.
Lucha contra la desinformación
La difusión de información errónea en línea es un problema generalizado. Sin embargo, los métodos actuales que utilizan las plataformas de redes sociales para marcar o eliminar contenido desinformativo tienen desventajas. Por ejemplo, cuando las plataformas usan algoritmos o verificadores de datos para evaluar las publicaciones, eso puede crear tensión entre los usuarios que interpretan esos esfuerzos como una violación de la libertad de expresión, entre otros problemas.
«A veces, los usuarios quieren que aparezca información errónea en su feed porque quieren saber a qué están expuestos sus amigos o familiares, para saber cuándo y cómo hablar con ellos al respecto», agrega Jahanbakhsh.
Los usuarios a menudo intentan evaluar y señalar la información errónea por su cuenta, e intentan ayudarse unos a otros pidiendo a amigos y expertos que les ayuden a entender lo que están leyendo. Pero estos esfuerzos pueden resultar contraproducentes porque no cuentan con el respaldo de las plataformas. Un usuario puede dejar un comentario en una publicación engañosa o reaccionar con un emoji enojado, pero la mayoría de las plataformas consideran que esas acciones son signos de compromiso. En Facebook, por ejemplo, eso podría significar que el contenido desinformativo se mostraría a más personas, incluidos los amigos y seguidores del usuario, exactamente lo contrario de lo que quería este usuario.
Para superar estos problemas y trampas, los investigadores buscaron crear una plataforma que brinde a los usuarios la capacidad de proporcionar y ver evaluaciones de precisión estructuradas en las publicaciones, indicar a otras personas en las que confían para evaluar las publicaciones y usar filtros para controlar el contenido que se muestra en su feed. En última instancia, el objetivo de los investigadores es facilitar que los usuarios se ayuden mutuamente a evaluar la información errónea en las redes sociales, lo que reduce la carga de trabajo para todos.
Los investigadores comenzaron encuestando a 192 personas, reclutadas mediante Facebook y una lista de correo, para ver si los usuarios valorarían estas funciones. La encuesta reveló que los usuarios son muy conscientes de la información errónea e intentan rastrearla e informarla, pero temen que sus evaluaciones puedan ser malinterpretadas. Son escépticos de los esfuerzos de las plataformas para evaluar el contenido para ellos. Y, aunque les gustarían filtros que bloqueen contenido no confiable, no confiarían en los filtros operados por una plataforma.
Usando estos conocimientos, los investigadores construyeron una plataforma prototipo similar a Facebook, llamada Trustnet. En Trustnet, los usuarios publican y comparten artículos de noticias reales y completos y pueden seguirse unos a otros para ver el contenido que otros publican. Pero antes de que un usuario pueda publicar cualquier contenido en Trustnet, debe calificar ese contenido como exacto o inexacto, o preguntar sobre su veracidad, que será visible para otros.
«La razón por la que las personas comparten información errónea generalmente no es porque no saben qué es verdad y qué es falso. Más bien, en el momento de compartir, su atención se desvía hacia otras cosas. Si les pides que evalúen el contenido antes de compartirlo , les ayuda a ser más perspicaces», dice.
Los usuarios también pueden seleccionar personas de confianza cuyas evaluaciones de contenido verán. Lo hacen de manera privada, en caso de que sigan a alguien con quien están conectados socialmente (tal vez un amigo o familiar) pero en quien no confiarían para evaluar el contenido. La plataforma también ofrece filtros que permiten a los usuarios configurar su feed en función de cómo se evaluaron las publicaciones y quién las evaluó.
Prueba de la red de confianza
Una vez que el prototipo estuvo completo, realizaron un estudio en el que 14 personas usaron la plataforma durante una semana. Los investigadores descubrieron que los usuarios podían evaluar el contenido de manera efectiva, a menudo en función de la experiencia, la fuente del contenido o evaluando la lógica de un artículo, a pesar de no recibir capacitación. También pudieron usar filtros para administrar sus feeds, aunque utilizaron los filtros de manera diferente.
«Incluso en una muestra tan pequeña, fue interesante ver que no todos querían leer sus noticias de la misma manera. A veces, las personas querían tener publicaciones desinformativas en sus feeds porque veían beneficios en ello. Esto apunta al hecho de que esta agencia ahora no se encuentra en las plataformas de redes sociales y debería devolverse a los usuarios», dice.
A veces, los usuarios tenían dificultades para evaluar el contenido cuando contenía múltiples afirmaciones, algunas verdaderas y otras falsas, o si un título y un artículo estaban separados. Esto muestra la necesidad de brindar a los usuarios más opciones de evaluación, tal vez afirmando que un artículo es cierto pero engañoso o que contiene una inclinación política, dice ella.
Dado que los usuarios de Trustnet a veces tenían problemas para evaluar artículos en los que el contenido no coincidía con el título, Jahanbakhsh lanzó otro proyecto de investigación para crear una extensión del navegador que permitiera a los usuarios modificar los titulares de las noticias para que estuvieran más alineados con el contenido del artículo.
Si bien estos resultados muestran que los usuarios pueden desempeñar un papel más activo en la lucha contra la desinformación, Jahanbakhsh advierte que darles este poder a los usuarios no es una panacea. Por un lado, este enfoque podría crear situaciones en las que los usuarios solo vean información de fuentes afines. Sin embargo, los filtros y las evaluaciones estructuradas podrían reconfigurarse para ayudar a mitigar ese problema, dice.
Además de explorar las mejoras de Trustnet, Jahanbakhsh quiere estudiar métodos que puedan alentar a las personas a leer evaluaciones de contenido de personas con diferentes puntos de vista, tal vez a través de la ludificación. Y debido a que las plataformas de redes sociales pueden ser reacias a realizar cambios, también está desarrollando técnicas que permiten a los usuarios publicar y ver evaluaciones de contenido a través de la navegación web normal, en lugar de en una plataforma.
Farnaz Jahanbakhsh et al, Aprovechamiento de las evaluaciones estructuradas de pares de confianza para combatir la desinformación, Actas de la ACM sobre interacción humano-computadora (2022). DOI: 10.1145/3555637
Citación: Empoderar a los usuarios de las redes sociales para evaluar el contenido ayuda a combatir la desinformación (16 de noviembre de 2022) consultado el 16 de noviembre de 2022 en https://techxplore.com/news/2022-11-empowering-social-media-users-content.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.