in

Facebook tiene un problema de desinformación y está bloqueando el acceso a los datos sobre cuánto hay y quiénes se ven afectados.

Facebook

Crédito: Pixabay / CC0 Public Domain

Los documentos internos filtrados sugieren que Facebook, que recientemente se renombró como Meta, es haciendo mucho peor de lo que dice para minimizar la información errónea sobre la vacuna COVID-19 en la plataforma de redes sociales de Facebook.

La información errónea en línea sobre el virus y las vacunas es una preocupación importante. En un estudio, los encuestados que recibieron algunas o todas sus noticias de Facebook fueron significativamente más probabilidades de resistir la vacuna COVID-19 que aquellos que recibieron sus noticias de los principales medios de comunicación.

Como investigador que estudia medios sociales y cívicos, Creo que es de suma importancia comprender cómo se propaga la información errónea en línea. Pero esto es más fácil decirlo que hacerlo. El simple hecho de contar los casos de información errónea que se encuentran en una plataforma de redes sociales deja dos preguntas clave sin respuesta: ¿Qué probabilidad hay de que los usuarios encuentren información errónea y es probable que ciertos usuarios se vean especialmente afectados por la información errónea? Estas preguntas son el problema del denominador y el problema de la distribución.

El estudio de desinformación COVID-19 «Algoritmo de Facebook: una gran amenaza para la salud pública«, publicado por el grupo de defensa del interés público Avaaz en agosto de 2020, informó que las fuentes que con frecuencia compartían información errónea sobre la salud (82 sitios web y 42 páginas de Facebook) tenían un alcance total estimado de 3.800 millones de visitas en un año.

A primera vista, es un número asombrosamente grande. Pero es importante recordar que este es el numerador. Para comprender lo que significan 3.800 millones de visitas en un año, también debe calcular el denominador. El numerador es la parte de una fracción por encima de la línea, que se divide por la parte de la fracción por debajo de la línea, el denominador.

Conseguir algo de perspectiva

Un posible denominador es 2.9 mil millones de usuarios activos mensuales de Facebook, en cuyo caso, en promedio, cada usuario de Facebook ha estado expuesto a al menos una pieza de información de estas fuentes de desinformación sobre salud. Pero se trata de 3.800 millones de visualizaciones de contenido, no de usuarios discretos. ¿Cuántas piezas de información encuentra el usuario promedio de Facebook en un año? Facebook no divulga esa información.

Los investigadores de mercado estiman que los usuarios de Facebook gastan desde 19 minutos al día para 38 minutos al día en la plataforma. Si el 1,93 mil millones de usuarios activos diarios de Facebook ven un promedio de 10 publicaciones en sus sesiones diarias, una estimación muy conservadora, el denominador de esos 3.800 millones de piezas de información al año es de 7.044 billones (1.93 mil millones de usuarios diarios multiplicado por 10 publicaciones diarias multiplicado por 365 días en un año). Esto significa que aproximadamente el 0,05% del contenido de Facebook son publicaciones de estas páginas sospechosas de Facebook.

La cifra de 3.800 millones de visitas abarca todo el contenido publicado en estas páginas, incluido el contenido de salud inofensivo, por lo que la proporción de publicaciones de Facebook que son información errónea sobre la salud es menor que una vigésima parte de un porcentaje.

¿Es preocupante que haya suficiente información errónea en Facebook como para que todos hayan encontrado al menos una instancia? ¿O es tranquilizador que el 99,95% de lo que se comparte en Facebook no provenga de los sitios sobre los que advierte Avaaz? Ninguno.

Distribución de información errónea

Además de estimar un denominador, también es importante considerar la distribución de esta información. ¿Es igualmente probable que todos en Facebook encuentren información errónea sobre la salud? ¿O es más probable que las personas que se identifican como antivacunas o que buscan información sobre «salud alternativa» encuentren este tipo de información errónea?

Otro estudio de redes sociales que se centra en el contenido extremista de YouTube ofrece un método para comprender la distribución de información errónea. Usando datos del navegador de 915 usuarios web, un equipo de la Liga Anti-Difamación reclutó una muestra grande y demográficamente diversa de usuarios web de EE. UU. y realizó un muestreo excesivo de dos grupos: los usuarios habituales de YouTube y las personas que mostraban fuertes prejuicios raciales o de género negativos en una serie de preguntas formuladas por los investigadores. Sobremuestreo está encuestando un pequeño subconjunto de una población más que su proporción de la población para registrar mejor los datos sobre el subconjunto.

Los investigadores encontraron que el 9.2% de los participantes vieron al menos un video de un canal extremista, y el 22.1% vio al menos un video de un canal alternativo, durante los meses cubiertos por el estudio. Una parte importante del contexto a tener en cuenta: un pequeño grupo de personas fue responsable de la mayoría de las visualizaciones de estos videos. Y más del 90% de las vistas de videos extremistas o «alternativos» fueron de personas que informaron un alto nivel de resentimiento racial o de género en la encuesta previa al estudio.

Mientras que aproximadamente 1 de cada 10 personas encontraron contenido extremista en YouTube y 2 de cada 10 encontraron contenido de provocadores de derecha, la mayoría de las personas que encontraron tal contenido «rebotaron» y se fueron a otra parte. El grupo que encontró contenido extremista y buscó más de él fueron personas que presumiblemente tenían un interés: personas con fuertes actitudes racistas y sexistas.

Los autores concluyeron que «el consumo de este contenido potencialmente dañino se concentra en cambio entre los estadounidenses que ya tienen un alto resentimiento racial», y que los algoritmos de YouTube pueden reforzar este patrón. En otras palabras, el simple hecho de conocer la fracción de usuarios que encuentran contenido extremo no le dice cuántas personas lo consumen. Para eso, también necesita conocer la distribución.

¿Superspreaders o whack-a-mole?

Un estudio ampliamente publicitado del grupo de defensa contra el discurso de odio Centro para la lucha contra el odio digital titulado Especuladores de la pandemia mostró que de los 30 grupos de Facebook antivacunas examinados, 12 celebridades antivacunas eran responsables del 70% del contenido circulado en estos grupos, y los tres más destacados eran responsables de casi la mitad. Pero, de nuevo, es fundamental preguntar acerca de los denominadores: ¿cuántos grupos antivacunas están alojados en Facebook? ¿Y qué porcentaje de usuarios de Facebook encuentran el tipo de información compartida en estos grupos?

Sin información sobre denominadores y distribución, el estudio revela algo interesante sobre estos 30 grupos de Facebook antivacunas, pero nada sobre la desinformación médica en Facebook en su conjunto.

Este tipo de estudios plantea la pregunta: «Si los investigadores pueden encontrar este contenido, ¿por qué las plataformas de redes sociales no pueden identificarlo y eliminarlo?» El estudio Pandemic Profiteers, que implica que Facebook podría resolver el 70% del problema de la desinformación médica eliminando solo una docena de cuentas, aboga explícitamente por la degradación de estas plataformas de desinformación. Sin embargo, descubrí que 10 de los 12 influencers anti-vacunas que aparecen en el estudio ya han sido eliminados por Facebook.

Considere a Del Bigtree, uno de los tres difusores más destacados de desinformación sobre vacunación en Facebook. El problema no es que Bigtree esté reclutando nuevos seguidores anti-vacunas en Facebook; es que los usuarios de Facebook siguen a Bigtree en otros sitios web y llevan su contenido a sus comunidades de Facebook. No son 12 personas y grupos que publican información errónea sobre salud en línea; es probable que miles de usuarios individuales de Facebook compartan información errónea que se encuentra en otras partes de la web, con estas docenas de personas. Es mucho más difícil prohibir a miles de usuarios de Facebook que prohibir a 12 celebridades que se oponen a las vacunas.

Es por eso que las preguntas sobre el denominador y la distribución son fundamentales para comprender la información errónea en línea. El denominador y la distribución permiten a los investigadores preguntarse qué tan comunes o raros son los comportamientos en línea y quién participa en esos comportamientos. Si millones de usuarios se encuentran cada uno con fragmentos ocasionales de información médica errónea, etiquetas de advertencia podría ser una intervención eficaz. Pero si la desinformación médica es consumida principalmente por un grupo más pequeño que busca y comparte activamente este contenido, es muy probable que esas etiquetas de advertencia sean inútiles.

Obteniendo los datos correctos

Tratar de entender la desinformación contando, sin considerar denominadores ni distribución, es lo que sucede cuando las buenas intenciones chocan con las malas herramientas. Ninguna plataforma de redes sociales permite a los investigadores calcular con precisión qué tan prominente es un contenido en particular en su plataforma.

Facebook restringe a la mayoría de los investigadores a su Crowdtangle herramienta, que comparte información sobre la participación en el contenido, pero no es lo mismo que las vistas de contenido. Twitter prohíbe explícitamente a los investigadores a partir del cálculo de un denominador, ya sea el número de usuarios de Twitter o el número de tweets compartidos en un día. YouTube hace que sea tan difícil averiguar cuántos videos están alojados en su servicio que Google solicita rutinariamente a los candidatos a entrevistar estimar la cantidad de videos de YouTube alojados para evaluar sus habilidades cuantitativas.

Los líderes de las plataformas de redes sociales han argumentado que sus herramientas, a pesar de sus problemas, son buenos para la sociedad, pero este argumento sería más convincente si los investigadores pudieran verificar independientemente esa afirmación.

A medida que los impactos sociales de las redes sociales se vuelven más prominentes, es probable que aumente la presión sobre las grandes plataformas tecnológicas para que publiquen más datos sobre sus usuarios y su contenido. Si esas empresas responden aumentando la cantidad de información a la que pueden acceder los investigadores, fíjense muy de cerca: ¿Permitirán que los investigadores estudien el denominador y la distribución del contenido en línea? Y si no es así, ¿tienen miedo de lo que encontrarán los investigadores?


Facebook etiquetó 167 millones de publicaciones de usuarios por desinformación sobre COVID-19


Proporcionado por The Conversation


Este artículo se vuelve a publicar desde La conversación bajo una licencia Creative Commons. Leer el artículo original.

Citación: Facebook tiene un problema de desinformación y está bloqueando el acceso a los datos sobre cuánto hay y quiénes se ven afectados (2021, 3 de noviembre) recuperado el 3 de noviembre de 2021 de https://techxplore.com/news/2021-11-facebook-misinformation -problem-block-access.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Written by TecTop

La ceniza de Apex Legends es más que una intención villana, dice el escritor principal

MacBook Air impulsa 6,5 ​​millones de envíos de portátiles Apple en el tercer trimestre de 2021