in

Metacambio de la verificación de datos al crowdsourcing: enfoques competitivos en la lucha contra la desinformación

Meta

Meta

Crédito: Julio López de Pexels

La decisión de Meta de cambiar sus políticas de moderación de contenido reemplazando equipos centralizados de verificación de datos con etiquetado comunitario generado por el usuario ha suscitado un tormenta de reacciones. Pero tomados al pie de la letra, los cambios plantean la cuestión de la efectividad de la antigua política de Meta, la verificación de datos, y la nueva, los comentarios de la comunidad.

Dado que miles de millones de personas en todo el mundo acceden a sus servicios, plataformas como Facebook e Instagram de Meta tienen la responsabilidad de garantizar que los usuarios no se vean perjudicados por el fraude al consumidor, el discurso de odio, la desinformación u otros males en línea. Dada la magnitud de este problema, combatir los daños en línea es un serio desafío social. La moderación del contenido desempeña un papel a la hora de abordar estos daños en línea.

Moderar contenido implica tres pasos. El primero es escanear contenido en línea (normalmente publicaciones en redes sociales) para detectar palabras o imágenes potencialmente dañinas. El segundo es evaluar si el contenido marcado viola la ley o los términos de servicio de la plataforma. El tercero está interviniendo de alguna manera. Las intervenciones incluyen eliminar publicaciones, agregar etiquetas de advertencia a las publicaciones y disminuir cuánto se puede ver o compartir una publicación.

La moderación del contenido puede variar desde modelos de moderación impulsados ​​por el usuario en plataformas comunitarias como Wikipedia hasta modelos de moderación de contenido centralizados como los utilizados por Instagram. Las investigaciones muestran que ambos enfoques son una mezcla.

¿Funciona la verificación de hechos?

La política anterior de moderación de contenido de Meta dependía de organizaciones de verificación de datos de terceros, que señalaron el contenido problemático a la atención del personal de Meta. meta Organizaciones de verificación de datos de EE. UU. fueron AFP US, Check Your Fact, Factcheck.org, Lead Stories, PolitiFact, Science Feedback, Reuters Fact Check, TelevisaUnivision, The Dispatch y US TODAY.

La verificación de hechos se basa en la revisión de expertos imparciales. Las investigaciones muestran que puede reducir los efectos de la desinformación, pero es no es una panacea. Además, la eficacia de la verificación de hechos depende de si los usuarios perciben El papel de los verificadores de datos y la naturaleza de las organizaciones de verificación de datos. tan digno de confianza.

Moderación de contenido colaborativa

En su anuncioel director ejecutivo de Meta, Mark Zuckerberg, destacó que la moderación de contenido en Meta cambiaría a un modelo de notas comunitarias similar a X, anteriormente Twitter. Las notas de la comunidad de X son un enfoque de verificación de datos colaborativo que permite a los usuarios escribir notas para informar a otros sobre publicaciones potencialmente engañosas.

Los estudios sobre la eficacia de los esfuerzos de moderación de contenidos al estilo X son mixtos. Un estudio a gran escala encontró poca evidencia de que la introducción de notas comunitarias interacción reducida con tweets engañosos en X. Más bien, parece que estos esfuerzos masivos podrían ser demasiado lentos para reducir efectivamente el compromiso con la información errónea en la etapa inicial y más viral de su difusión.

Ha habido algunos éxitos gracias a las certificaciones e insignias de calidad en las plataformas. Sin embargo, las etiquetas proporcionadas por la comunidad puede que no sea efectivo para reducir la interacción con la información errónea, especialmente cuando no van acompañadas de una formación adecuada sobre el etiquetado para los usuarios de una plataforma. La investigación también muestra que las notas comunitarias de X son sujeto a prejuicios partidistas.

Las iniciativas de colaboración colectiva, como Wikipedia, la referencia en línea editada por la comunidad, dependen de la retroalimentación de los pares y de tener un sistema sólido de contribuyentes. Como he escrito antes, un modelo al estilo de Wikipedia necesita mecanismos sólidos de gobernanza comunitaria para garantizar que los voluntarios individuales sigan pautas consistentes cuando autentiquen y verifiquen publicaciones. La gente podría jugar con el sistema de manera coordinada y votar contenido interesante y convincente pero no verificado.

Moderación de contenido y daños al consumidor

Un espacio en línea seguro y confiable es similar a un bien público, pero sin personas motivadas y dispuestas a invertir esfuerzos por el bien común, la experiencia general del usuario podría verse afectada.

Los algoritmos en las plataformas de redes sociales tienen como objetivo maximizar la participación. Sin embargo, dado que las políticas que fomentan la participación también pueden resultar perjudiciales, la moderación del contenido también influye en la seguridad del consumidor y la responsabilidad del producto.

Este aspecto de la moderación de contenido tiene implicaciones para las empresas que utilizan Meta para publicidad o para conectarse con sus consumidores. La moderación de contenidos también es una problema de seguridad de marca porque las plataformas tienen que equilibrar su deseo de mantener más seguro el entorno de las redes sociales con el de una mayor participación.

Contenido de IA en todas partes

Es probable que la moderación de contenidos se vea aún más presionada por las crecientes cantidades de contenido generado por herramientas de inteligencia artificial. Las herramientas de detección de IA son defectuosas y los avances en la IA generativa están desafiando la capacidad de las personas para diferenciar entre contenido generado por humanos y contenido generado por IA.

En enero de 2023, por ejemplo, se lanzó OpenAI un clasificador Se suponía que eso diferenciaría entre textos generados por humanos y aquellos generados por IA. Sin embargo, la empresa suspendió la herramienta en julio de 2023 debido a su baja precisión.

Existe la posibilidad de una inundación de cuentas no autenticas—Bots de IA—que explotan vulnerabilidades algorítmicas y humanas para monetizar contenido falso y dañino. Por ejemplo, podrían cometer fraude y manipular opiniones para obtener beneficios económicos o políticos.

Las herramientas de IA generativa como ChatGPT facilitan la creación de grandes volúmenes de redes sociales de apariencia realista perfiles y contenidos. Contenido generado por IA preparado para la participación también puede presentar sesgos importantescomo raza y género. De hecho, Meta enfrentó una reacción violenta por su cuenta. Perfiles generados por IAy los comentaristas lo etiquetan como «Desagüe generado por IA«.

Más que moderación

Independientemente del tipo de moderación de contenido, la práctica por sí sola no es efectiva en reducir la creencia en la desinformación o en limitando su propagación.

En última instancia, las investigaciones muestran que una combinación de enfoques de verificación de hechos en conjunto con auditorías de plataformas y asociaciones con investigadores y activistas ciudadanos son importantes para garantizar espacios comunitarios seguros y confiables en las redes sociales.

Proporcionado por La Conversación


Este artículo se republica desde La conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Meta cambio de la verificación de datos al crowdsourcing: enfoques competitivos en la lucha contra la desinformación (2025, 15 de enero) recuperado el 15 de enero de 2025 de https://techxplore.com/news/2025-01-meta-shift-fact-crowdsourcing-approaches .html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Microsoft crea una nueva unidad interna para el desarrollo de IA

Microsoft crea una nueva unidad interna para el desarrollo de IA

Microsoft ahora le ofrece muchas más opciones para reparar su Xbox

Microsoft ahora le ofrece muchas más opciones para reparar su Xbox