A menos que sea moderador de un grupo comunitario local que discute la recolección de basura o la etiqueta en los parques para perros, es poco probable que comprenda completamente el gran volumen y escala del abuso dirigido a las personas en línea.
Pero cuando la moderación de las redes sociales y la gestión comunitaria son parte integral de su trabajo diario, el costo para las personas y sus seres queridos puede ser enorme. Los periodistas, a menudo al comienzo de sus carreras, pueden estar en el extremo receptor de torrentes de abusos.
Si provienen de entornos culturales o lingüísticos diversos, esa renuencia a el informe puede ser incluso mayor que otros colegas.
Existe una creciente preocupación de los empleadores sobre cómo la moderación del contenido confrontado puede afectar el bienestar de las personas. Los empleadores también tienen el deber de mantener seguro a su personal en el trabajo, incluso en línea.
El ABC quería entender cómo se veía esto en la práctica. Los datos de su encuesta interna muestran cuán grave se ha vuelto el problema para los moderadores que trabajan para mantener seguros a los miembros de la audiencia cuando contribuyen a las discusiones en línea.
¿Qué encontró el ABC?
En 2022, ABC pidió a 111 miembros del personal que participaban en la moderación en línea como parte de su trabajo que informaran sobre la frecuencia de exposición a experiencias potencialmente dañinas.
En primer lugar, era importante comprender cuánto tiempo pasaban las personas en línea moderando contenido. De quienes tuvieron que moderar contenidos todos los días, el 63% lo hizo durante menos de hora y media, y el 88% moderó menos de tres horas.
La mayoría del personal encuestado vio contenido potencialmente dañino todas las semanas.
El 71% de los moderadores informaron haber visto denigración de su trabajo semanalmente, y el 25% lo vio a diario.
La mitad informó haber visto contenido misógino semanalmente, mientras que más de la mitad dijo haber visto contenido racista semanalmente.
Alrededor de un tercio afirmó haber visto contenido homofóbico cada semana.
En el caso del lenguaje abusivo, el 20% dijo haberlo encontrado semanalmente.
Es una imagen contradictoria en sí misma, pero muchos ven más de un tipo de contenido a la vez. Esto agrava la situación.
Es importante señalar que la encuesta no definió específicamente qué se entiende por contenido racista, homofóbico o misógino, por lo que quedó abierto a la interpretación de los moderadores.
Un problema global
Hace algunos años que conocemos la Problemas de salud mental que enfrentan los moderadores. en otros países.
Algunas personas empleadas por Facebook para filtrar el material más tóxico y han llevado a la empresa a los tribunales.
En un caso en los Estados Unidos, Facebook llegó a un acuerdo con más de 10.000 moderadores de contenido que incluyeron 52 millones de dólares (77,8 millones de dólares australianos) para tratamiento de salud mental.
En Kenia184 moderadores contratados por Facebook están demandando a la empresa por malas condiciones laborales, incluida la falta de apoyo a la salud mental. Piden 1.600 millones de dólares estadounidenses (2.300 millones de dólares australianos) en compensación.
El caso está en curso y también lo están otros casos separados contra Meta en Kenia.
En Australia, moderadores durante el apogeo de la pandemia de COVID reportado cuán confrontativo podría ser lidiar con la desinformación y las amenazas de los usuarios de las redes sociales.
A informe 2023 realizado por Australian Community Managers, el principal organismo para moderadores en línea, encontró que el 50% de las personas encuestadas dijeron que un desafío clave en su trabajo era mantener una buena salud mental.
¿Qué se está haciendo?
Aunque no está exenta de problemas, ABC está liderando el camino para proteger a sus moderadores de cualquier daño.
Ha trabajado durante mucho tiempo para proteger a su personal de la exposición al trauma con una variedad de programas, incluido un programa de apoyo entre pares para periodistas. El programa contó con el apoyo de la Centro Dart de Periodismo y Trauma Asia Pacífico.
Pero a medida que el nivel de abuso dirigido al personal aumentó en tono e intensidad, la emisora nacional nombró a un Asesor de bienestar en redes sociales. Nicolle White gestiona los riesgos de seguridad y salud en el trabajo generados por las redes sociales. Se cree que es la primera en el mundo en desempeñar ese papel.
Como parte de la encuesta, se preguntó a los moderadores de ABC sobre formas en que podrían recibir un mejor apoyo.
Como era de esperar, desactivar los comentarios fue calificado como la técnica más útil para promover el bienestar, seguido del apoyo de la gerencia, el apoyo de los pares y la preparación de respuestas a las reacciones anticipadas de la audiencia.
Desactivando los comentariossin embargo, a menudo genera quejas de al menos algunas personas de que sus opiniones están siendo censuradas. Esto a pesar de que los editores de medios son legalmente responsables de los comentarios sobre su contenido, según una ley de 2021. Decisión del Tribunal Superior.
Educar al personal sobre por qué la gente comenta sobre el contenido de las noticias ha sido una parte importante de la reducción de daños.
Algunos de los otros cambios implementados después de la encuesta incluyeron alentar al personal a no moderar los comentarios relacionados con su propia experiencia o identidad vivida, a menos que se sientan capacitados para hacerlo.
El programa de apoyo entre pares también vincula al personal con experiencia en moderación.
Se instó a los gerentes a garantizar que el personal completara los planes de autocuidado para prepararse para los días de moderación de alto riesgo (como el referéndum de Voice). Esto incluye documentar mecanismos de afrontamiento positivos, cómo implementar límites al final de un turno de noticias, informar y pedir al personal que reflexione sobre el valor de su trabajo.
Las investigaciones muestran que uno de los factores más protectores para los periodistas es recordarles que el trabajo es importante.
Pero, de manera abrumadora, el consejo más importante para todos los que trabajan en moderación es asegurarse de tener una orientación clara sobre qué hacer si su bienestar se ve afectado y que la búsqueda de apoyo esté normalizada en el lugar de trabajo.
Lecciones para otros
Si bien estos datos son específicos de la emisora pública, es seguro que las experiencias de ABC se reflejan en la industria de las noticias y otros foros donde las personas son responsables de moderar las comunidades.
No se trata sólo de empleados remunerados. Los moderadores voluntarios de estaciones de radio juveniles o administradores de grupos de Facebook se encuentran entre las muchas personas que enfrentan hostilidad en línea.
Lo que está claro es que cualquier empresa u organización de voluntarios que construya una audiencia en las redes sociales debe considerar las ramificaciones de salud y seguridad para quienes tienen la tarea de mantener esas plataformas y asegurarse de que incorporen estrategias de apoyo.
El comisionado de eSafety de Australia ha desarrollado una gama de medidas disponibles públicamente recursos para ayudar.
El autor desea reconocer el trabajo de Nicolle White al escribir este artículo y la investigación que informa.
Este artículo se republica desde La conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Los moderadores nos protegen de lo peor de Internet, pero tiene un costo personal enorme (2024, 31 de octubre) recuperado el 31 de octubre de 2024 de https://techxplore.com/news/2024-10-moderators-worst-internet-huge -personal.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings