
Crédito: Dominio público de Pixabay/CC0
Gran tecnología Las plataformas a menudo presentan la moderación de contenido como una perfección, Sistema impulsado por la tecnología. Pero trabajo humano, a menudo subcontratado Para países como India y Filipinas, juega un papel fundamental en la emisión de juicios que implican la comprensión del contexto. La tecnología por sí sola no puede hacer esto.
Detrás de las puertas cerradas, los moderadores humanos ocultos tienen la tarea de filtrar parte del material más dañino de Internet. A menudo lo hacen con apoyo mínimo de salud mental y bajo estrictos acuerdos de confidencialidad.
Después de recibir entrenamiento vagose espera que los moderadores tomar decisiones en segundosteniendo en cuenta las políticas de contenido en constante cambio de una plataforma y garantizar Al menos 95% de precisión.
¿Estas condiciones de trabajo afectan las decisiones moderadoras? Hasta la fecha, no tenemos muchos datos sobre esto. En un nuevo Estudio publicado en Nuevos medios y sociedadexaminamos el proceso diario de toma de decisiones de los moderadores de contenido comercial en la India.
Nuestros resultados arrojan luz sobre cómo las condiciones de empleo de los moderadores dan forma a los resultados de su trabajo, y tres argumentos clave que surgieron de nuestras entrevistas.
Eficiencia sobre la idoneidad
«Nunca recomendaría el contenido de rango de rango, ya que tomaría tiempo», dijo un moderador de audio de 28 años que trabaja para una plataforma de redes sociales indias.
A medida que los moderadores trabajan bajo objetivos de alta productividad, los obliga a priorizar el contenido que se puede manejar rápidamente sin llamar la atención de los supervisores.
En el extracto anterior, la moderadora explicó que evitó el contenido y los procesos que requirieron más tiempo para mantener su ritmo. Mientras observamos su trabajo en una sesión de intercambio de pantalla, notamos que reducir la visibilidad del contenido (desanimado) implicó cuatro pasos. Mientras tanto, finalizar transmisiones en vivo o eliminar publicaciones requirió solo dos pasos.
Para ahorrar tiempo, se omitió el contenido marcado para ser desplegada. Como resultado, el contenido marcado para una visibilidad reducida, como suplantaciones, a menudo permaneció en la plataforma hasta que otro moderador intervino.
Esto muestra cómo las presiones de productividad en la industria de moderación conducen fácilmente a que el contenido problemático se mantenga en línea.
Decisiones descontextualizadas
«Asegúrese de que ninguna de las palabras amarillas resaltadas permaneciera en el perfil», instrucciones recibidas por un moderador de texto/imagen.
El trabajo de moderación a menudo incluye herramientas de automatización que pueden detectar ciertas palabras en texto, transcribir el habla o usar el reconocimiento de imágenes para escanear el contenido de las imágenes.
Se supone que estas herramientas ayudan a los moderadores marcando posibles violaciones para un juicio adicional que tenga en cuenta el contexto. Por ejemplo, ¿el lenguaje potencialmente ofensivo es simplemente una broma, o realmente viola alguna política?
En la práctica, encontramos que bajo plazos ajustados, los moderadores frecuentemente siguen las señales de las herramientas mecánicamente en lugar de ejercer un juicio independiente.
El moderador citado anteriormente describió las instrucciones de su supervisor para simplemente eliminar el texto detectado por el software. Durante una pantalla de pantalla, observamos que la eliminara las palabras marcadas sin evaluar el contexto.
A menudo, las herramientas de automatización que hacen cola y lo organizan para moderadores humanos también lo separarán del contexto de conversación más amplio. Esto hace que sea aún más difícil para el moderador hacer un juicio basado en el contexto sobre el contenido que se marcó pero que en realidad fue inocente, a pesar de que el juicio es una de las razones por las que los moderadores humanos son contratados en primer lugar.
Imposibilidad de juicios exhaustivos
«Si ustedes no pueden hacer el trabajo y completar los objetivos, pueden irse» – Mensaje grupal de trabajo de un moderador de contenido independiente.
El empleo precario obliga a los moderadores a moldear sus procesos de toma de decisiones en torno a la seguridad laboral.
Se ven obligados a usar estrategias que les permitan decidir rápida y apropiadamente. A su vez, esto influye en sus decisiones futuras.
Por ejemplo, descubrimos que con el tiempo, los moderadores desarrollan una lista de «Dos y no hacer». Pueden diluir las pautas de moderación expansiva en una lista fácilmente recordada de violaciones éticamente inequívocas que pueden seguir rápidamente.
Estas estrategias revelan cómo la estructura misma de la industria de moderación impide decisiones reflexivas y hace que el juicio exhaustivo sea imposible.
¿Qué debemos quitarle esto?
Nuestros hallazgos muestran que las decisiones de moderación no solo están formadas por las políticas de la plataforma. Las precariosas condiciones de trabajo de los moderadores juegan un papel crucial en la forma en que se modera el contenido.
Las plataformas en línea no pueden implementar políticas de moderación consistentes y exhaustivas si las prácticas de empleo de la industria de moderación tampoco mejoran. Argumentamos que la moderación del contenido y su efectividad son tanto un problema laboral como un desafío político.
Para una moderación verdaderamente efectiva, las plataformas en línea deben abordar las presiones económicas sobre moderadores, como objetivos de rendimiento estrictos y empleo inseguro.
Necesitamos una mayor transparencia en torno a la cantidad de plataformas que gastan en el trabajo humano en Confianza y seguridadambos casa interna y subcontratado. Actualmente, no está claro si su inversión en recursos humanos es realmente proporcional al volumen de contenido que fluye a través de sus plataformas.
Más allá de las condiciones de empleo, las plataformas también deben rediseñar sus herramientas de moderación. Por ejemplo, la integración de libros de reglas de acceso rápido, la implementación de colas de contenido específicas de violación y la estandarización de los pasos requeridos para diferentes acciones de cumplimiento optimizaría la toma de decisiones, para que los moderadores no sean predeterminados a opciones más rápidas solo para ahorrar tiempo.
Más información:
Tania Chatterjee et al, para que el contenido sea o no: Comprender el proceso de toma de decisiones de los moderadores de contenido en las plataformas de redes sociales, Nuevos medios y sociedad (2025). Doi: 10.1177/14614448251348900
Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Citación: Las condiciones de trabajo duro de los moderadores en línea afectan directamente qué tan bien se vigilan Internet: nuevo estudio (2025, 23 de julio) recuperó el 25 de julio de 2025 de https://techxplore.com/news/2025-07-hard-labor-conditions-online-moderators.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.