in

Como Musk está aprendiendo, la moderación de contenido es un trabajo complicado

Como Musk está aprendiendo, la moderación de contenido es un trabajo complicado

Como Musk está aprendiendo, la moderación de contenido es un trabajo complicado

Elon Musk, CEO de Tesla, asiste a la inauguración de la fábrica de Tesla Berlin Brandenburg en Gruenheide, Alemania, el 22 de marzo de 2022. Musk dijo durante una presentación el miércoles 1 de diciembre de 2022 que su compañía Neuralink está buscando permiso para probar su implante cerebral en la gente pronto. Neuralink de Musk es uno de los muchos grupos que trabajan para vincular cerebros a computadoras, esfuerzos destinados a ayudar a tratar trastornos cerebrales, superar lesiones cerebrales y otras aplicaciones. Crédito: Patrick Pleul/Pool vía AP, Archivo

Ahora que está de vuelta en Twitter, el neonazi Andrew Anglin quiere que alguien le explique las reglas.

Anglin, el fundador de un infame sitio web neonazi, fue reincorporado el jueves, uno de los muchos usuarios previamente prohibidos para beneficiarse de una amnistía otorgada por el nuevo propietario de Twitter, Elon Musk. Al día siguiente, Musk desterró a Ye, el rapero antes conocido como Kanye West, después de que publicara una esvástica con una estrella de David.

«Eso es genial», tuiteó Anglin el viernes. «Quiero decir, cualesquiera que sean las reglas, la gente las seguirá. Solo necesitamos saber cuáles son las reglas».

Pregúntale a Musk. Desde que el hombre más rico del mundo pagó $ 44 mil millones por Twitter, la plataforma ha tenido problemas para definir sus reglas para la desinformación y el discurso de odio, emitió anuncios conflictivos y contradictorios, y no abordó por completo lo que los investigadores dicen que es un aumento preocupante en el discurso de odio.

Como el «principal imbécil» puede estar aprendiendo, ejecutar una plataforma global con casi 240 millones de usuarios activos diarios requiere más que buenos algoritmos y, a menudo, exige soluciones imperfectas para situaciones complicadas: decisiones difíciles que, en última instancia, deben ser tomadas por un ser humano y que seguramente desagradarán. alguien.

Musk, que se describe a sí mismo como absolutista de la libertad de expresión, ha dicho que quiere hacer de Twitter una plaza pública digital global. Pero también dijo que no tomaría decisiones importantes sobre el contenido o sobre la restauración de cuentas prohibidas antes de establecer un «consejo de moderación de contenido» con diversos puntos de vista.

Pronto cambió de opinión después de encuestar a los usuarios en Twitter y ofreció la reincorporación a una larga lista de usuarios anteriormente prohibidos, incluidos el expresidente Donald Trump, Ye, el sitio de sátira The Babylon Bee, la comediante Kathy Griffin y Anglin, el neonazi.

Y aunque el propio Musk tweets sugirió que permitiría todo el contenido legal en la plataforma, el destierro de Ye muestra que ese no es del todo el caso. La imagen de la esvástica publicada por el rapero cae en la categoría de «legal pero horrible» que a menudo atormenta a los moderadores de contenido, según Eric Goldman, experto en derecho tecnológico y profesor de la facultad de derecho de la Universidad de Santa Clara.

Si bien Europa ha impuesto reglas que requieren que las plataformas de redes sociales creen políticas sobre la desinformación y el discurso de odio, Goldman señaló que, al menos en los EE. UU., las regulaciones flexibles permiten que Musk administre Twitter como mejor le parezca, a pesar de su enfoque inconsistente.

“Lo que Musk está haciendo con Twitter está completamente permitido por la ley estadounidense”, dijo Goldman.

La presión de la UE puede obligar a Musk a exponer sus políticas para garantizar que cumple con la nueva ley, que entrará en vigencia el próximo año. El mes pasado, un alto funcionario de la UE advirtió a Musk que Twitter tendría que mejorar sus esfuerzos para combatir el discurso de odio y la desinformación; el incumplimiento podría dar lugar a cuantiosas multas.

En otro movimiento confuso, Twitter anunció a finales de noviembre que pondría fin a su política que prohíbe la desinformación sobre el COVID-19. Días después, publicó una actualización que afirmaba que «Ninguna de nuestras políticas ha cambiado».

El viernes, Musk reveló lo que dijo que era la historia interna de la decisión de Twitter en 2020 de limitar la difusión de una historia del New York Post sobre la computadora portátil de Hunter Biden.

Twitter inicialmente bloqueó los enlaces a la historia en su plataforma, citando preocupaciones de que contenía material obtenido mediante piratería informática. Esa decisión fue revertida después de que el entonces director ejecutivo de Twitter, Jack Dorsey, la criticara. Facebook también tomó medidas para limitar la difusión de la historia.

La información revelada por Musk incluía la decisión de Twitter de eliminar un puñado de tuits tras recibir una solicitud de la campaña de Joe Biden. Los tuits incluían fotos de Hunter Biden desnudo que se habían compartido sin su consentimiento, una violación de las reglas de Twitter contra la pornografía vengativa.

En lugar de revelar una conducta nefasta o una colusión con los demócratas, la revelación de Musk destacó el tipo de decisiones difíciles de moderación de contenido que ahora enfrentará.

Como Musk está aprendiendo, la moderación de contenido es un trabajo complicado

Un logotipo de Twitter cuelga fuera de las oficinas de la compañía en San Francisco el 1 de noviembre de 2022. Un alto funcionario de la Unión Europea advirtió a Elon Musk el miércoles 30 de noviembre de 2022 que Twitter necesita reforzar las medidas para proteger a los usuarios del discurso de odio, la desinformación y otros mensajes dañinos. contenido para evitar violar las nuevas reglas que amenazan a los gigantes tecnológicos con grandes multas o incluso una prohibición en el bloque de 27 naciones. Crédito: AP Photo/Noah Berger, Archivo

Las «decisiones imposibles, complicadas y blandas» son inevitables, según Yoel Roth, exjefe de confianza y seguridad de Twitter que renunció a las pocas semanas de ser propietario de Musk.

Si bien está lejos de ser perfecto, el antiguo Twitter se esforzó por ser transparente con los usuarios y constante en hacer cumplir sus reglas, dijo Roth. Eso cambió con Musk, dijo en un foro de la Fundación Knight esta semana.

«Cuando llegó el momento, cuando compras algo de $44 mil millones, tienes la última palabra sobre cómo se gobierna ese asunto de $44 mil millones», dijo Roth.

Si bien gran parte de la atención se ha centrado en los movimientos de Twitter en los EE. UU., los recortes de los trabajadores de moderación de contenido también están afectando a otras partes del mundo, según los activistas de la campaña #StopToxicTwitter.

“No estamos hablando de que las personas no tengan la capacidad de recuperación para escuchar cosas que hieren los sentimientos”, dijo Thenmozhi Soundararajan, director ejecutivo de Equality Labs, que trabaja para combatir la discriminación basada en castas en el sur de Asia. «Estamos hablando de la prevención del peligroso discurso de odio genocida que puede conducir a atrocidades masivas».

La organización de Soundararajan forma parte del Consejo de Seguridad y Confianza de Twitter, que no se ha reunido desde que Musk asumió el cargo. Ella dijo que «millones de indios están aterrorizados por saber quién será reintegrado», y la compañía ha dejado de responder a las preocupaciones del grupo.

«Entonces, ¿qué sucede si hay otro llamado a la violencia? ¿Tengo que etiquetar a Elon Musk y esperar que aborde el pogromo?». dijo Soundararajan.

Los casos de discurso de odio y epítetos raciales se dispararon en Twitter después de la compra de Musk, ya que algunos usuarios intentaron probar los límites del nuevo propietario. La cantidad de tuits que contienen términos de odio continúa aumentando, según un informe publicado el viernes por el Centro para contrarrestar el odio digital, un grupo que rastrea el odio y el extremismo en línea.

Musk ha dicho que Twitter ha reducido la difusión de tuits que contienen discursos de odio, haciéndolos más difíciles de encontrar a menos que un usuario los busque. Pero eso no satisfizo al director ejecutivo del centro, Imran Ahmed, quien calificó el aumento del discurso de odio como un «claro fracaso en cumplir con sus propios estándares autoproclamados».

Inmediatamente después de la toma de posesión de Musk y el despido de gran parte del personal de Twitter, los investigadores que previamente habían señalado discursos de odio dañinos o información errónea en la plataforma informaron que sus súplicas no fueron respondidas.

Jesse Littlewood, vicepresidente de campañas de Common Cause, dijo que su grupo se comunicó con Twitter la semana pasada sobre un tuit de la representante estadounidense Marjorie Taylor Greene que alegaba fraude electoral en Arizona. Musk restableció la cuenta personal de Greene después de que la expulsaran de Twitter por difundir información errónea sobre el COVID-19.

Esta vez, Twitter respondió rápidamente y le dijo a Common Cause que el tuit no violaba ninguna regla y que se mantendría, a pesar de que Twitter requiere que se etiquete o elimine el contenido que difunde afirmaciones falsas o engañosas sobre los resultados de las elecciones.

Twitter no le dio a Littlewood ninguna explicación de por qué no estaba siguiendo sus propias reglas.

«Encuentro eso bastante confuso», dijo Littlewood.

Twitter no respondió a los mensajes en busca de comentarios para esta historia. Musk ha defendido los movimientos a veces bruscos de la plataforma desde que asumió el control, y dijo que ocurrirán errores a medida que evolucione. «Haremos muchas tonterías», tuiteó.

Para los muchos fanáticos en línea de Musk, el desorden es una característica, no un error, del sitio bajo su nueva propiedad, y un reflejo de la meca de la libertad de expresión que esperan que sea Twitter.

«Me encanta Elon Twitter hasta ahora», tuiteó un usuario que se hace llamar Some Dude. «¡El caos es glorioso!»

© 2022 Prensa Asociada. Reservados todos los derechos. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.

Citación: Como Musk está aprendiendo, la moderación de contenido es un trabajo desordenado (2022, 5 de diciembre) recuperado el 5 de diciembre de 2022 de https://techxplore.com/news/2022-12-musk-content-moderation-messy-job.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Written by TecTop

hospital

Hospital francés cancela operaciones tras ciberataque

El Kamehameha, la técnica de combate más icónica y conocida de toda la franquicia de Dragon Ball

El Kamehameha, la técnica de combate más icónica y conocida de toda la franquicia de Dragon Ball