
En esta fotografía de archivo del 29 de marzo de 2018, el logotipo de Facebook aparece en las pantallas del Nasdaq MarketSite en Times Square, Nueva York. Un nuevo informe ha encontrado que Facebook no pudo detectar el discurso de odio flagrante y los llamados a la violencia contra la minoría musulmana rohingya de Myanmar años después de que se descubrió que ese comportamiento había jugado un papel determinante en el genocidio contra ellos. Crédito: AP Photo/Richard Drew, Archivo
Un nuevo informe ha encontrado que Facebook no pudo detectar el discurso de odio flagrante y los llamados a la violencia contra la minoría musulmana rohingya de Myanmar años después de que se descubrió que ese comportamiento había jugado un papel determinante en el genocidio contra ellos.
El informe compartido exclusivamente con The Associated Press mostró que el grupo de derechos humanos Global Witness envió ocho anuncios pagados para su aprobación a Facebook, cada uno de los cuales incluía diferentes versiones de discursos de odio contra los rohingya. Los ocho anuncios fueron aprobados por Facebook para ser publicados.
El grupo retiró los anuncios antes de que fueran publicados o pagados, pero los resultados confirmaron que, a pesar de sus promesas de hacerlo mejor, los controles de fugas de Facebook aún no detectan el discurso de odio y los llamados a la violencia en su plataforma.
El ejército llevó a cabo lo que llamó una campaña de limpieza en el estado de Rakhine, en el oeste de Myanmar, en 2017 después de un ataque de un grupo insurgente rohingya. Más de 700.000 rohingyas huyeron a la vecina Bangladesh y las fuerzas de seguridad fueron acusadas de violaciones masivas, asesinatos e incendios de miles de viviendas.
También el lunes, el secretario de Estado de EE. UU., Antony Blinken, anunció que EE. UU. ve la violencia contra los rohingya como un genocidio. La declaración tiene como objetivo generar presión internacional y sentar las bases para posibles acciones legales, dijo Blinken.
El 1 de febrero del año pasado, las fuerzas armadas de Myanmar tomaron por la fuerza el control del país y encarcelaron a funcionarios gubernamentales elegidos democráticamente. Los refugiados rohingya condenaron la toma militar y dijeron que les da más miedo regresar a Myanmar.
Los expertos dicen que tales anuncios han seguido apareciendo y que, a pesar de sus promesas de hacerlo mejor y de asegurar que se ha tomado en serio su papel en el genocidio, Facebook aún falla incluso en las pruebas más simples: garantizar que los anuncios pagados que se publican en su sitio no contengan discurso de odio que pide el asesinato de musulmanes rohingya.
«La matanza actual de Kalar no es suficiente, ¡necesitamos matar más!» lea una publicación paga propuesta de Global Witness, usando un insulto que se usa a menudo en Myanmar para referirse a personas de origen musulmán o de la India oriental.
“Son muy sucias. Las mujeres bengalíes/rohingyas tienen un nivel de vida muy bajo y mala higiene. No son atractivas”, decía otro.
«Estas publicaciones son impactantes por lo que alientan y son una clara señal de que Facebook no ha cambiado o hecho lo que le dijeron al público que harían: regularse adecuadamente», dijo Ronan Lee, investigador del Instituto de Medios y Creatividad. Industries en la Universidad de Loughborough, Londres.
Los ocho anuncios de Global Witness utilizaron lenguaje de incitación al odio tomado directamente de la Misión Internacional Independiente de Investigación de las Naciones Unidas sobre Myanmar en su informe al Consejo de Derechos Humanos. Varios ejemplos fueron de publicaciones anteriores de Facebook.
El hecho de que Facebook haya aprobado los ocho anuncios es especialmente preocupante porque la empresa afirma mantener los anuncios en un estándar «aún más estricto» que las publicaciones regulares no pagadas, según página del centro de ayuda por anuncios pagados.
«Acepto el punto de que ocho no es un número muy grande. Pero creo que los hallazgos son realmente claros, que los ocho anuncios fueron aceptados para su publicación», dijo Rosie Sharpe, activista de Global Witness. «Creo que se puede concluir de eso que es probable que la gran mayoría de los discursos de odio se aprueben».

Niños musulmanes rohingya que cruzaron de Myanmar a Bangladesh esperan apretados unos contra otros para recibir alimentos distribuidos a niños y mujeres por una agencia de ayuda turca en el campo de refugiados de Thaingkhali, Bangladesh, el sábado 21 de octubre de 2017. Un nuevo informe encontró que Facebook no pudo detectar discursos de odio flagrantes y llamadas a la violencia contra la minoría musulmana rohingya de Myanmar años después de que se descubrió que ese comportamiento había jugado un papel determinante en el genocidio contra ellos. Crédito: AP Photo/Dar Yasin, Archivo
La empresa matriz de Facebook, Meta Platforms Inc., dijo que ha invertido en mejorar sus controles de seguridad en Myanmar, incluida la prohibición de cuentas militares después del Tatmadaw, como se conoce localmente a las fuerzas armadas, tomaron el poder y encarcelaron a los líderes electos en el golpe de 2021.
«Construimos un equipo dedicado de hablantes de birmano, prohibimos el Tatmadaw, interrumpimos las redes que manipulan el debate público y tomamos medidas contra la información errónea dañina para ayudar a mantener a las personas seguras. También invertimos en tecnología en idioma birmano para reducir la prevalencia de contenido infractor. ”, escribió Rafael Frankel, director de políticas públicas para mercados emergentes de Meta Asia Pacific en un comunicado enviado por correo electrónico a AP el 17 de marzo. -Finding Mission sobre los hallazgos de Myanmar y la evaluación independiente de impacto en los derechos humanos que encargamos y publicamos en 2018».
Facebook se ha utilizado para difundir discursos de odio y amplificar la propaganda militar en Myanmar en el pasado.
Poco después de que Myanmar se conectara a Internet en el año 2000, Facebook se asoció con sus proveedores de telecomunicaciones para permitir que los clientes usaran la plataforma sin tener que pagar por los datos, que todavía eran costosos en ese momento. El uso de la plataforma explotó. Para muchos en Myanmar, Facebook se convirtió en Internet.
Los defensores de la política de internet local dijeron repetidamente a Facebook que el discurso de odio se estaba extendiendo por la plataforma, a menudo dirigido a la minoría musulmana rohingya en la nación mayoritariamente budista.
Durante años, Facebook no invirtió en moderadores de contenido que hablaran idiomas locales o verificadores de datos con conocimiento de la situación política en Myanmar, ni cerró cuentas específicas ni eliminó páginas que se usaban para propagar el odio hacia los rohingya, dijo Tun Khin, presidente de Burmese Rohingya. Organization UK, una organización de defensa de los rohingyas con sede en Londres.
En marzo de 2018, menos de seis meses después de que cientos de miles de rohingya huyeran de la violencia en el oeste de Myanmar, Marzuki Darusman, presidente de la Misión Internacional Independiente de Investigación de la ONU sobre Myanmar, dijo a los periodistas que las redes sociales habían «contribuido sustancialmente al nivel de acritud y disensión y conflicto, por así decirlo, dentro del público».
“El discurso de odio es, por supuesto, parte de eso. En lo que respecta a la situación de Myanmar, las redes sociales son Facebook y Facebook son las redes sociales”, dijo Darusman.
Cuando se le preguntó sobre Myanmar un mes después en una audiencia en el Senado de los EE. UU., el director ejecutivo de Meta, Mark Zuckerberg, dijo que Facebook planeaba contratar «docenas» de hablantes de birmano para moderar el contenido y trabajaría con grupos de la sociedad civil para identificar figuras de odio y desarrollar nuevas tecnologías para combatir el discurso de odio.
«El discurso de odio es muy específico del idioma. Es difícil hacerlo sin personas que hablen el idioma local y necesitamos aumentar nuestro esfuerzo allí de manera espectacular», dijo Zuckerberg.
Sin embargo, en archivos internos filtrados por la denunciante Frances Haugen el año pasado, AP descubrió que persistían las infracciones. La empresa intensificó sus esfuerzos para combatir el discurso de odio, pero nunca desarrolló por completo las herramientas y estrategias necesarias para hacerlo.
Los refugiados rohingya han demandado a Facebook por más de $ 150 mil millones, acusándolo de no detener el discurso de odio que incitaba a la violencia contra el grupo étnico musulmán por parte de los gobernantes militares y sus partidarios en Myanmar. Los grupos de jóvenes rohingya con base en los campos de refugiados de Bangladesh han presentado una queja por separado en Irlanda ante la Organización para la Cooperación y el Desarrollo Económicos de 38 naciones pidiendo a Facebook que proporcione algunos programas de remediación en los campos.
La compañía ahora llamada Meta se ha negado a decir cuántos de sus moderadores de contenido leen birmano y, por lo tanto, pueden detectar el discurso de odio en Myanmar.
«Los sobrevivientes del genocidio rohingya continúan viviendo en campamentos hoy y Facebook les sigue fallando», dijo Tun Khin. «Facebook necesita hacer más».
Facebook ordenó publicar publicaciones anti-rohingya por caso de genocidio
© 2022 Prensa Asociada. Todos los derechos reservados. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.
Citación: ‘Matar más’: Facebook no detecta el odio contra los rohingya (22 de marzo de 2022) consultado el 22 de marzo de 2022 en https://techxplore.com/news/2022-03-facebook-rohingya.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.