in

¿Es posible regular Facebook de manera efectiva? Varios intentos han llevado al mismo resultado

Facebook

Facebook

Crédito: Unsplash / CC0 Public Domain

La reciente advertencia del gobierno australiano a Facebook sobre la desinformación es solo la última salva en la batalla aparentemente constante para hacer que el gigante de las redes sociales rinda cuentas por el contenido publicado en su plataforma.

Llegó la misma semana que escuchó el Senado de EE. UU. testimonio de denuncia de irregularidades en el que la ex ejecutiva de Facebook Frances Haugen alegó que la compañía conocía las consecuencias dañinas para sus usuarios, pero decidió no actuar.

Los gobiernos de todo el mundo han estado presionando durante años para que los gigantes de las redes sociales sean más responsables, tanto en términos de la calidad de la información que alojan como del uso que hacen de los datos de los usuarios como parte de sus modelos comerciales.

El gobierno australiano Ley de seguridad en línea voluntad entrará en vigor en enero de 2022, otorgando al Comisionado de eSafety poderes sin precedentes para tomar medidas enérgicas contra el contenido abusivo o violento, o las imágenes sexuales publicadas sin consentimiento.

Pero incluso si tiene éxito, esta legislación solo se ocupará de una pequeña proporción de los problemas que requieren regulación. En muchos de estos temas, las plataformas de redes sociales han intentado regularse a sí mismas en lugar de someterse a la legislación. Pero ya sea que estemos hablando de legislación o autorregulación, las experiencias pasadas no generan mucha confianza en que las plataformas tecnológicas se puedan regular con éxito y la regulación se pueda poner en práctica fácilmente.

Nuestro investigar ha examinado intentos anteriores de regular a los gigantes tecnológicos en Australia. Analizamos 269 artículos de los medios y 282 documentos de políticas e informes de la industria publicados entre 2015 y 2021. Analicemos un par de estudios de casos relevantes.

1. Anuncios y noticias

En 2019, la Comisión Australiana de Competencia y Consumidores (ACCC) investigación en plataformas digitales describió los algoritmos de Facebook, particularmente aquellos que determinan el posicionamiento de la publicidad en las páginas de Facebook, como «opacos». Llegó a la conclusión de que las empresas de medios necesitaban más garantías sobre el uso de su contenido.

Facebook inicialmente dio la bienvenida a la consulta, pero luego se opuso públicamente (junto con Google) cuando el gobierno argumentó que los problemas relacionados con el importante poder de mercado de Facebook en la publicidad gráfica, y el dominio de Facebook y Google en el contenido de noticias generado por las empresas de medios, eran demasiado importantes para dejarlos en manos de las propias empresas.

Facebook argumentó que había no hay evidencia de un desequilibrio en el poder de negociación entre él y las empresas de medios de noticias, y agregó que no tendría más remedio que retirar los servicios de noticias en Australia si se ve obligado a pagar a los editores por alojar su contenido. El enfrentamiento resultó en el infame embargo de una semana de Facebook sobre las noticias australianas.

El Código de Negociación de Medios de Noticias revisado y enmendado fue aprobada por el parlamento en febrero. Tanto el gobierno como Facebook declararon la victoria, el primero logró aprobar su legislación y el segundo terminó haciendo sus propios pactos con los editores de noticias sin tener que estar legalmente sujeto al código.

2. Discurso de odio y terrorismo

En 2015, para hacer frente al extremismo violento en las redes sociales, el gobierno australiano trabajó inicialmente con el gigante tecnológico para desarrollar soluciones conjuntas de inteligencia artificial para mejorar los procesos técnicos de identificación de contenido para hacer frente a la lucha contra el extremismo violento.

Esta solución voluntaria funcionó de manera brillante, hasta que no lo hizo. En marzo de 2019, un terrorista supremacista blanco nacido en Australia transmitió en vivo en Facebook tiroteos masivos en mezquitas en Christchurch, y las grabaciones circularon posteriormente en Internet.

Esto trajo a la luz la incapacidad de los algoritmos de inteligencia artificial de Facebook para detectar y eliminar las imágenes en vivo del rodaje y la rapidez con la que se compartió en la plataforma.

El gobierno australiano respondió en 2019 por enmendando el Código Penal exigir a las plataformas de redes sociales que eliminen material aborrecible o violento «en un tiempo razonable» y, cuando sea pertinente, remitirlo a la Policía Federal Australiana.

¿Qué hemos aprendido?

Estos dos ejemplos, aunque sorprendentemente diferentes, se desarrollaron de manera similar: un diálogo inicial en el que Facebook propone una solución interna que involucra sus propios algoritmos, antes de un cambio posterior hacia la regulación gubernamental obligatoria, que se encuentra con resistencia o negociación (o negociación). ambos) de Facebook, y el resultado final es una legislación fragmentada que se diluye o solo cubre un subconjunto de tipos específicos de daños.

Hay varios problemas obvios con esto. La primera es que solo los gigantes tecnológicos saben cómo funcionan sus algoritmos, por lo que es difícil para los reguladores supervisarlos adecuadamente.

Luego está el hecho de que la legislación generalmente se aplica a nivel nacional, sin embargo, Facebook es una empresa global con miles de millones de usuarios en todo el mundo y una plataforma que se incorpora a nuestra vida diaria de muchas formas.

¿Cómo resolvemos el impasse? Una opción es que las regulaciones sean elaboradas por organismos independientes designados por los gobiernos y los gigantes tecnológicos para impulsar la agenda de corregulación a nivel mundial. Pero depender únicamente de la regulación para guiar el comportamiento de los gigantes tecnológicos contra posibles abusos podría no ser suficiente. También existe la necesidad de autodisciplina y gobierno corporativo apropiado, que estos organismos independientes pueden hacer cumplir.


Australia quiere que Facebook sea responsable de los comentarios anónimos


Proporcionado por The Conversation


Este artículo se vuelve a publicar desde La conversación bajo una licencia Creative Commons. Leer el artículo original.La conversación

Citación: ¿Es posible regular Facebook de manera efectiva? Varios intentos han llevado al mismo resultado (2021, 20 de octubre) recuperado el 23 de octubre de 2021 de https://techxplore.com/news/2021-10-facebook-effectively-multiple-outcome.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Corea del Sur solicita aviso de Interpol para dos líderes de pandillas cibernéticas

Corea del Sur solicita aviso de Interpol para dos líderes de pandillas cibernéticas

macOS Monterey en la función MBP

Aquí es cuando puede descargar macOS Monterey