«Estos no son, como, los nueve mejores expertos en Internet», señaló la jueza Elena Kagan—una referencia a ella y a sus colegas en la Corte Suprema.
A pesar de esto, se les pide a los jueces que negocien argumentos complejos que podrían tener amplias implicaciones para los proveedores en línea y, en última instancia, para todos los que usan Internet. Sus sentencias en dos casos presentados ante el tribunal el 21 y 22 de febrero de 2023, podría obligar a las empresas de redes sociales a cambiar la forma en que hacen negocios. Entonces, ¿el Corte Suprema «rompe internet,como algunos han sugerido? The Conversation preguntó a Michael W. Carroll, un experto en derecho cibernético en la Universidad Americanapara explicar lo que está en juego y cómo los jueces parecen estar pensando en los casos.
¿Puede hablarnos de los dos casos?
Los jueces están viendo dos casos separados:González contra Google y Twitter contra Taamneh—que surjan del mismo pleito. Se argumentan por separado porque giran en torno a la interpretación de dos leyes diferentes.
Ambos casos resultan de ataques terroristas. El caso Google fue presentado por la familia de Nohemi González, una mujer estadounidense asesinada en el Ataque de 2015 del grupo Estado Islámico en París. La muerte de un jordano en un Ataque de 2017 del grupo terrorista en Estambul forma la base del caso Twitter.
Lo que ambos tienen en común es la afirmación de que las plataformas de redes sociales desempeñaron un papel en la organización de los ataques. En particular, los abogados de las dos familias argumentaron que Twitter y YouTube, propiedad de Google, amplificaron los mensajes de reclutamiento y recaudación de fondos del grupo Estado Islámico.
El centro de este argumento es que las plataformas de redes sociales utilizaron algoritmos que impulsaron el contenido para aquellos que pudieran estar interesados en el contenido del grupo Estado Islámico.
¿Cómo difieren los dos casos?
En el caso de Google, la empresa dice que no puede ser considerada responsable porque está protegida por la Sección 230 de la Ley de Comunicaciones. El artículo 230 establece que ningún proveedor de un servicio informático interactivo será tratado como el editor o altavoz de la información proporcionada por un tercero. Los abogados de Google argumentan que tratar a YouTube como el editor de videos del grupo Estado Islámico contravendría la Sección 230.
Sin embargo, lo que complica las cosas es la definición en el acto de lo que es un proveedor de contenidos de información. Se define como una persona o entidad responsable de crear o desarrollar contenido «en su totalidad o en parte». El demandante en González argumenta que al promocionar videos del grupo Estado Islámico a través de miniaturas en la plataforma, YouTube es responsable de la creación de contenido y, como tal, puede ser considerado responsable.
Como profesor de derecho Eric Schnapper, en representación de la familia González, argumentó a los jueces: «Escribo un video de ISIS y me envían a un catálogo de miniaturas que crearon».
El caso de Twitter no se centra en la Sección 230. Más bien, la cuestión es si se puede considerar que las plataformas de redes sociales están «ayudando e instigando» al terrorismo al no hacer lo suficiente para eliminar el contenido del grupo Estado Islámico y al recomendar videos de la organización terrorista a través de su algoritmos Hacerlo representaría una violación de la Ley Antiterrorista de 1990, enmendada.
¿Cuáles son las posibles implicaciones?
Aunque no me suscribo a algunas de las hipérboles, no importa cuál sea la decisión de los jueces, no van a «romper Internet», en realidad hay mucho en juego para las empresas de redes sociales. Y esto se debe en gran parte a la escala.
Esto podría ser un gran problema para los proveedores de redes sociales porque mucha gente usa sus productos. Por el momento, la Sección 230 proporciona a las empresas de redes sociales inmunidad amplia, pero no general, contra el enjuiciamiento por las acciones de las personas que utilizan sus servicios. No protege a las plataformas si promueven y hacen circular deliberadamente contenido delictivo, como la pornografía infantil, pero las protege de muchas otras demandas.
De hecho, el Congreso diseñó específicamente la Sección 230 de esta manera, sabiendo que las leyes de difamación que cubren los medios tradicionales como los periódicos no eran viables en las redes sociales. En cambio, según la Sección 230, las plataformas de redes sociales se tratan más como servicios telefónicos, y las compañías telefónicas no son responsables de lo que se dice sobre su servicio.
Si los jueces interpretan la Sección 230 de manera similar, entonces no cambiará mucho. Pero si se ponen del lado del demandante, eso podría exponer a los proveedores de redes sociales a demandas relacionadas con el contenido publicado por individuos y grupos.
¿Cómo afectaría eso la forma en que operan las redes sociales?
Eso dependería de cómo respondan las empresas de tecnología: ¿cambiarían la forma en que funcionan sus plataformas? Y, si es así, ¿cómo?
Podría cambiar la relación entre los usuarios y el contenido, así como la utilidad de las redes sociales. O simplemente podría significar que las empresas de redes sociales deben modificar la forma en que presentan el contenido recomendado, por lo que en lugar de una miniatura de videos sugeridos, solo obtiene un hipervínculo.
Pero una gran pregunta quedó en gran medida sin respuesta en los argumentos orales: si abre la puerta a un litigio, ¿dónde terminaría? Nadie dio a los jueces una respuesta sobre eso, lo que, según mi lectura de los argumentos orales, pareció poner un poco nerviosos a los jueces. El temor parecía ser que pudieran hacer lo que parece ser un pequeño ajuste a la ley que termina teniendo grandes consecuencias.
¿Cuál fue su lectura de dónde están los jueces en las preguntas centrales?
A juzgar por el camino los argumentos orales bajóTengo la impresión de que las redes sociales ganarán en el tema de la Sección 230, y creo que ganarán con bastante claridad.
En parte, esto se debe a que nadie pudo articular cómo sería una interpretación estrecha de la Sección 230, o dónde se podría trazar una posible línea en la arena con respecto a qué contenido se podría o no responsabilizar a las empresas de redes sociales.
Juez Clarence Thomas observó que el mismo algoritmo solía recomendar videos de grupos del Estado Islámico y también era responsable de promover videos de cocina entre los entusiastas de la cocina.
“No entiendo cómo una sugerencia neutral sobre algo en lo que ha expresado interés es ayudar e instigar”, dijo.
A partir de los argumentos orales, no siempre se puede saber cómo dictaminarán los jueces, pero no me sorprendería que los jueces traten de encontrar una manera de perfeccionar los estándares existentes, pero sin hacer cambios radicales.
En parte, esto se debe a que cualquier cambio radical podría tener implicaciones que van más allá de las grandes tecnológicas. Fue notable que entre los muchos escritos de amicus (o amigo de la corte) presentados se encontraban los que representaban a la comunidad empresarial y organizaciones sin fines de lucro. Todos temen que si se considera que las compañías de redes sociales ayudaron e instigaron a terroristas, entonces también podrían estar expuestas a litigios por brindar asistencia accidentalmente a terroristas durante el curso normal de sus actividades.
Todo esto se reduce a una cláusula en la Ley Antiterrorista que dice que ayudar o instigar significa «proporcionar a sabiendas asistencia sustancial.»
Una vez más, creo que es probable que los jueces fallen a favor de las empresas de redes sociales. Pero el tribunal podría querer aclarar a los tribunales inferiores cuál es el estándar sobre las cuestiones de lo que constituye asistencia «con conocimiento» y «sustancial».
Una cosa interesante a tener en cuenta es que la corte no parecía estar dividida por ninguna línea ideológica. Mi impresión es que los jueces estaban luchando genuinamente en ambos casos con la cuestión de dónde se debe trazar la línea. Parecían dispuestos a brindar alguna orientación que fomente las prácticas responsables, pero no quieren un resultado que cambie fundamentalmente el funcionamiento de Internet.
Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Citación: Es poco probable que la Corte Suprema ‘rompa Internet’ por los casos de Google y Twitter; más bien, se acerca con cautela (2023, 23 de febrero) consultado el 23 de febrero de 2023 en https://techxplore.com/news/2023-02-supreme- tribunal-internet-google-twitter.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.