in

Apple enfrenta una demanda de 1.200 millones de dólares por un sistema de detección de CSAM abandonado

Apple se enfrenta a una demanda por 1.200 millones de dólares en daños y perjuicios por su decisión de abandonar los planes de escanear fotos de iCloud en busca de material de abuso sexual infantil (CSAM), según un informe de Los New York Times.


Presentada en el norte de California el sábado, la demanda representa a un grupo potencial de 2.680 víctimas y alega que el hecho de que Apple no haya implementado herramientas de seguridad infantil previamente anunciadas ha permitido que contenido dañino continúe circulando, causando daños continuos a las víctimas.

En 2021, Apple anunció planes para implementar la detección de CSAM en Fotos de iCloud, junto con otras funciones de seguridad infantil. Sin embargo, la empresa enfrentó una importante reacción por parte de defensores de la privacidad, investigadores de seguridad y grupos políticos que argumentaron que la tecnología podría crear posibles puertas traseras para la vigilancia gubernamental. Posteriormente, Apple pospuso y luego abandonó la iniciativa.

Al explicar su decisión en ese momento, Apple dijo que implementar el escaneo universal del almacenamiento privado de iCloud de los usuarios introduciría importantes vulnerabilidades de seguridad que los actores maliciosos podrían explotar. Apple también expresó su preocupación de que un sistema de este tipo pudiera sentar un precedente problemático, en el sentido de que una vez que exista una infraestructura de escaneo de contenido para un propósito, podría enfrentar presiones para expandirse a aplicaciones de vigilancia más amplias en diferentes tipos de plataformas de contenido y mensajería, incluidas aquellas que utilizan cifrado.

La demandante principal de la demanda, que presentó la demanda bajo un seudónimo, dijo que continúa recibiendo avisos policiales sobre personas acusadas de poseer imágenes de abuso de ella cuando era una bebé. La demanda argumenta que la decisión de Apple de no proceder con las medidas de seguridad anunciadas ha obligado a las víctimas a revivir repetidamente su trauma.

En respuesta a la demanda, el portavoz de Apple, Fred Sainz, subrayó el compromiso de la empresa en la lucha contra la explotación infantil, afirmando que Apple está «innovando de forma urgente y activa para combatir estos delitos sin comprometer la seguridad y privacidad de todos nuestros usuarios». Apple señaló funciones existentes como Communication Safety, que advierte a los niños sobre contenido potencialmente inapropiado, como ejemplos de sus esfuerzos continuos de protección infantil.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestra Noticias políticas foro. Todos los miembros del foro y visitantes del sitio pueden leer y seguir el hilo, pero las publicaciones están limitadas a miembros del foro con al menos 100 publicaciones.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Cuesta $ 40 por una licencia de por vida de Microsoft Office para Mac

Estados Unidos aprueba la exportación de chips de inteligencia artificial a los Emiratos Árabes Unidos en medio de la asociación Microsoft-G42

Estados Unidos aprueba la exportación de chips de inteligencia artificial a los Emiratos Árabes Unidos en medio de la asociación Microsoft-G42