Una coalición internacional de más de 90 grupos políticos y de derechos publicó una carta abierta el jueves instando a Apple a abandonar sus planes de «desarrollar capacidades de vigilancia en iPhones, iPads y otros productos», una referencia a la intención de la compañía de escanear las bibliotecas de fotos de iCloud de los usuarios en busca de imágenes de abuso sexual infantil (a través de Reuters).
«Aunque estas capacidades están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil (MASI), nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tener consecuencias desastrosas consecuencias para muchos niños «, escribieron los grupos en la carta.
A algunos firmantes de la carta, organizada por el Centro para la Democracia y la Tecnología (CDT), una organización sin fines de lucro con sede en EE. UU., Les preocupa que el sistema de escaneo CSAM en el dispositivo de Apple pueda ser subvertido en países con diferentes sistemas legales para buscar contenido político u otro contenido sensible.
«Una vez incorporada esta función de puerta trasera, los gobiernos podrían obligar a Apple a extender la notificación a otras cuentas ya detectar imágenes objetables por razones distintas a las sexualmente explícitas», se lee en la carta.
La carta también pide a Apple que abandone los cambios planificados a iMessage en las cuentas familiares, que intentarían identificar y difuminar la desnudez en los mensajes de los niños, permitiéndoles verla solo si los padres son notificados. Los firmantes afirman que el paso no solo podría poner en peligro a los niños en hogares intolerantes o aquellos que buscan material educativo, sino que también rompería el cifrado de extremo a extremo para iMessage.
Algunos signatarios provienen de países en los que ya hay acaloradas batallas legales por el cifrado digital y los derechos de privacidad, como Brasil, donde WhatsApp ha sido bloqueado repetidamente por no descifrar mensajes en investigaciones criminales. Otros firmantes tienen su sede en India, México, Alemania, Argentina, Ghana y Tanzania. Los grupos que también han firmado incluyen la Unión Estadounidense por las Libertades Civiles, la Fundación Frontera Electrónica, Access Now, Privacy International y el Proyecto Tor.
El plan de Apple para detectar imágenes CSAM conocidas almacenadas en iCloud Photos ha sido particularmente controvertido y ha provocado preocupaciones de investigadores de seguridad, académicos, grupos de privacidad y otros sobre el posible abuso del sistema por parte de los gobiernos como una forma de vigilancia masiva. La empresa ha intentado abordar las preocupaciones publicando documentos adicionales y una página de preguntas frecuentes que explica cómo funcionará el sistema de detección de imágenes y argumenta que el riesgo de falsas detecciones es bajo.
Apple también ha dicho que rechazará las demandas para expandir el sistema de detección de imágenes más allá de las imágenes de niños marcadas por bases de datos reconocidas de material de abuso sexual infantil, aunque como Reuters señala, no ha dicho que se retiraría de un mercado en lugar de obedecer una orden judicial.
GIPHY App Key not set. Please check settings