Apple anunció hoy que con el lanzamiento de iOS 15 y iPadOS 15, comenzará a escanear fotos de iCloud en los EE. UU. Para buscar material conocido sobre abuso sexual infantil (CSAM), con planes de informar los hallazgos al Centro Nacional para Niños Desaparecidos y Explotados. (NCMEC).
Antes de que Apple detallara sus planes, se filtraron noticias de la iniciativa CSAM, y los investigadores de seguridad ya comenzaron a expresar preocupaciones sobre cómo el nuevo protocolo de escaneo de imágenes de Apple podría usarse en el futuro, como señaló Tiempos financieros.
Apple está usando un sistema «NeuralHash» para comparar imágenes CSAM conocidas con fotos en el iPhone de un usuario antes de que se carguen en iCloud. Si hay una coincidencia, esa fotografía se carga con un vale de seguridad criptográfica y, en un cierto umbral, se activa una revisión para verificar si la persona tiene CSAM en sus dispositivos.
En este momento, Apple está utilizando su tecnología de escaneo y comparación de imágenes para buscar abuso infantil, pero a los investigadores les preocupa que en el futuro, pueda adaptarse para escanear en busca de otros tipos de imágenes que son más preocupantes, como letreros antigubernamentales en protestas.
En una serie de tweets, el investigador de criptografía de Johns Hopkins Matthew Green dijo que el escaneo CSAM es una «muy mala idea» porque en el futuro, podría expandirse para escanear fotos cifradas de extremo a extremo en lugar de solo contenido que se carga en iCloud. Para los niños, Apple es implementar una función de escaneo separada que busca contenido sexualmente explícito directamente en iMessages, que están encriptados de un extremo a otro.
Green también expresó su preocupación por los hash que Apple planea usar porque podría haber «colisiones», donde alguien envía un archivo inofensivo que comparte un hash con CSAM y podría resultar en una bandera falsa.
Apple, por su parte, dice que su tecnología de escaneo tiene un «nivel extremadamente alto de precisión» para asegurarse de que las cuentas no se marquen incorrectamente, y los informes se revisan manualmente antes de que se desactive la cuenta iCloud de una persona y se envíe un informe al NCMEC.
Green cree que la implementación de Apple empujará a otras empresas tecnológicas a adoptar técnicas similares. «Esto romperá la presa», escribió. «Los gobiernos se lo exigirán a todo el mundo». Comparó la tecnología con «herramientas que han desplegado los regímenes represivos».
Son cosas malas. En particular, no quiero estar del lado de la pornografía infantil y no soy un terrorista. Pero el problema es que el cifrado es una herramienta poderosa que brinda privacidad, y realmente no se puede tener una privacidad sólida mientras se monitorea cada imagen que alguien envía. – Matthew Green (@matthew_d_green) 5 de agosto de 2021
El investigador de seguridad Alec Muffett, que anteriormente trabajó en Facebook, dijo que la decisión de Apple de implementar este tipo de escaneo de imágenes fue un «paso enorme y regresivo para la privacidad individual». «Apple está retrocediendo la privacidad para habilitar 1984», dijo.
Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge, dijo que la calificó como una «idea absolutamente espantosa» que podría conducir a una «vigilancia masiva distribuida» de los dispositivos.
Como muchos han señalado en Twitter, varias empresas de tecnología ya realizan escaneos de imágenes para CSAM. Google, Twitter, Microsoft, Facebook y otros utilizan métodos de hash de imágenes para buscar e informar imágenes conocidas de abuso infantil.
Y si se está preguntando si Google escanea imágenes en busca de imágenes de abuso infantil, respondí que en la historia que escribí hace ocho años: lo ha estado haciendo ** DESDE 2008 **. Tal vez todos se sienten y se pongan el sombrero de nuevo. pic.twitter.com/ruJ4Z8SceY
– Charles Arthur (@charlesarthur) 5 de agosto de 2021
También vale la pena señalar que Apple fue ya escaneando algún contenido para imágenes de abuso infantil antes del lanzamiento de la nueva iniciativa CSAM. En 2020, la directora de privacidad de Apple, Jane Horvath, dijo que Apple usó tecnología de detección para buscar imágenes ilegales y luego deshabilita las cuentas si se detecta evidencia de CSAM.
Apple en 2019 actualizó sus políticas de privacidad tener en cuenta que analizaría el contenido subido en busca de «contenido potencialmente ilegal, incluido material de explotación sexual infantil», por lo que los anuncios de hoy no son del todo nuevos.
Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro Noticias políticas foro. Todos los miembros del foro y los visitantes del sitio pueden leer y seguir el hilo, pero la publicación está limitada a los miembros del foro con al menos 100 publicaciones.
GIPHY App Key not set. Please check settings