Ha pasado más de un año desde que Apple anunció planes para tres nuevas funciones de seguridad infantil, incluido un sistema para detectar imágenes conocidas de material de abuso sexual infantil (CSAM) almacenadas en Fotos de iCloud, una opción para desenfocar fotos sexualmente explícitas en la aplicación Mensajes y recursos de explotación infantil para Siri. Las dos últimas funciones ya están disponibles, pero Apple permanece en silencio sobre sus planes para la función de detección de CSAM.
Apple inicialmente dijo que la detección de CSAM se implementaría en una actualización de iOS 15 y iPadOS 15 para fines de 2021, pero la compañía finalmente pospuso la función en función de «los comentarios de los clientes, grupos de defensa, investigadores y otros».
En septiembre de 2021, Apple publicó la siguiente actualización de su Página de seguridad infantil:
Anteriormente, anunciamos planes para características destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos y para ayudar a limitar la difusión de material de abuso sexual infantil. Según los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica.
En diciembre de 2021, Apple eliminó la actualización anterior y todas las referencias a sus planes de detección de CSAM de su página de seguridad infantil, pero un portavoz de Apple informado el borde que los planes de Apple para la función no habían cambiado. Sin embargo, hasta donde sabemos, Apple no ha comentado públicamente sobre los planes desde ese momento.
Nos comunicamos con Apple para preguntar si la función aún está planeada. Apple no respondió de inmediato a una solicitud de comentarios.
Apple avanzó con la implementación de sus funciones de seguridad infantil para la aplicación Mensajes y Siri con el lanzamiento de iOS 15.2 y otras actualizaciones de software en diciembre de 2021, y expandió la función de la aplicación Mensajes a Australia, Canadá, Nueva Zelanda y el Reino Unido con iOS 15.5 y otras versiones de software en mayo de 2022.
Apple dijo que su sistema de detección de CSAM fue «diseñado teniendo en cuenta la privacidad del usuario». El sistema realizaría una «coincidencia en el dispositivo utilizando una base de datos de hash de imágenes CSAM conocidas» de organizaciones de seguridad infantil, que Apple transformaría en un «conjunto de hash ilegible que se almacena de forma segura en los dispositivos de los usuarios».
Apple planeó informar las cuentas de iCloud con imágenes conocidas de CSAM al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización sin fines de lucro que trabaja en colaboración con las agencias de aplicación de la ley de EE. UU. Apple dijo que habría un «umbral» que garantizaría «menos de una posibilidad en un billón por año» de que el sistema marque incorrectamente una cuenta, además de una revisión manual de las cuentas marcadas por un ser humano.
Los planes de Apple fueron criticados por una amplia gama de personas y organizaciones, incluidos investigadores de seguridad, Electronic Frontier Foundation (EFF), políticos, grupos políticos, investigadores universitarios e incluso algunos empleados de Apple.
Algunos críticos argumentaron que las funciones de seguridad para niños de Apple podrían crear una «puerta trasera» en los dispositivos, que los gobiernos o las fuerzas del orden podrían usar para vigilar a los usuarios. Otra preocupación eran los falsos positivos, incluida la posibilidad de que alguien agregara intencionalmente imágenes CSAM a la cuenta de iCloud de otra persona para marcar su cuenta.
Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro Noticias políticas foro. Todos los miembros del foro y los visitantes del sitio pueden leer y seguir el hilo, pero la publicación está limitada a los miembros del foro con al menos 100 publicaciones.