Apple ha publicado una pregunta frecuente titulada «Protecciones ampliadas para niños» que tiene como objetivo disipar las preocupaciones de privacidad de los usuarios sobre la nueva detección de CSAM en iCloud Photos y la seguridad de la comunicación para las funciones de Messages que la compañía anunció la semana pasada.
«Desde que anunciamos estas características, muchas partes interesadas, incluidas organizaciones de privacidad y organizaciones de seguridad infantil, han expresado su apoyo a esta nueva solución, y algunas se han comunicado con preguntas», se lee en las preguntas frecuentes. «Este documento sirve para abordar estas cuestiones y brindar más claridad y transparencia en el proceso».
Algunas discusiones han borrado la distinción entre las dos características, y Apple se esmera en la documento para diferenciarlos, explicando que la seguridad de la comunicación en Mensajes «solo funciona en imágenes enviadas o recibidas en la aplicación Mensajes para cuentas de niños configuradas en Compartir en familia», mientras que la detección de CSAM en Fotos de iCloud «solo afecta a los usuarios que han elegido usar Fotos de iCloud para almacenar sus fotos… No hay ningún impacto en ningún otro dato del dispositivo «.
De las preguntas frecuentes:
Estas dos funciones no son iguales y no utilizan la misma tecnología.
La seguridad de la comunicación en Mensajes está diseñada para brindarles a padres e hijos herramientas adicionales para ayudar a proteger a sus hijos del envío y la recepción de imágenes sexualmente explícitas en la aplicación Mensajes. Solo funciona con imágenes enviadas o recibidas en la aplicación Mensajes para cuentas de niños configuradas en Family Sharing. Analiza las imágenes en el dispositivo, por lo que no cambia las garantías de privacidad de los mensajes. Cuando la cuenta de un niño envía o recibe imágenes sexualmente explícitas, la foto se verá borrosa y el niño será advertido, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver o enviar la foto. Como precaución adicional, a los niños pequeños también se les puede decir que, para asegurarse de que estén seguros, sus padres recibirán un mensaje si lo ven.
La segunda función, la detección de CSAM en iCloud Photos, está diseñada para mantener CSAM fuera de iCloud Photos sin proporcionar información a Apple sobre otras fotos que no coincidan con imágenes CSAM conocidas. La posesión de imágenes CSAM es ilegal en la mayoría de los países, incluido Estados Unidos. Esta función solo afecta a los usuarios que han optado por utilizar Fotos de iCloud para almacenar sus fotos. No afecta a los usuarios que no han elegido usar Fotos de iCloud. No hay impacto en ningún otro dato del dispositivo. Esta función no se aplica a los mensajes.
El resto del documento se divide en tres secciones (en negrita a continuación), con respuestas a las siguientes preguntas frecuentes:
- Seguridad de la comunicación en Mensajes
- ¿Quién puede utilizar la seguridad de las comunicaciones en Mensajes?
- ¿Significa esto que Messages compartirá información con Apple o con las fuerzas del orden?
- ¿Esto rompe el cifrado de un extremo a otro en los mensajes?
- ¿Esta característica evita que los niños en hogares abusivos busquen ayuda?
- ¿Se notificará a los padres sin advertir a los niños y sin que se les dé a elegir?
- Detección de CSAM
- ¿Significa esto que Apple escaneará todas las fotos almacenadas en mi iPhone?
- ¿Esto descargará imágenes CSAM a mi iPhone para compararlas con mis fotos?
- ¿Por qué Apple está haciendo esto ahora?
- Seguridad para la detección de CSAM para iCloud Photos
- ¿Se puede usar el sistema de detección de CSAM en iCloud Photos para detectar cosas que no sean CSAM?
- ¿Podrían los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a la lista hash?
- ¿Se pueden «inyectar» imágenes que no son CSAM en el sistema para marcar cuentas para cosas distintas a CSAM?
- ¿La detección de CSAM en iCloud Photos señalará falsamente a personas inocentes ante las fuerzas del orden?
Los lectores interesados deben consultar el documento para conocer las respuestas completas de Apple a estas preguntas. Sin embargo, vale la pena señalar que para aquellas preguntas que pueden responderse con un sí / no binario, Apple comienza todas con «No» con la excepción de las siguientes tres preguntas de la sección titulada «Seguridad para la detección de CSAM para iCloud Photos: «
¿Se puede usar el sistema de detección de CSAM en Fotos de iCloud para detectar cosas que no sean CSAM?
Nuestro proceso está diseñado para evitar que eso suceda. La detección de CSAM para iCloud Photos está diseñada para que el sistema solo funcione con hashes de imágenes CSAM proporcionados por NCMEC y otras organizaciones de seguridad infantil. Este conjunto de valores hash de imágenes se basa en imágenes adquiridas y validadas para ser CSAM por organizaciones de seguridad infantil. No hay informes automatizados para las fuerzas del orden y Apple realiza una revisión humana antes de presentar un informe al NCMEC. Como resultado, el sistema solo está diseñado para informar fotos que son CSAM conocidas en Fotos de iCloud. En la mayoría de los países, incluido Estados Unidos, el simple hecho de poseer estas imágenes es un delito y Apple está obligada a informar a las autoridades correspondientes de cualquier caso que sepamos.¿Podrían los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a la lista hash?
Apple rechazará tales demandas. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil. Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla. Además, Apple realiza una revisión humana antes de presentar un informe al NCMEC. En el caso de que el sistema marque fotos que no coincidan con imágenes CSAM conocidas, la cuenta no se deshabilitará y no se presentará ningún informe al NCMEC.¿Se pueden «inyectar» imágenes que no son CSAM en el sistema para marcar cuentas para cosas distintas a CSAM?
Nuestro proceso está diseñado para evitar que eso suceda. El conjunto de hashes de imágenes que se utilizan para la comparación son de imágenes conocidas y existentes de CSAM que han sido adquiridas y validadas por organizaciones de seguridad infantil. Apple no se suma al conjunto de hashes de imagen CSAM conocidos. El mismo conjunto de hashes se almacena en el sistema operativo de cada usuario de iPhone y iPad, por lo que los ataques dirigidos contra individuos específicos no son posibles bajo nuestro diseño. Por último, no hay informes automatizados para las fuerzas del orden y Apple realiza una revisión humana antes de presentar un informe al NCMEC. En el caso poco probable de que el sistema marque imágenes que no coincidan con las imágenes CSAM conocidas, la cuenta no se deshabilitaría y no se presentaría ningún informe al NCMEC.
Apple se ha enfrentado a importantes críticas de defensores de la privacidad, investigadores de seguridad, expertos en criptografía, académicos y otros por su decisión de implementar la tecnología con el lanzamiento de iOS 15 y iPadOS 15, que se espera para septiembre.
Esto ha resultado en una carta abierta criticando el plan de Apple de escanear iPhones en busca de CSAM en iCloud Photos e imágenes explícitas en los mensajes de los niños, que ha obtenido más de 5.500 firmas al momento de escribir. Apple también ha recibido críticas de WhatsApp, propiedad de Facebook, cuyo jefe Will Cathcart llámalo «El enfoque equivocado y un revés para la privacidad de las personas en todo el mundo». El CEO de Epic Games, Tim Sweeney, también atacado la decisión, alegando que él «se esforzó mucho» por ver el movimiento desde el punto de vista de Apple, pero había concluido que, «ineludiblemente, este es un software espía del gobierno instalado por Apple basado en una presunción de culpabilidad».
«No importa lo bien intencionado que sea, Apple está implementando vigilancia masiva en todo el mundo con esto», dijo el prominente denunciante Edward Snowden, y agregó que «si pueden escanear en busca de pornografía infantil hoy, podrán escanear cualquier cosa mañana». La Electronic Frontier Foundation, una organización sin fines de lucro, también criticó los planes de Apple, afirmando que «incluso una puerta trasera minuciosamente documentada, cuidadosamente pensada y de alcance limitado sigue siendo una puerta trasera».
GIPHY App Key not set. Please check settings