in

Apple Abandona Controvertidos Planes para Detectar CSAM Conocido en Fotos de iCloud

Además de hacer que el cifrado de extremo a extremo esté disponible para iCloud Photos, Apple anunció hoy que ha abandonado sus controvertidos planes para detectar material conocido de abuso sexual infantil (CSAM) almacenado en iCloud Photos, según un comunicado. compartido con CON CABLE.


Declaración completa de Apple:

Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la función Seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021. Además, hemos decidido no seguir adelante con nuestra detección de MASI propuesta anteriormente. herramienta para Fotos de iCloud. Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para todos nosotros. .

En agosto de 2021, Apple anunció planes para tres nuevas funciones de seguridad infantil, incluido un sistema para detectar imágenes conocidas de CSAM almacenadas en iCloud Photos, una opción de Communication Safety que difumina fotos sexualmente explícitas en la aplicación Messages y recursos de explotación infantil para Siri. Communication Safety se lanzó en los EE. UU. con iOS 15.2 en diciembre de 2021 y desde entonces se ha expandido al Reino Unido, Canadá, Australia y Nueva Zelanda, y los recursos de Siri también están disponibles, pero la detección de CSAM nunca terminó de lanzarse.

Apple inicialmente dijo que la detección de CSAM se implementaría en una actualización de iOS 15 y iPadOS 15 para fines de 2021, pero la compañía finalmente pospuso la función en función de «los comentarios de los clientes, grupos de defensa, investigadores y otros». Ahora, después de un año de silencio, Apple ha abandonado por completo los planes de detección de CSAM.

Apple prometió que su sistema de detección de CSAM fue «diseñado teniendo en cuenta la privacidad del usuario». El sistema habría realizado una «coincidencia en el dispositivo utilizando una base de datos de hash de imágenes CSAM conocidas» de organizaciones de seguridad infantil, que Apple transformaría en un «conjunto de hash ilegible que se almacena de forma segura en los dispositivos de los usuarios».

Apple planeó informar las cuentas de iCloud con hash de imágenes CSAM conocidas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización sin fines de lucro que trabaja en colaboración con las agencias de aplicación de la ley de EE. UU. Apple dijo que habría un «umbral» que garantizaría «menos de una posibilidad en un billón por año» de que el sistema marque incorrectamente una cuenta, además de una revisión manual de las cuentas marcadas por un ser humano.

Los planes de Apple fueron criticados por una amplia gama de personas y organizaciones, incluidos investigadores de seguridad, la Electronic Frontier Foundation (EFF), políticos, grupos políticos, investigadores universitarios e incluso algunos empleados de Apple.

Algunos críticos argumentaron que la función habría creado una «puerta trasera» en los dispositivos, que los gobiernos o las fuerzas del orden podrían usar para vigilar a los usuarios. Otra preocupación eran los falsos positivos, incluida la posibilidad de que alguien agregara intencionalmente imágenes CSAM a la cuenta de iCloud de otra persona para marcar su cuenta.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro Noticias políticas foro. Todos los miembros del foro y los visitantes del sitio pueden leer y seguir el hilo, pero la publicación está limitada a los miembros del foro con al menos 100 publicaciones.

Fuente

Written by Editor Top

Overwatch 2 vuelve a presentar problemas de rangos en las clasificaciones

Overwatch 2 vuelve a presentar problemas de rangos en las clasificaciones

Ixion, un nuevo simulador de estrategia, obtiene un gran descuento el día del lanzamiento

Ixion, un nuevo simulador de estrategia, obtiene un gran descuento el día del lanzamiento