in

Apple confirma que la detección de material de abuso sexual infantil está deshabilitada cuando las fotos de iCloud están desactivadas

Apple anunció hoy que iOS 15 y iPadOS 15 verán la introducción de un nuevo método para detectar material de abuso sexual infantil (CSAM) en iPhones y iPads en los Estados Unidos.


Los dispositivos del usuario descargarán una base de datos ilegible de hashes de imágenes CSAM conocidas y harán una comparación en el dispositivo con las propias fotos del usuario, marcándolas como material CSAM conocido antes de que se carguen en Fotos de iCloud. Apple dice que este es un método muy preciso para detectar CSAM y proteger a los niños.

El escaneo de imágenes CSAM no es una característica opcional y ocurre automáticamente, pero Apple ha confirmado que MacRumors que no puede detectar imágenes CSAM conocidas si la función «Fotos de iCloud» está desactivada.

El método de Apple funciona identificando una foto CSAM conocida en el dispositivo y luego marcándola cuando se carga en ‌iCloud Photos‌ con un cupón adjunto. Después de que se haya cargado una cierta cantidad de cupones (también conocidos como fotos marcadas) en ‌iCloud Photos‌, Apple puede interpretar los cupones y realizar una revisión manual. Si se encuentra contenido de CSAM, la cuenta de usuario se deshabilita y se notifica al Centro Nacional para Menores Desaparecidos y Explotados.

Debido a que Apple está escaneando ‌iCloud Photos‌ en busca de las banderas CSAM, tiene sentido que la función no funcione con ‌iCloud Photos‌ deshabilitado. Apple también ha confirmado que no puede detectar imágenes CSAM conocidas en iCloud Backups si ‌iCloud Photos‌ está deshabilitado en el dispositivo de un usuario.

Vale la pena señalar que Apple está escaneando específicamente en busca de hashes de materiales conocidos de abuso sexual infantil y no está inspeccionando ampliamente la biblioteca de fotos de un usuario o escaneando imágenes personales que aún no están circulando entre aquellos que abusan de niños. Aún así, los usuarios que tengan preocupaciones de privacidad sobre los esfuerzos de Apple para escanear bibliotecas de fotos de usuarios pueden deshabilitar ‌iCloud Photos‌.

Los investigadores de seguridad han expresado su preocupación por la iniciativa CSAM de Apple y les preocupa que en el futuro pueda detectar otros tipos de contenido que podrían tener implicaciones políticas y de seguridad, pero por ahora, los esfuerzos de Apple son limitados en la búsqueda de abusadores de niños.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro Noticias políticas foro. Todos los miembros del foro y los visitantes del sitio pueden leer y seguir el hilo, pero la publicación está limitada a los miembros del foro con al menos 100 publicaciones.

Fuente

Deja una respuesta

GIPHY App Key not set. Please check settings

Proyecto Nomad, un lanzamiento de juego de Power Rangers de mundo abierto, mostrado

Proyecto Nomad, un lanzamiento de juego de Power Rangers de mundo abierto, mostrado

Gen Pct Lsr Inz Ev Gd D4

Genshin Impact: Lost Riches 2.0 – Guía de desafío del día 4