in

Empleados de Apple plantean inquietudes internamente sobre los planes de detección de CSAM

Apple park drone junio de 2018 2

Los empleados de Apple ahora se están uniendo al coro de personas que expresan su preocupación por los planes de Apple de escanear las bibliotecas de fotos de los usuarios de iPhone en busca de CSAM o material de abuso sexual infantil, al parecer hablando internamente sobre cómo la tecnología podría usarse para escanear las fotos de los usuarios en busca de otros tipos de contenido. , según un informe de Reuters.

Apple park drone junio de 2018 2
De acuerdo a Reuters, un número no especificado de empleados de Apple ha recurrido a los canales internos de Slack para plantear preocupaciones sobre la detección de CSAM. Específicamente, a los empleados les preocupa que los gobiernos puedan obligar a Apple a usar la tecnología para la censura al encontrar contenido que no sea CSAM. A algunos empleados les preocupa que Apple esté dañando su reputación de privacidad líder en la industria.

Los empleados de Apple inundaron un canal interno de Slack de Apple con más de 800 mensajes sobre el plan anunciado hace una semana, dijeron a Reuters trabajadores que pidieron no ser identificados. Muchos expresaron su preocupación de que la función pueda ser explotada por gobiernos represivos que buscan encontrar otro material para censura o arrestos, según trabajadores que vieron el hilo de días.

Los cambios de seguridad pasados ​​en Apple también han generado preocupación entre los empleados, pero el volumen y la duración del nuevo debate es sorprendente, dijeron los trabajadores. A algunos carteles les preocupaba que Apple esté dañando su reputación líder en la protección de la privacidad.

No se cree que los empleados de Apple en roles relacionados con la seguridad del usuario hayan sido parte de la protesta interna, según el informe.

Desde su anuncio la semana pasada, Apple ha sido bombardeada con críticas por sus planes de detección de CSAM, que aún se espera que se implementen con iOS 15 y iPadOS 15 este otoño. Las preocupaciones giran principalmente en torno a cómo la tecnología podría presentar una pendiente resbaladiza para futuras implementaciones por parte de gobiernos y regímenes opresivos.

Apple ha rechazado firmemente la idea de que la tecnología en el dispositivo utilizada para detectar material CSAM podría usarse para cualquier otro propósito. En un documento de preguntas frecuentes publicado, la compañía dice que rechazará con vehemencia cualquier demanda de este tipo por parte de los gobiernos.

¿Podrían los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a la lista hash?
Apple rechazará tales demandas. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil. Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla. Además, Apple realiza una revisión humana antes de presentar un informe al NCMEC. En el caso de que el sistema marque fotos que no coincidan con imágenes CSAM conocidas, la cuenta no se deshabilitará y no se presentará ningún informe al NCMEC.

Un carta abierta criticar a Apple y pedir a la compañía que detenga de inmediato su plan de implementar la detección de CSAM ha obtenido más de 7.000 firmas al momento de escribir este artículo. El responsable de WhatsApp también ha pesado en el debate.



Fuente

Deja una respuesta

GIPHY App Key not set. Please check settings

Pokémon Unite: Cuáles son los mejores artículos de Wigglytuff

Pokémon Unite: Cuáles son los mejores artículos de Wigglytuff

Se revelan los detalles del evento del 4to aniversario de Free Fire antes de las celebraciones