in

Herramienta de seguridad garantiza privacidad en imágenes de vigilancia

vigilancia

Crédito: Pixabay/CC0 Dominio público

Las cámaras de vigilancia tienen un problema de identidad, alimentado por una tensión inherente entre la utilidad y la privacidad. Como estos pequeños y poderosos dispositivos han aparecido aparentemente en todas partes, el uso de herramientas de aprendizaje automático ha automatizado el análisis de contenido de video a gran escala, pero con el aumento de la vigilancia masiva, actualmente no existen reglas legalmente aplicables para limitar las invasiones de privacidad.

Las cámaras de seguridad pueden hacer mucho: se han vuelto más inteligentes y supremamente más competentes que sus fantasmas de imágenes granuladas del pasado, la «herramienta de héroe» a menudo en los medios criminales. («Vea esa pequeña mancha azul borrosa en la esquina derecha de esa esquina densamente poblada, ¡lo tenemos!») Ahora, la videovigilancia puede ayudar a los funcionarios de salud a medir la fracción de personas que usan máscaras, permitir que los departamentos de transporte controlen la densidad y el flujo de vehículos, bicicletas y peatones, y brindar a las empresas una mejor comprensión de los comportamientos de compra. Pero, ¿por qué la privacidad sigue siendo una idea tardía débil?

El statu quo es actualizar el video con caras borrosas o cajas negras. Esto no solo evita que los analistas hagan algunas preguntas genuinas (p. ej., ¿las personas usan máscaras?), sino que tampoco siempre funciona; el sistema puede pasar por alto algunas caras y dejarlas nítidas para que el mundo las vea. Insatisfechos con este statu quo, los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT, en colaboración con otras instituciones, idearon un sistema para garantizar mejor la privacidad en las imágenes de video de las cámaras de vigilancia. Llamado «Privid», el sistema permite a los analistas enviar consultas de datos de video y agrega un poco de ruido (datos adicionales) al resultado final para garantizar que no se pueda identificar a una persona. El sistema se basa en una definición formal de privacidad, «privacidad diferencial», que permite el acceso a estadísticas agregadas sobre datos privados sin revelar información de identificación personal.

Por lo general, los analistas solo tendrían acceso a todo el video para hacer lo que quisieran con él, pero Privid se asegura de que el video no sea un buffet libre. Los analistas honestos pueden obtener acceso a la información que necesitan, pero ese acceso es lo suficientemente restrictivo como para que los analistas malintencionados no puedan hacer demasiado con él. Para habilitar esto, en lugar de ejecutar el código en todo el video de una sola vez, Privid divide el video en partes pequeñas y ejecuta el código de procesamiento en cada parte. En lugar de obtener resultados de cada pieza, los segmentos se agregan y se agrega ese ruido adicional. (También hay información sobre el límite de error que obtendrá en su resultado, tal vez un margen de error del 2 por ciento, dados los datos adicionales ruidosos agregados).

Por ejemplo, el código podría generar la cantidad de personas observadas en cada fragmento de video y la agregación podría ser la «suma» para contar la cantidad total de personas que se cubren la cara o el «promedio» para estimar la densidad de las multitudes.

Privid permite a los analistas usar sus propias redes neuronales profundas que son comunes para el análisis de video en la actualidad. Esto brinda a los analistas la flexibilidad de hacer preguntas que los diseñadores de Privid no anticiparon. En una variedad de videos y consultas, Privid tuvo una precisión del 79 al 99 por ciento de un sistema no privado.

«En este momento estamos en una etapa en la que las cámaras son prácticamente omnipresentes. Si hay una cámara en cada esquina de la calle, en cada lugar al que vas, y si alguien pudiera procesar todos esos videos en conjunto, puedes imaginar esa entidad construyendo una muy línea de tiempo precisa de cuándo y dónde ha ido una persona», dice MIT CSAIL Ph.D. estudiante Frank Cangialosi, autor principal de un artículo sobre Privid. «La gente ya está preocupada por la privacidad de la ubicación con GPS: los datos de video en conjunto podrían capturar no solo su historial de ubicaciones, sino también estados de ánimo, comportamientos y más en cada ubicación».

Privid introduce una nueva noción de «privacidad basada en la duración», que desvincula la definición de privacidad de su cumplimiento: con ofuscación, si su objetivo de privacidad es proteger a todas las personas, el mecanismo de cumplimiento debe trabajar para encontrar a las personas a las que proteger. , que puede o no hacerlo perfectamente. Con este mecanismo, no necesita especificar completamente todo y no está ocultando más información de la necesaria.

Digamos que tenemos un video con vistas a una calle. Dos analistas, Alice y Bob, afirman que quieren contar la cantidad de personas que pasan cada hora, por lo que envían un módulo de procesamiento de video y solicitan una suma total.

El primer analista es el departamento de planificación de la ciudad, que espera utilizar esta información para comprender los patrones de pisadas y planificar las aceras de la ciudad. Su modelo cuenta personas y genera este recuento para cada fragmento de video.

El otro analista es malicioso. Esperan identificarse cada vez que «Charlie» pasa frente a la cámara. Su modelo solo busca la cara de Charlie y genera un gran número si Charlie está presente (es decir, la «señal» que están tratando de extraer), o cero en caso contrario. Su esperanza es que la suma no sea cero si Charlie estuvo presente.

Desde la perspectiva de Privid, estas dos consultas parecen idénticas. Es difícil determinar de manera confiable qué podrían estar haciendo sus modelos internamente, o para qué espera el analista usar los datos. Aquí es donde entra el ruido. Privid ejecuta ambas consultas y agrega la misma cantidad de ruido para cada una. En el primer caso, debido a que Alice estaba contando a todas las personas, este ruido solo tendrá un pequeño impacto en el resultado, pero probablemente no afectará la utilidad.

En el segundo caso, dado que Bob estaba buscando una señal específica (Charlie solo fue visible durante algunos fragmentos), el ruido es suficiente para evitar que sepan si Charlie estaba allí o no. Si ven un resultado distinto de cero, podría deberse a que Charlie estaba realmente allí, o porque el modelo genera «cero», pero el ruido lo hizo distinto de cero. Privid no necesitaba saber nada sobre cuándo o dónde apareció Charlie, el sistema solo necesitaba saber un límite superior aproximado sobre cuánto tiempo podría aparecer Charlie, que es más fácil de especificar que averiguar las ubicaciones exactas, en las que se basan los métodos anteriores. .

El desafío es determinar cuánto ruido agregar: Privid quiere agregar solo lo suficiente para ocultar a todos, pero no tanto como para que sea inútil para los analistas. Agregar ruido a los datos e insistir en las consultas a lo largo de las ventanas de tiempo significa que su resultado no será tan preciso como podría ser, pero los resultados seguirán siendo útiles y brindarán una mejor privacidad.

Cangialosi escribió el artículo con Princeton Ph.D. estudiante Neil Agarwal, MIT CSAIL Ph.D. estudiante Venkat Arun, profesor asistente en la Universidad de Chicago Junchen Jiang, profesor asistente en la Universidad de Rutgers y ex postdoctorado de MIT CSAIL Srinivas Narayana, profesor asociado en la Universidad de Rutgers Anand Sarwate, y profesor asistente en la Universidad de Princeton y Ravi Netravali del MIT. Cangialosi presentará el documento en el Simposio USENIX sobre diseño e implementación de sistemas en red en abril en Renton, Washington.


Uso de dispositivos portátiles para entrenar nuevos sensores que preservan la privacidad


Más información:
Privid: Consultas prácticas de análisis de video que preservan la privacidad, arXiv:2106.12083 [cs.CR] doi.org/10.48550/arXiv.2106.12083

Proporcionado por el Instituto de Tecnología de Massachusetts


Esta historia se vuelve a publicar por cortesía de MIT News (web.mit.edu/newsoffice/), un sitio popular que cubre noticias sobre investigación, innovación y enseñanza del MIT.

Citación: La herramienta de seguridad garantiza la privacidad en las imágenes de vigilancia (28 de marzo de 2022) consultado el 28 de marzo de 2022 en https://techxplore.com/news/2022-03-tool-privacy-surveillance-footage.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Written by TecTop

Xiaomi presenta uno de sus teléfonos más baratos hasta ahora, conoce al Redmi 10A 4G

Harry Potter: Cosplayer rusa espera Hogwarts Legacy en cosplay de Hermione Granger