in

Nuestro uso casual de herramientas de análisis facial puede conducir a aplicaciones más siniestras.

Nuestro uso casual de herramientas de análisis facial puede conducir a aplicaciones más siniestras.

Nuestro uso casual de herramientas de análisis facial puede conducir a aplicaciones más siniestras.

Las tecnologías de escaneo facial son más cotidianas de lo que pensamos. Crédito: Shutterstock

El 14 de diciembre, los gobiernos de Columbia Británica, Alberta y Québec ordenaron a la empresa de reconocimiento facial Clearview AI que dejar de recopilar (y eliminar) imágenes de personas obtenidas sin su consentimiento. Las discusiones sobre los riesgos de los sistemas de reconocimiento facial que se basan en tecnologías automatizadas de análisis facial tienden a centrarse en las corporaciones, los gobiernos nacionales y las fuerzas del orden. Pero lo que es motivo de gran preocupación son las formas en que el reconocimiento y el análisis facial se han integrado en nuestra vida cotidiana.

Amazon, Microsoft e IBM tienen dejó de suministrar sistemas de reconocimiento facial a los departamentos de policía después los estudios mostraron sesgo algorítmico desproporcionadamente identificando erróneamente gente de color, particularmente gente negra.

Facebook y Clearview AI se han ocupado pleitos y asentamientos para crear bases de datos de miles de millones de plantillas de rostros sin el consentimiento de las personas.

En el Reino Unido, la policía se enfrenta a escrutinio por el uso de reconocimiento facial en tiempo real en espacios públicos. El gobierno chino rastrea su población minoritaria uigur a través de tecnologías de escaneo facial.

Y, sin embargo, para comprender el alcance y las consecuencias de estos sistemas, también debemos prestar atención a las prácticas casuales de los usuarios cotidianos que aplican escaneos y análisis faciales de manera rutinaria que contribuyen a la erosión de la privacidad y aumentan la discriminación social y el racismo.

Como investigador de prácticas visuales de medios móviles y ellos vínculos históricos con la desigualdad social, Con regularidad exploro cómo las acciones de los usuarios pueden construir o cambiar normas en torno a cuestiones como la privacidad y la identidad. En este sentido, la adopción y el uso de sistemas y productos de análisis facial en nuestra vida cotidiana pueden estar llegando a un punto de inflexión peligroso.

Exploraciones faciales diarias

Fuente abierta algoritmos que detectan rasgos faciales Haga que el análisis o el reconocimiento facial sea un complemento fácil para los desarrolladores de aplicaciones. Ya usamos el reconocimiento facial para desbloquear nuestros teléfonos o pagar por bienes. Las cámaras de video incorporadas en los hogares inteligentes utilizan el reconocimiento facial para identificar a los visitantes, así como para personalizar las pantallas y los recordatorios de audio. La función de enfoque automático en las cámaras de los teléfonos móviles incluye detección y seguimiento de rostros, mientras que el almacenamiento de fotos en la nube genera álbumes y presentaciones de diapositivas temáticas al hacer coincidir y agrupar los rostros que reconoce en las imágenes que hacemos.

Muchas aplicaciones utilizan el análisis facial, incluidos filtros de redes sociales y accesorios que producen efectos como envejecimiento artificial y animación de rasgos faciales. Las aplicaciones de auto-mejoramiento y pronóstico para la detección de belleza, horóscopos o etnia también generan consejos y conclusiones basadas en escaneos faciales.

Pero el uso de sistemas de análisis de rostros para horóscopos, selfies o identificar quién está en nuestros escalones puede tener consecuencias sociales a largo plazo: pueden facilitar la vigilancia a gran escala y seguimiento, mientras sostener la desigualdad social sistémica.

Riesgos ocasionales

Cuando se repiten a lo largo del tiempo, estos usos de bajo riesgo y recompensas rápidas pueden inducirnos a enfrentar el escaneo de manera más general, abriendo la puerta a sistemas más expansivos en diferentes contextos. No tenemos control sobre quién ejecuta esos sistemas y cómo se utilizan los datos, y tenemos poca información sobre él.

Si ya sometemos nuestros rostros a un escrutinio automatizado, no solo con nuestro consentimiento sino también con nuestra participación activa, entonces ser sometidos a exploraciones y análisis similares a medida que nos movemos por los espacios públicos o accedemos a los servicios puede no parecer particularmente intrusivo.






Una investigación de PBS sobre los problemas de sesgo y privacidad del reconocimiento facial.

Además, nuestro uso personal de las tecnologías de análisis facial contribuye directamente al desarrollo e implementación de sistemas más grandes destinados a rastrear poblaciones, clasificar clientes o desarrollar grupos de sospechosos para investigaciones. Las empresas pueden recopilar y compartir datos que conectan nuestras imágenes con nuestras identidades, o para conjuntos de datos más grandes utilizados para entrenar sistemas de inteligencia artificial para el reconocimiento facial o de emociones.

Incluso si la plataforma que usamos restringe dichos usos, es posible que los productos de los socios no cumplan con las mismas restricciones. El desarrollo de nuevas bases de datos de individuos privados puede ser lucrativo, especialmente cuando estas pueden comprender múltiples imágenes faciales de cada usuario o pueden asociar imágenes con información de identificación, como nombres de cuentas.

Perfiles digitales pseudocientíficos

Pero quizás lo más preocupante es que nuestra creciente aceptación de las tecnologías de análisis facial influye en la forma en que no solo determinan la identidad de un individuo, sino también su origen, carácter y valor social.

Muchas aplicaciones predictivas y de diagnóstico que escanean nuestros rostros para determinar nuestro origen étnico, belleza, bienestar, emociones e incluso nuestro potencial de ingresos se basan en las inquietantes pseudociencias históricas de frenología, fisonomía y eugenesia.

Estos sistemas interrelacionados dependía en diversos grados del análisis facial para justificar las jerarquías raciales, la colonización, la esclavitud, la esterilización forzada y el encarcelamiento preventivo.

Nuestro uso de tecnologías de análisis facial puede perpetuar estas creencias y prejuicios, lo que implica que tienen un lugar legítimo en la sociedad. Esta complicidad puede entonces justificar sistemas de análisis facial automatizados similares para usos tales como selección de solicitantes de empleo o determinando la criminalidad.

Construyendo mejores hábitos

Regular cómo los sistemas de reconocimiento facial recopilan, interpretan y distribuyen datos biométricos no ha seguido el ritmo de nuestro uso diario de escaneo y análisis facial. Ha habido algunos avances políticos en Europa y partes de los Estados Unidos, pero se necesita una mayor regulación.

Además, debemos confrontar nuestros propios hábitos y suposiciones. ¿Cómo podríamos ponernos a nosotros mismos y a los demás, especialmente a las poblaciones marginadas, en riesgo al hacer que este escrutinio basado en máquinas sea algo común?

Unos pocos ajustes simples pueden ayudarnos a abordar la asimilación progresiva de los sistemas de análisis facial en nuestra vida cotidiana. Un buen comienzo es cambiar la configuración de la aplicación y el dispositivo para minimizar el escaneo y el uso compartido. Antes de descargar aplicaciones, investiguelas y leer las condiciones de uso.

Resista la emoción efímera de la última moda de los efectos faciales en las redes sociales: ¿realmente necesitamos saber cómo nos veríamos como personajes de Pixar? Reconsidere los dispositivos inteligentes equipados con tecnologías de reconocimiento facial. Tenga en cuenta los derechos de aquellos cuya imagen podría capturarse en un dispositivo doméstico inteligente; siempre debe obtener el consentimiento explícito de cualquier persona que pase frente a la lente.

Estos pequeños cambios, si se multiplican entre usuarios, productos y plataformas, pueden proteger nuestros datos y ganar tiempo para una mayor reflexión sobre los riesgos, los beneficios y la implementación justa de las tecnologías de reconocimiento facial.


Reconocimiento facial en las escuelas: estos son los riesgos para los niños


Proporcionado por The Conversation


Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.La conversación

Citación: Nuestro uso casual de herramientas de análisis facial puede conducir a aplicaciones más siniestras (2021, 20 de diciembre) recuperado el 24 de diciembre de 2021 de https://techxplore.com/news/2021-12-casual-facial-analysis-tools-sinister.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con el propósito de estudio o investigación privada, ninguna parte puede ser reproducida sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Written by TecTop

DepEd y Microsoft redoblan sus esfuerzos para cerrar la brecha de aprendizaje

Satya Nadella en LinkedIn: DepEd y Microsoft redoblan sus esfuerzos para cerrar la brecha de aprendizaje

Investigadores de SUTD desarrollaron kits de bomba peristáltica impresos en 3D para microfluidos

Los investigadores desarrollaron kits de bomba peristáltica impresos en 3D para microfluidos