in

Deepfakes exponen vulnerabilidades en ciertas tecnologías de reconocimiento facial

Reconocimiento facial

Crédito: Pixabay/CC0 Dominio público

Los dispositivos móviles utilizan tecnología de reconocimiento facial para ayudar a los usuarios a desbloquear sus teléfonos de forma rápida y segura, realizar una transacción financiera o acceder a registros médicos. Pero las tecnologías de reconocimiento facial que emplean un método específico de detección de usuarios son muy vulnerables a los ataques basados ​​en deepfakes que podrían generar importantes problemas de seguridad para los usuarios y las aplicaciones, según una nueva investigación en la que participó la Facultad de Ciencias y Tecnología de la Información de Penn State.

Los investigadores descubrieron que la mayoría de las interfaces de programación de aplicaciones que usan verificación de vida facial, una característica de la tecnología de reconocimiento facial que usa la visión artificial para confirmar la presencia de un usuario en vivo, no siempre detectan fotos o videos alterados digitalmente de personas que parecen un versión en vivo de otra persona, también conocida como deepfakes. Las aplicaciones que usan estas medidas de detección también son significativamente menos efectivas para identificar falsificaciones profundas de lo que afirma el proveedor de la aplicación.

“En los últimos años, hemos observado un desarrollo significativo de las tecnologías de verificación y autenticación facial, que se han implementado en muchas aplicaciones críticas para la seguridad”, dijo Ting Wang, profesor asociado de ciencias y tecnología de la información y uno de los principales investigadores del proyecto. “Mientras tanto, también hemos visto avances sustanciales en las tecnologías de falsificación profunda, lo que hace que sea bastante fácil sintetizar imágenes y videos faciales de aspecto vivo a un bajo costo. Por lo tanto, hacemos la pregunta interesante: ¿es posible que los atacantes maliciosos hagan un mal uso de las falsificaciones profundas para engañar a los faciales? sistemas de verificación?”

La investigación, que fue presentada esta semana en la Simposio de seguridad USENIXes el primer estudio sistémico sobre la seguridad de la verificación de la vida facial en entornos del mundo real.

Wang y sus colaboradores desarrollaron un nuevo marco de ataque impulsado por deepfake, llamado LiveBugger, que permite una evaluación de seguridad automatizada y personalizable de la verificación de vida facial. Evaluaron seis interfaces de programación de aplicaciones de verificación de vida facial comerciales líderes proporcionadas. Según los investigadores, cualquier vulnerabilidad en estos productos podría ser heredada por otras aplicaciones que los usan, lo que podría amenazar a millones de usuarios.

Usando imágenes y videos falsos protegidos a partir de dos conjuntos de datos separados, LiveBugger intentó engañar a los métodos de verificación de vida facial de las aplicaciones, cuyo objetivo es verificar la identidad de un usuario analizando imágenes estáticas o de video de su rostro, escuchando su voz o midiendo su respuesta. para realizar una acción bajo comando.

Los investigadores descubrieron que los cuatro métodos de verificación más comunes se podían omitir fácilmente. Además de resaltar cómo su marco eludió estos métodos, proponen sugerencias para mejorar la seguridad de la tecnología, incluida la eliminación de los métodos de verificación que solo analizan una imagen estática de la cara de un usuario y la combinación de movimientos de labios con la voz de un usuario en métodos que analizan tanto el audio como el audio. vídeo de un usuario.

“Aunque la verificación de la vida facial puede defenderse de muchos ataques, el desarrollo de tecnologías deepfake plantea una nueva amenaza, de la que hasta ahora se sabe poco”, dijo Changjiang Li, estudiante de doctorado en ciencias y tecnología de la información y coautor principal del estudio. papel. “Nuestros hallazgos son útiles para que los proveedores solucionen las vulnerabilidades de sus sistemas”.

Los investigadores informaron sus hallazgos a los proveedores cuyas aplicaciones se utilizaron en el estudio, y uno de ellos anunció sus planes para llevar a cabo un proyecto de detección de falsificación profunda para abordar la amenaza emergente.

“La verificación de vida facial se ha aplicado en muchos escenarios críticos, como pagos en línea, banca en línea y servicios gubernamentales”, dijo Wang. “Además, un número cada vez mayor de plataformas en la nube ha comenzado a proporcionar verificación de vida facial como plataforma como servicio, lo que reduce significativamente el costo y reduce la barrera para que las empresas implementen la tecnología en sus productos. Por lo tanto, la seguridad de facial La verificación de vida es muy preocupante”.


Nuevo método detecta videos falsos con hasta un 99% de precisión


Proporcionado por la Universidad Estatal de Pensilvania


Citación: Deepfakes expone vulnerabilidades en cierta tecnología de reconocimiento facial (2022, 12 de agosto) recuperado el 12 de agosto de 2022 de https://techxplore.com/news/2022-08-deepfakes-expose-vulnerabilities-facial-recognition.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Use Windows Admin Center para administrar Azure Stack HCI como cualquier otro servidor de Windows

Campus de dos puntos: cómo rotar elementos