Recientemente, un banco de Hong Kong fue víctima de una estafa de suplantación de identidad en la que un empleado del banco fue engañado para que transfiriera 25,6 millones de dólares a ladrones después de una videollamada con el director financiero del banco y otros colegas. Pero ninguno de ellos era gente real: todos eran deepfakes creados con la ayuda de inteligencia artificial.
Este incidente ilustra cómo los ciberdelincuentes pueden utilizar deepfakes para engañar a los humanos y cometer fraude. También plantea preocupaciones sobre las amenazas que representan los deepfakes para los sistemas de autenticación biométrica.
El uso de marcadores biométricos para autenticar identidades y acceder a sistemas digitales se ha disparado en la última década y se espera que crezca más de un 20% anual hasta 2030. Sin embargo, como todo avance en ciberseguridad, los malos no se quedan atrás.
Cualquier cosa que se pueda muestrear digitalmente se puede falsificar: una imagen, un video, un audio o incluso texto para imitar el estilo y la sintaxis del remitente. Equipado con media docena de herramientas ampliamente disponibles y un conjunto de datos de entrenamiento como videos de YouTube, incluso un aficionado puede producir deepfakes convincentes.
Los ataques deepfake a la autenticación se presentan en dos variedades, conocidos como ataques de presentación y de inyección.
Los ataques de presentación implican presentar una imagen, renderizado o video falso a una cámara o sensor para su autenticación. Algunos ejemplos incluyen:
Ataques de impresión
- imagen 2D
- Máscara de papel 2D con ojos recortados
- Foto mostrada en un teléfono inteligente
- máscara en capas 3D
- Repetición de ataque de un vídeo capturado del usuario legítimo
Ataques falsos
- intercambio de caras
- Sincronización de los labios
- Clonación de voz
- Transferencia de gestos/expresiones
- Texto a voz
Los ataques de inyección implican la manipulación del flujo de datos o canal de comunicación entre la cámara o el escáner y el sistema de autenticación, similar a los conocidos ataques de intermediario (MITM).
Al utilizar software automatizado destinado a probar aplicaciones, un ciberdelincuente con acceso a un dispositivo abierto puede inyectar una huella digital o una identificación facial en el proceso de autenticación, eludiendo las medidas de seguridad y obteniendo acceso no autorizado a servicios en línea. Ejemplos incluyen:
- Subir medios sintéticos
- Transmisión de medios a través de un dispositivo virtual (por ejemplo, cámaras)
- Manipular datos entre un navegador web y un servidor (es decir, el hombre en el medio)
Defenderse de los deepfakes
Varias contramedidas ofrecen protección contra estos ataques, a menudo centradas en establecer si el marcador biométrico proviene de una persona real.
Las técnicas de prueba de vida incluyen analizar movimientos faciales o verificar información de profundidad 3D para confirmar una coincidencia facial, examinar el movimiento y la textura del iris (óptico), detectar impulsos electrónicos (capacitivo) y verificar una huella digital debajo de la superficie de la piel (ultrasónica).
Este enfoque es la primera línea de defensa contra la mayoría de los tipos de deepfakes, pero puede afectar la experiencia del usuario, ya que requiere su participación. Hay dos tipos de controles de vida:
- Protección pasiva se ejecuta en segundo plano sin requerir la entrada de los usuarios para verificar su identidad. Puede que no cree fricción, pero ofrece menos protección.
- Métodos activosque requieren que los usuarios realicen una acción en tiempo real, como sonreír o hablar para dar fe de que el usuario está en vivo, ofrecen más seguridad al tiempo que modifican la experiencia del usuario.
En respuesta a estas nuevas amenazas, las organizaciones deben priorizar qué activos requieren el mayor nivel de seguridad involucrado en las pruebas de vida activa y cuándo no es necesario. Muchas normas regulatorias y de cumplimiento requieren hoy en día la detección de vida, y muchas más podrían hacerlo en el futuro, a medida que salgan a la luz más incidentes como el fraude bancario de Hong Kong.
Mejores prácticas contra los deepfakes
Es necesario un enfoque de múltiples capas para combatir eficazmente los deepfakes, incorporando controles de vida tanto activos como pasivos. La vida activa requiere que el usuario realice expresiones aleatorias, mientras que la vida pasiva opera sin la participación directa del usuario, lo que garantiza una verificación sólida.
Además, se necesita una funcionalidad de cámara de profundidad real para evitar ataques de presentación y proteger contra la manipulación del dispositivo utilizado en ataques de inyección. Finalmente, las organizaciones deberían considerar las siguientes mejores prácticas para protegerse contra los deepfakes:
-
Algoritmos anti-suplantación de identidad: Los algoritmos que detectan y diferencian entre datos biométricos genuinos y datos falsificados pueden detectar falsificaciones y autenticar la identidad. Pueden analizar factores como textura, temperatura, color, movimiento e inyecciones de datos para determinar la autenticidad de un marcador biométrico. Por ejemplo, FakeCatcher de Intel busca cambios sutiles en los píxeles de un video que muestran cambios en el flujo sanguíneo a la cara para determinar si un video es real o falso.
- Cifrado de datos: Asegúrese de que los datos biométricos estén cifrados durante la transmisión y el almacenamiento para evitar el acceso no autorizado. Los controles de acceso estrictos y los protocolos de cifrado pueden evitar inyecciones de protocolos e intermediarios que podrían comprometer la validez de una identidad.
- Autenticación adaptativa: Utilice señales adicionales para verificar la identidad del usuario en función de factores como redes, dispositivos, aplicaciones y contexto para presentar adecuadamente métodos de autenticación o reautenticación según el nivel de riesgo de una solicitud o transacción.
-
Defensa multicapa: Depender de análisis estáticos o de secuencias de videos/fotos para verificar la identidad de un usuario puede resultar en que los malos actores eludan los mecanismos de defensa actuales. Al aumentar las transacciones de alto riesgo (por ejemplo, transferencias bancarias en efectivo) con una credencial verificada y firmada digitalmente, las operaciones sensibles pueden protegerse con una identidad digital reutilizable. Con este enfoque, las videollamadas podrían complementarse con una marca de verificación verde que diga: «Esta persona ha sido verificada de forma independiente».
Fortalecimiento de los sistemas de gestión de identidad
Es importante recordar que simplemente reemplazar las contraseñas con autenticación biométrica no es una defensa infalible contra los ataques de identidad a menos que sea parte de una estrategia integral de gestión de acceso e identidad que aborde el riesgo transaccional, la prevención del fraude y los ataques de suplantación de identidad.
Para contrarrestar eficazmente las sofisticadas amenazas que plantean las tecnologías deepfake, las organizaciones deben mejorar sus sistemas de gestión de identidad y acceso con los últimos avances en tecnologías de detección y cifrado. Este enfoque proactivo no solo reforzará la seguridad de los sistemas biométricos sino que también mejorará la resiliencia general de las infraestructuras digitales frente a las ciberamenazas emergentes.
Dar prioridad a estas estrategias será esencial para proteger contra el robo de identidad y garantizar la confiabilidad a largo plazo de la autenticación biométrica.
GIPHY App Key not set. Please check settings