in

Los deepfakes en tiempo real son una nueva y peligrosa amenaza. Cómo protegerse

falso profundo

falso profundo

Crédito: Unsplash/CC0 Dominio público

Probablemente haya visto videos falsos profundos en Internet que inyectan facsímiles de personas famosas en situaciones extrañas o divertidas, por ejemplo, un Tom Cruise falso haciendo «limpieza industrial» o en un verdadero metaesfuerzo, un Morgan Freeman artificial promocionando «la era». de la realidad sintética».

Ahora imagine recibir una llamada telefónica de alguien que suena exactamente como su hijo, suplicando ayuda de emergencia. La misma tecnología, pero nadie se ríe.

Los expertos en seguridad cibernética dicen que la tecnología deepfake ha avanzado hasta el punto en que se puede usar en tiempo real, lo que permite a los estafadores replicar la voz, la imagen y los movimientos de alguien en una llamada o reunión virtual. La tecnología también está ampliamente disponible y es relativamente fácil de usar, dicen. Y está mejorando todo el tiempo.

«Gracias a las herramientas de inteligencia artificial que crean ‘medios sintéticos’ o generan contenido, un porcentaje creciente de lo que estamos viendo no es auténtico y cada vez es más difícil notar la diferencia», advirtió la Comisión Federal de Comercio.

Los investigadores dicen que la tecnología para los deepfakes en tiempo real ha existido durante la mayor parte de una década. Lo nuevo es la gama de herramientas disponibles para hacerlos.

«Sabemos que no estamos preparados como sociedad» para esta amenaza, dijo Andrew Gardner, vicepresidente de investigación, innovación e IA de Gen. En particular, dijo, no hay adónde ir si se enfrenta a un posible deepfake. estafa y necesita ayuda inmediata para verificarla.

Los deepfakes en tiempo real se han utilizado para asustar a los abuelos para que envíen dinero a parientes simulados, obtener trabajos en empresas de tecnología en un intento por obtener información privilegiada, influir en los votantes y desviar dinero de hombres y mujeres solitarios. Los estafadores pueden copiar una grabación de la voz de alguien que se haya publicado en línea y luego usar el audio capturado para hacerse pasar por el ser querido de la víctima; un hombre de 23 años está acusado de estafar a sus abuelos en Terranova por $200,000 en solo tres días usando esta técnica.

También están surgiendo herramientas para eliminar esta última generación de falsificaciones profundas, pero no siempre son efectivas y es posible que usted no pueda acceder a ellas. Es por eso que los expertos recomiendan tomar algunos pasos simples para protegerse a usted y a sus seres queridos del nuevo tipo de estafa.

El término deepfake es la abreviatura de una simulación impulsada por tecnología de aprendizaje profundo: inteligencia artificial que ingiere océanos de datos para tratar de replicar algo humano, como tener una conversación (por ejemplo, ChatGPT) o crear una ilustración (por ejemplo, Dall-E). Gardner dijo que desarrollar estas herramientas sigue siendo una propuesta costosa y que requiere mucho tiempo, pero usarlas es comparativamente rápido y fácil.

Yisroel Mirsky, investigador de inteligencia artificial y experto en falsificación profunda de la Universidad Ben-Gurion del Negev, dijo que la tecnología ha avanzado hasta el punto en que es posible hacer un video falso a partir de una sola foto de una persona y un clon «decente» de un voz de sólo tres o cuatro segundos de audio. Pero Gardner dijo que las herramientas ampliamente disponibles para hacer deepfakes van a la zaga del estado del arte; requieren alrededor de cinco minutos de audio y de una a dos horas de video.

Independientemente, gracias a sitios como Facebook, Instagram y YouTube, hay muchas imágenes y audio para que los estafadores los encuentren.

Mirsky dijo que es fácil imaginar a un atacante buscando en Facebook para identificar a los hijos de un objetivo potencial, llamando al hijo para grabar suficiente audio para clonar su voz, y luego usando un deepfake del hijo para pedirle dinero al objetivo para salir de un aprieto. algún tipo.

La tecnología se está volviendo tan eficiente, dijo, que se puede clonar una cara o una voz con una computadora básica para juegos. Y el software es «realmente apuntar y hacer clic», dijo, fácilmente disponible en línea y configurable con alguna programación básica.

Para ilustrar cuán efectivos pueden ser los deepfakes en tiempo real, el grupo gubernamental LexisNexis Risk Solutions compartió un video que David Maimon, profesor de criminología en la Universidad Estatal de Georgia, tomó de la web oscura de una aparente estafa de catfishing en curso. Mostraba una conversación en línea entre un hombre mayor y una mujer joven que estaba pidiendo un préstamo para poder conocer al hombre en Canadá. Pero en una tercera ventana, se podía ver que un hombre en realidad estaba diciendo las palabras que salían de la boca de la mujer con voz de mujer: ella era una falsificación y él un estafador.

Esta técnica se conoce como recreación, dijeron Mirsky y Wenke Lee, del Instituto de Tecnología de Georgia, en un artículo publicado en 2020. También se puede usar para «realizar actos de difamación, provocar desacreditación, difundir información errónea y manipular pruebas», escribieron. . Otro enfoque es el reemplazo, donde la cara o el cuerpo del objetivo se coloca sobre otra persona, como en los videos pornográficos de venganza.

Pero cómo, exactamente, los estafadores están usando las herramientas sigue siendo un misterio, dijo Gardner. Eso es porque solo sabemos lo que han sido atrapados haciendo.

Haywood Talcove, director ejecutivo de Government Group de LexisNexis Risk Solutions, dijo que la nueva tecnología puede eludir algunas de las técnicas de seguridad que las empresas han estado implementando en lugar de las contraseñas. Por ejemplo, señaló el proceso de identificación en línea de dos pasos de California, en el que los usuarios cargan dos cosas: una foto de su licencia de conducir o tarjeta de identificación y luego una selfie recién tomada. Los estafadores pueden comprar una identificación de California falsa en línea por unos pocos dólares y luego usar un software falso para generar una cara que coincida con la selfie. «Es un cuchillo caliente a través de la mantequilla», dijo.

De manera similar, Talcove dijo que las empresas financieras deben dejar de usar herramientas de identificación de voz para desbloquear cuentas. «Estaría nervioso si [at] mi banco, mi voz era mi contraseña «, dijo. «Solo usando la voz, ya no funciona». Lo mismo ocurre con el reconocimiento facial, dijo, y agregó que la tecnología estaba al final de su vida útil como una forma de controlar el acceso.

Cybercrime Support Network, una organización sin fines de lucro que ayuda a las personas y empresas víctimas en línea, a menudo trabaja con objetivos de estafas románticas e insta a las personas a hacer videollamadas con sus pretendientes para tratar de eliminar a los estafadores. Ally Armeson, directora de programas de la red, dijo que hace solo dos o tres años, podían decirles a los clientes que buscaran fallas fáciles de detectar, como imágenes congeladas. Pero en las últimas semanas, dijo, la red ha sido contactada por víctimas de estafas que dijeron que habían tenido una videollamada de 10 o 20 minutos con su supuesto pretendiente, «y absolutamente era la persona que me enviaron en la foto». »

Agregó: «Las víctimas dijeron: ‘La cabeza se veía un poco extraña en el cuerpo, por lo que se veía un poco fuera de lugar'». Pero no es inusual que las personas ignoren las señales de alerta, dijo. «Quieren creer que el video es real, por lo que pasarán por alto discrepancias menores».

(Las víctimas de estafas románticas en los Estados Unidos reportaron $1.3 mil millones en pérdidas el año pasado).

Las falsificaciones profundas en tiempo real también representan una nueva y peligrosa amenaza para las empresas. Muchas empresas están capacitando a los empleados para que reconozcan los ataques de phishing de extraños, dijo Mirsky, pero nadie se está preparando realmente para las llamadas de deepfakes con la voz clonada de un colega o un jefe.

«La gente confundirá la familiaridad con la autenticidad», dijo. «Y como resultado, la gente va a caer en estos ataques».

Cómo protegerse

Talcove ofreció una forma simple y difícil de superar para protegerse contra las falsificaciones profundas que se hacen pasar por un miembro de la familia: tener una palabra clave secreta que todos los miembros de la familia conozcan, pero que los delincuentes no adivinen. Si llama alguien que dice ser su hija, nieto o sobrino, dijo Talcove, pedir la palabra clave puede separar a los verdaderos seres queridos de los falsos.

«Cada familia ahora necesita una palabra clave», dijo.

Elija algo simple y fácil de recordar que no necesite escribirse (y que no se publique en Facebook o Instagram), dijo, y luego guárdelo en la memoria de su familia. «Debe asegurarse de que sepan y practiquen, practiquen, practiquen», dijo Talcove.

Gardner también abogó por las palabras clave. «Creo que la preparación ayuda mucho» en la defensa contra las estafas falsas, dijo.

Armeson dijo que su red aún les dice a las personas que busquen ciertas pistas en las videollamadas, incluido que su supuesta amante parpadee demasiado o demasiado poco, tenga cejas que no se ajusten a la cara o cabello en el lugar equivocado y piel que no coincida. su edad. Si la persona usa anteojos, verifique si el reflejo que dan es realista, dice la red: «las falsificaciones profundas a menudo no representan completamente la física natural de la iluminación».

También insta a las personas a realizar estas pruebas simples: pídale a la otra persona en la videollamada que gire la cabeza y se ponga una mano frente a la cara. Esas maniobras pueden ser reveladoras, dijo, porque los deepfakes a menudo no han sido entrenados para realizarlas de manera realista.

Aún así, admitió, «solo estamos jugando a la defensiva». Los estafadores «siempre van a estar un poco por delante de nosotros», eliminando las fallas que revelan la estafa, dijo. «Es exasperante».

En última instancia, dijo, la forma más confiable de eliminar las falsificaciones profundas puede ser insistir en una reunión en persona. «Tenemos que ser realmente analógicos al respecto. No podemos confiar solo en la tecnología».

Existen herramientas de software que buscan automáticamente fallas y patrones generados por IA en un esfuerzo por separar el audio y el video legítimos de los falsos. Pero Mirsky dijo que «esto es potencialmente un juego perdido» porque a medida que la tecnología mejore, las señales reveladoras que solían traicionar a las falsificaciones desaparecerán.

Mirsky y su equipo de la Universidad Ben-Gurion han desarrollado un enfoque diferente, llamado D-CAPTCHA, que funciona según el mismo principio que utilizan algunos sitios web para evitar que los bots envíen formularios en línea. Un sistema D-CAPTCHA plantea una prueba que está diseñada para desconcertar a los deepfakes actuales en tiempo real, por ejemplo, pedir a las personas que llaman que tarareen, rían, canten o simplemente se aclaren la garganta.

El sistema, que aún no se ha comercializado, podría tomar la forma de una sala de espera para autenticar a los invitados que asisten a reuniones virtuales confidenciales o una aplicación que verifica a las personas que llaman sospechosas. De hecho, dijo Mirsky, «podemos desarrollar aplicaciones que puedan intentar detectar estas llamadas sospechosas y examinarlas antes de que se conecten».

Gardner ofreció otra nota esperanzadora. Las experiencias que la gente está teniendo ahora con IA y aplicaciones como ChatGPT, dijo, han hecho que las personas se cuestionen más rápido qué es real y qué es falso, y que miren de manera más crítica lo que están viendo.

«Creo que el hecho de que las personas tengan estas conversaciones de IA uno a uno por su cuenta ayuda», dijo.

2023 Los Ángeles Times.
Distribuido por Tribune Content Agency, LLC.

Citación: Los deepfakes en tiempo real son una nueva y peligrosa amenaza. Cómo protegerse (17 de mayo de 2023) consultado el 17 de mayo de 2023 en https://techxplore.com/news/2023-05-realtime-deepfakes-dangerous-threat.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Written by TecTop

Informar de errores de forma eficaz - Descubrir - Desarrollador de Apple

Informar de errores de forma eficaz – Descubrir – Desarrollador de Apple

Dragones Tears Geoglifos Recuerdos Tears Of The Kingdom Explicación

Dragon’s Tears, geoglifos y recuerdos en Tears of the Kingdom, explicados