Acabas de regresar a casa después de un largo día de trabajo y estás a punto de sentarte a cenar cuando de repente tu teléfono comienza a vibrar. En el otro extremo está un ser querido, tal vez un padre, un hijo o un amigo de la infancia, rogándote que le envíes dinero de inmediato.
Les haces preguntas, tratando de entender. Hay algo fuera de lugar en sus respuestas, que son vagas o fuera de lugar, ya veces hay un retraso peculiar, casi como si estuvieran pensando un poco demasiado lento. Sin embargo, está seguro de que definitivamente es su ser querido el que habla: esa es su voz que escucha, y el identificador de llamadas muestra su número. Atribuyéndole la extrañeza a su pánico, envías obedientemente el dinero a la cuenta bancaria que te proporcionan.
Al día siguiente, les devuelves la llamada para asegurarte de que todo está bien. Su ser querido no tiene idea de lo que está hablando. Eso es porque nunca te llamaron, has sido engañado por la tecnología: una voz falsa. Miles de personas fueron estafado de esta manera en 2022.
Como la seguridad informática investigadoresvemos que los avances continuos en algoritmos de aprendizaje profundo, edición e ingeniería de audio y generación de voz sintética han significado que es cada vez más posible simular de manera convincente la voz de una persona.
Peor aún, los chatbots como ChatGPT están comenzando a generar guiones realistas con respuestas adaptables en tiempo real. Por combinar estas tecnologías con la generación de vozun deepfake pasa de ser una grabación estática a un avatar vivo y realista que puede tener una conversación telefónica de manera convincente.
Clonar una voz
Elaborar un deepfake convincente de alta calidad, ya sea video o audio, no es lo más fácil de hacer. Requiere una gran cantidad de habilidades artísticas y técnicas, un hardware potente y una muestra bastante considerable de la voz objetivo.
Hay un número creciente de servicios que se ofrecen a producir clones de voz de calidad moderada a alta por una tarifay algunas herramientas de deepfake de voz necesitan una muestra de sólo un minuto de duracióno incluso solo unos segundos, para producir un clon de voz que pudiera ser lo suficientemente convincente como para engañar a alguien. Sin embargo, para convencer a un ser querido, por ejemplo, para usar en una estafa de suplantación de identidad, probablemente se necesitaría una muestra significativamente mayor.
Protección contra estafas y desinformación
Con todo lo dicho, nosotros en el Proyecto DeFake del Instituto de Tecnología de Rochester, la Universidad de Mississippi y la Universidad Estatal de Michigan, y otros investigadores están trabajando arduamente para poder detectar falsificaciones profundas de video y audio y limitar el daño que causan. También hay acciones sencillas y cotidianas que puede tomar para protegerse.
Para principiantes, phishing de voz, o «vishing», las estafas como la descrita anteriormente son las falsificaciones de voz más probables que puede encontrar en la vida cotidiana, tanto en el trabajo como en el hogar. En 2019, un Empresa de energía fue estafada con US$243.000 cuando los delincuentes simularon la voz del jefe de su empresa matriz para ordenar a un empleado que transfiriera fondos a un proveedor. En 2022, la gente estaba estafado de un estimado de $ 11 millones por voces simuladas, incluso de conexiones personales cercanas.
¿Qué puedes hacer?
Tenga cuidado con las llamadas inesperadas, incluso de personas que conoce bien. Esto no quiere decir que deba programar cada llamada, pero ayuda al menos enviar un correo electrónico o un mensaje de texto con anticipación. Además, no confíe en el identificador de llamadas, ya que eso tambien se puede fingir. Por ejemplo, si recibe una llamada de alguien que dice representar a su banco, cuelgue y llame directamente al banco para confirmar la legitimidad de la llamada. Asegúrese de utilizar el número que ha anotado, guardado en su lista de contactos o que puede encontrar en Google.
Además, tenga cuidado con su información de identificación personal, como su número de Seguro Social, domicilio, fecha de nacimiento, número de teléfono, segundo nombre e incluso los nombres de sus hijos y mascotas. Los estafadores pueden usar esta información para hacerse pasar por usted ante bancos, agentes inmobiliarios y otros, enriqueciéndose mientras lo llevan a la bancarrota o destruyen su crédito.
He aquí otro consejo: conócete a ti mismo. Específicamente, conozca sus sesgos y vulnerabilidades intelectuales y emocionales. Este es un buen consejo de vida en general, pero es clave para protegerse de ser manipulado. Los estafadores generalmente buscan descubrir y luego aprovecharse de sus ansiedades financieras, sus apegos políticos u otras inclinaciones, cualesquiera que sean.
Este estado de alerta también es una defensa decente contra la desinformación que utiliza deepfakes de voz. Deepfakes se puede usar para aprovechar su sesgo de confirmación, o lo que se inclina a creer sobre alguien.
Si escucha a una persona importante, ya sea de su comunidad o del gobierno, decir algo que parece muy poco característico para ellos o confirma sus peores sospechas sobre ellos, sería prudente tener cuidado.
Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Citación: Voice deepfakes está llamando: esto es lo que son y cómo evitar ser estafado (20 de marzo de 2023) recuperado el 20 de marzo de 2023 de https://techxplore.com/news/2023-03-voice-deepfakes-callinghere-scammed.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.