in

Las llamadas fraudulentas de IA que imitan voces familiares son un problema creciente: así es como funcionan

Las llamadas fraudulentas de IA que imitan voces familiares son un problema creciente: así es como funcionan

Las llamadas fraudulentas de IA que imitan voces familiares son un problema creciente: así es como funcionan

Crédito: Antonio Guillem/Shutterstock

Llamadas fraudulentas usando IA para imitar voces de personas que tal vez conozcas están siendo utilizados para explotar a miembros desprevenidos del público. Estas llamadas utilizan lo que se conoce como IA generativaque se refiere a sistemas capaces de crear texto, imágenes o cualquier otro medio, como video, en función de las indicaciones de un usuario.

Deepfakes ha ganado notoriedad en los últimos años con una serie de incidentes de alto perfil, como el uso de la imagen de la actriz Emma Watson en una serie de anuncios sugerentes que apareció en Facebook e Instagram.

También estaba el video ampliamente compartido y desacreditado de 2022 en el que el presidente ucraniano Volodymyr Zelensky parecía decirles a los ucranianos que «deponer las armas«.

Ahora, la tecnología para crear un audio falso, una copia realista de la voz de una persona, está cada vez más común. Para crear un copia realista de la voz de alguien necesitas datos para entrenar el algoritmo. Esto significa tener muchas grabaciones de audio de la voz de su objetivo previsto. Cuantos más ejemplos de la voz de la persona pueda introducir en los algoritmos, mejor y más convincente será la copia final.

Muchos de nosotros ya compartimos detalles de nuestra vida diaria en Internet. Esto significa que los datos de audio necesarios para crear una copia realista de una voz podrían estar fácilmente disponibles en las redes sociales. Pero, ¿qué sucede una vez que sale una copia? Qué es lo peor que puede pasar? Un algoritmo deepfake podría permitir que cualquier persona en posesión de los datos para que «ustedes» digan lo que quieran. En la práctica, esto puede ser tan simple como escribir un texto y hacer que la computadora lo diga en voz alta en lo que suena como su voz.

Retos mayores

Esta capacidad corre el riesgo de aumentar la prevalencia de información errónea y desinformación de audio. Puede utilizarse para tratar de influir en la opinión pública internacional o nacionalcomo se ve con los «videos» de Zelensky.

Pero el ubicuidad y disponibilidad de estas tecnologías también plantea desafíos significativos a nivel local, particularmente en la tendencia creciente de «llamadas fraudulentas de IA». Muchas personas habrán recibido una estafa o una llamada de phishing que nos dice, por ejemplo, que nuestra computadora ha sido comprometida y debemos iniciar sesión de inmediato, lo que podría dar acceso a la persona que llama a nuestros datos.

A menudo es muy fácil detectar que se trata de un engaño, especialmente cuando la persona que llama hace solicitudes que alguien de una organización legítima no haría. Sin embargo, ahora imagine que la voz al otro lado del teléfono no es solo un extraño, sino que suena exactamente como un amigo o un ser querido. Esto inyecta un nivel completamente nuevo de complejidad y pánico para el desafortunado destinatario.

Una historia reciente Reportado por CNN destaca un incidente en el que una madre recibió una llamada de un número desconocido. Cuando contestó el teléfono, era su hija. Supuestamente, la hija había sido secuestrada y estaba llamando a su madre para pedirle un rescate.

De hecho, la niña estaba sana y salva. Los estafadores habían hecho un deepfake de su voz. Este no es un incidente aislado, con variaciones de la estafa que incluyen un supuesto accidente automovilístico, donde la víctima llama a su familia por dinero para ayudarlos después de un accidente.

Viejo truco con nueva tecnología

Esta no es una estafa nueva en sí misma, el término «estafa de secuestro virtual» ha existido durante varios años. Puede tomar muchas formas, pero un enfoque común es engañar a las víctimas para que paguen un rescate para liberar a un ser querido que creen que está siendo amenazado.

El estafador intenta establecer un cumplimiento incondicional para que la víctima pague un rescate rápido antes de que se descubra el engaño. Sin embargo, el surgimiento de tecnologías de IA poderosas y disponibles ha subido la apuesta significativamente y ha hecho que las cosas sean más personales. Una cosa es colgar a una llamada anónima, pero se necesita mucha confianza en su juicio para colgar una llamada de alguien que suena como su hijo o pareja.

Existe un software que se puede usar para identificar falsificaciones profundas y creará una representación visual del audio llamada espectrograma. Cuando esté escuchando la llamada, puede parecer imposible distinguirla de la persona real, pero se pueden distinguir las voces cuando los espectrogramas se analizan uno al lado del otro. Al menos un grupo ha ofrecido software de detección para descargar, aunque es posible que dichas soluciones aún requieran algunos conocimientos técnicos para su uso.

La mayoría de las personas no podrán generar espectrogramas, entonces, ¿qué puede hacer cuando no está seguro de que lo que está escuchando es real? Al igual que con cualquier otra forma de medios con los que te puedas encontrar: sé escéptico.

Si recibes una llamada de un ser querido de la nada y te pide dinero o te hace solicitudes que parecen fuera de lugar, devuélvele la llamada o envíale un mensaje de texto para confirmar que realmente estás hablando con él.

A medida que se expanden las capacidades de la IA, las líneas entre la realidad y la ficción se difuminan cada vez más. Y no es probable que podamos volver a poner la tecnología en la caja. Esto significa que la gente tendrá que volverse más cautelosa.

Proporcionado por La Conversación


Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.La conversación

Citación: Las llamadas fraudulentas de IA que imitan voces familiares son un problema creciente: así es como funcionan (13 de julio de 2023) consultado el 13 de julio de 2023 de https://techxplore.com/news/2023-07-ai-scam-imitating-familiar-voices .html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Amazon olvidó descontar el iPad Pro para Prime Day, por lo que hoy hay una venta masiva

noticias

Proyecto de ley de California que requiere que Big Tech pague por noticias suspendidas hasta 2024