in

Estafando a los estafadores: uso de víctimas falsas creadas por IA para interrumpir el modelo comercial criminal

Estafando a los estafadores: Nuevas víctimas falsas de IA para interrumpir el modelo de negocio criminal

Estafando a los estafadores: Nuevas víctimas falsas de IA para interrumpir el modelo de negocio criminal

Siga hablando: el profesor Dali Kaafar, en la foto, y el equipo de seguridad cibernética esperan que sus nuevos bots para combatir las estafas mantengan a los estafadores en línea hasta por 40 minutos y también ayuden a identificar las últimas estafas telefónicas para que los bancos puedan advertir a los clientes. Crédito: Universidad Macquarie

Los expertos en seguridad cibernética de la Universidad de Macquarie han inventado un chatbot multilingüe diseñado para mantener a los estafadores en largas llamadas falsas y, en última instancia, reducir la gran cantidad de personas que pierden dinero a manos de los delincuentes globales todos los días.

Un nuevo sistema impulsado por IA ha creado víctimas falsas convincentes en forma de chatbots multilingües que hacen perder el tiempo a los estafadores, en una búsqueda para hacer mella en los aproximadamente $ 55 mil millones que las personas pierden cada año a causa de los ladrones.

Llamado apateen honor a la diosa griega del engaño, el sistema «estafará a los estafadores», utilizando clones de voz convincentes para mantener conversaciones con estafadores reales.

«Las estafas telefónicas están a cargo de grupos del crimen organizado y, en la actualidad, solo se captura a una pequeña fracción de los delincuentes, y el dinero rara vez se recupera», dice el profesor Dali Kaafar, director ejecutivo del Centro de Seguridad Cibernética de la Universidad de Macquarie.

La idea se le ocurrió al profesor Kaafar mientras almorzaba con su familia, cuando llamó un estafador. Hizo una simulación entretenida, haciendo reír a sus hijos y manteniendo al estafador en la línea durante 40 minutos.

«Me di cuenta de que, si bien le había hecho perder el tiempo al estafador para que no pudieran llegar a las personas vulnerables, ese era el punto: también eran 40 minutos de mi propia vida que no recuperaría», dice el profesor Dali.

«Entonces comencé a pensar en cómo podríamos automatizar todo el proceso y utilizar el procesamiento del lenguaje natural para desarrollar un chatbot computarizado que pudiera tener una conversación creíble con el estafador», dice.

El profesor Kaafar dice que su equipo ahora tiene patentes pendientes para esta tecnología altamente efectiva.

«Estamos entusiasmados con el potencial de esta nueva tecnología para romper activamente el modelo comercial de llamadas fraudulentas y hacer que no sea rentable», dice.

El enormemente lucrativo comercio global de estafas telefónicas está creciendo cada año, y la ACCC estima que los australianos perdieron más de 3.100 millones a causa de los estafadores en 2022.

Quitando las ganancias fáciles

El profesor Kaafar dice que, a pesar de que los proveedores de telecomunicaciones bloquearon más de 500 millones de llamadas fraudulentas desde 2020, los australianos todavía están inundados de estas llamadas, y la pequeña fracción que se transmite puede causar estragos en las víctimas.

Las estafas telefónicas están aumentando a nivel mundial por varias razones, dice.

La tecnología como el protocolo de voz sobre Internet (VOIP) hace que sea fácil y económico para los ciberdelincuentes enmascarar su ubicación, fingiendo llamar desde cualquier número.

Mientras tanto, en el frente tecnológico, es difícil y costoso actualizar la infraestructura y los protocolos de telecomunicaciones para mejorar la autenticación de las llamadas.

«Económicamente, es una relación de alta ganancia y bajo costo para los estafadores, la práctica es muy lucrativa y una actividad delictiva de riesgo relativamente bajo, y es bastante difícil para las víctimas recuperar este dinero».

Estas condiciones atraen a un número creciente de estafadores que se especializan en jugar con las emociones y los miedos humanos.

«El modelo comercial de los estafadores se basa en obtener grandes ganancias de un pequeño número de víctimas; solo un pequeño porcentaje de las miles de llamadas que hacen cada semana tienen éxito», dice el profesor Kaafar.

“Nuestro modelo los ata, les hace perder el tiempo y reduce la cantidad de estafas exitosas”, dice. «Podemos alterar su modelo de negocio y hacer que sea mucho más difícil para ellos ganar dinero».

Cómo se creó APATE

El equipo del Centro de Seguridad Cibernética de la Universidad de Macquarie comenzó analizando las llamadas telefónicas fraudulentas e identificando las técnicas de ingeniería social que los estafadores usan con sus víctimas, usando técnicas de aprendizaje automático y procesamiento de lenguaje natural para identificar los «guiones» típicos de las estafas.

Luego entrenaron a los chatbots en un conjunto de datos de conversaciones fraudulentas del mundo real, desde grabaciones de llamadas fraudulentas hasta transcripciones de correos electrónicos fraudulentos y registros de chat de plataformas de redes sociales para que el bot pueda generar sus propias conversaciones similares a las de las llamadas fraudulentas del mundo real.

El profesor Kaafar dice que los avances en el procesamiento del lenguaje natural (PNL) y la clonación de la voz humana por IA les han permitido desarrollar agentes de IA que son capaces de hablar con fluidez y pueden adoptar una personalidad particular y mantenerse en el camino de una conversación, siendo convincentemente consistentes en sus respuestas. .

«Los bots conversacionales de IA que hemos desarrollado pueden engañar a los estafadores haciéndoles creer que están hablando con víctimas de estafa viables, por lo que dedican tiempo a intentar estafar a los bots», dice el profesor Kaafar.

Estos bots se pueden entrenar en cualquier idioma o acento y, dado que las estafas telefónicas son un desafío global, esta tecnología se puede implementar en cualquier parte del mundo.

Pruebas de llamadas de estafa en vivo

El equipo ahora está probando los bots de chat en llamadas de estafa en vivo, redirigiendo las llamadas destinadas a las víctimas a su prototipo de prueba, un «señuelo siempre activo» con una amplia gama de personas.

«Hemos puesto estos números ‘sucios’ por todo Internet, metiéndolos en algunas aplicaciones de spam, o publicándolos en páginas web, etc., para que sea más probable que reciban llamadas fraudulentas», dice el profesor Kaafar.

«Descubrimos que los bots reaccionan bastante bien ante algunas situaciones complicadas en las que no esperábamos salirnos con la nuestra, con estafadores que piden información para la que no entrenamos a los bots, pero los bots se están adaptando y presentan respuestas muy creíbles. .

«Los bots están aprendiendo continuamente cómo arrastrar las llamadas para cumplir con su objetivo principal: mantener a los estafadores en línea por más tiempo».

La implementación actual de los bots de Apate ya tiene un promedio de cinco minutos y el objetivo es llegar a los 40 minutos.

Los bots que luchan contra las estafas también contribuyen a la inteligencia de amenazas: información oportuna que se recopila sobre las estafas telefónicas actuales y sus objetivos; esto ayuda a organizaciones como los principales bancos, minoristas y organismos gubernamentales a advertir a los clientes.

El profesor Kaafar dice que el equipo está en conversaciones con varios proveedores de telecomunicaciones y dice que están abiertos a una serie de asociaciones comerciales.

«La asociación con los proveedores de comunicaciones será la clave para que esto sea realmente efectivo», dice el profesor Kaafar.

«Vemos que esto tiene un enorme potencial a nivel mundial; si podemos redirigir muchas de esas llamadas de spam que los proveedores están bloqueando actualmente y enviar a los estafadores a los bots de Apate, ocupando su tiempo tanto como podamos, toda la industria ya no estará viable.

«Sugiero que el meta-escenario final podría ver a los estafadores adoptando la IA ellos mismos, entrenando sus propios chatbots de estafa, que luego se desvían para hablar con los chatbots propiedad de los proveedores de telecomunicaciones.

«Si los chatbots de estafa terminan hablando con los chatbots que defienden las estafas en lugar de robar dinero de personas reales, lo tomaría como una gran victoria».

Proporcionado por la Universidad de Macquarie


Citación: Estafando a los estafadores: uso de víctimas falsas creadas por IA para interrumpir el modelo comercial criminal (26 de junio de 2023) recuperado el 26 de junio de 2023 de https://techxplore.com/news/2023-06-scamming-scammers-ai-created-fake -víctimas.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Siri es un desastre y parece que a Apple no le importa

Cómo convertirse en un híbrido en Project Slayers