
Las herramientas generativas de inteligencia artificiales generativas siempre se han convertido en armas en manos de malos actores.
Las empresas tecnológicas están luchando contra el flagelo de los profundos, esas voces o videos engañosamente realistas utilizados por estafadores que están más disponibles que nunca gracias a la inteligencia artificial.
Las herramientas generativas de inteligencia artificial (Genai) siempre mejor que se han convertido en armas en manos de malos actores que intentan engañar a las personas de su dinero o incluso sus identidades.
Debby Bodkin habla de que su madre de 93 años recibe una llamada telefónica, una voz clonada que afirma: «Soy yo, mamá … He tenido un accidente».
Cuando se les preguntó dónde estaban, el imitador hecho a máquina nombró a un hospital.
Afortunadamente, fue una nieta que contestó el teléfono, optando por colgar y llamar a Bodkin en el trabajo donde estaba a salvo y bien.
«No es la primera vez que los estafadores llaman a la abuela», dijo Bodkin a la AFP. «Es diario».
Dichas estafas telefónicas profundas generalmente convencen a las víctimas para pagar la atención médica u otras emergencias inventadas.
Utilizado en las redes sociales para secuestrar la notoriedad de las celebridades u otras figuras de alto perfil, a veces para desinformación, las pandillas criminales también están explotando los defectos.
La policía de Hong Kong a principios de este año reveló que un empleado de la empresa multinacional fue engañado para cablear HK $ 200 millones (alrededor de US $ 26 millones) a los delincuentes que organizaron una videoconferencia con AI Avatars de sus colegas.
Un estudio reciente mediante la puesta en marcha de identificación IBOOM encontró que una décima parte del 1% de los estadounidenses y los británicos podían decir correctamente cuándo una imagen o un video era un defake profundo.
Hace una década, había una sola herramienta de IA para generar voces sintéticas, ahora hay cientos de ellas, según el especialista en autenticación de voz Vijay Balasubramaniyan, CEO de Pindrop Security.
Genai ha cambiado el juego, dijo.
«Antes, tardó 20 horas (de grabación de voz) en recrear su voz», dijo el ejecutivo a la AFP.
«Ahora, son cinco segundos».
Las empresas como Intel han intensificado las herramientas para detectar audio o video fabricados en Genai en tiempo real.
Intel «Fakecatcher» detecta los cambios de color en los vasos sanguíneos faciales para distinguir las imágenes genuinas de las falsas.
Pindrop se descompone cada segundo de audio y lo compara con características de una voz humana.
«Tienes que mantenerte al día con los tiempos», dice Nicos Vekiarides, Jefe de Plataforma Attestiv que se especializa en la autenticación de creaciones digitales.
«Al principio, vimos personas con seis dedos por un lado, pero el progreso ha hecho que sea cada vez más difícil de decir (profundo) a simple vista».
‘Amenaza global de ciberseguridad’
Balasubramaniyan cree que el software para detectar contenido de IA se convertirá en estándar en compañías de todo tipo.
Si bien Genai ha borrado el límite entre humanos y máquinas, las empresas que restablecen esa división podrían dispararse en un mercado que valdrá miles de millones de dólares, dijo.
Vekiarides advirtió que el problema «se está convirtiendo en una amenaza global de ciberseguridad».
«Cualquier empresa puede tener su reputación empañada por un defake profundo o ser atacada por estos ataques sofisticados», dijo Vekiarides.
Balasubramaniyan agregó que el cambio a la teletrabajo brinda más oportunidades para que los malos actores se supliquen su camino hacia las empresas.
Más allá del mundo corporativo, muchos esperan que los consumidores busquen formas de luchar contra las estafas de Deepfake poniendo en peligro sus vidas personales.
En enero, Honor, con sede en China, dio a conocer un teléfono inteligente Magic7 con un detector de Deepfake incorporado impulsado por AI.
Surf Surf Seguridad británica a fines del año pasado lanzó un navegador web que puede marcar la voz o el video sintéticos, apuntándolo a las empresas.
Siwei Lyu, profesor de ciencias de la computación en la Universidad Estatal de Nueva York en Buffalo, cree que «los profundos se convertirán en spam», una pesadilla de Internet que las personas finalmente se ponen bajo control.
«Esos algoritmos de detección serán como filtros de spam en nuestro software de correo electrónico», predijo Lyu.
«Todavía no estamos allí».
© 2025 AFP
Citación: Las empresas tecnológicas luchan para Stem Deepfake Deluge (2025, 19 de marzo) Recuperado el 19 de marzo de 2025 de https://techxplore.com/news/2025-03-tech-firms-stem-eepfake-deluge.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.