A medida que las redes de inteligencia artificial se vuelven más hábiles y más fáciles de acceder, las fotos y los videos «deepfake» manipulados digitalmente son cada vez más difíciles de detectar. Una nueva investigación dirigida por la Universidad de Binghamton, Universidad Estatal de Nueva York, descompone las imágenes utilizando técnicas de análisis del dominio de frecuencia y busca anomalías que podrían indicar que fueron generadas por IA.
En un artículo publicado en Tecnologías disruptivas en las ciencias de la información VIIIEl estudiante de doctorado Nihal Poredi, Deeraj Nagothu y el profesor Yu Chen del Departamento de Ingeniería Eléctrica e Informática de Binghamton compararon imágenes reales y falsas más allá de los signos reveladores de manipulación de imágenes, como dedos alargados o texto de fondo sin sentido. También colaboraron en el artículo la estudiante de maestría Monica Sudarsan y el profesor Enoch Solomon de la Universidad Estatal de Virginia.
El equipo creó miles de imágenes con herramientas de inteligencia artificial generativa populares, como Adobe Firefly, PIXLR, DALL-E y Google Deep Dream, y luego las analizó utilizando técnicas de procesamiento de señales para poder comprender sus características de dominio de frecuencia. La diferencia en las características de dominio de frecuencia de las imágenes generadas por IA y las naturales es la base para diferenciarlas utilizando un modelo de aprendizaje automático.
Al comparar imágenes mediante una herramienta llamada Generative Adversarial Networks Image Authentication (GANIA), los investigadores pueden detectar anomalías (conocidas como artefactos) debido a la forma en que la IA genera las imágenes falsas. El método más común para crear imágenes de IA es el sobremuestreo, que clona píxeles para hacer que los tamaños de archivo sean más grandes, pero deja huellas en el dominio de la frecuencia.
«Cuando tomas una fotografía con una cámara real, obtienes información de todo el mundo: no solo de la persona, la flor, el animal o la cosa que quieres fotografiar, sino que también está incorporada allí todo tipo de información ambiental», dijo Chen.
«Con la IA generativa, las imágenes se centran en lo que le pides que genere, sin importar lo detallado que sea. No hay forma de describir, por ejemplo, cuál es la calidad del aire o cómo sopla el viento o todos los pequeños detalles que son elementos de fondo».
Nagothu agregó: «Si bien existen muchos modelos de IA emergentes, la arquitectura fundamental de estos modelos sigue siendo en gran medida la misma. Esto nos permite explotar la naturaleza predictiva de su manipulación de contenido y aprovechar huellas digitales únicas y confiables para detectarla».
El artículo de investigación también explora formas en que GANIA podría usarse para identificar los orígenes de IA de una foto, lo que limita la propagación de información errónea a través de imágenes deepfake.
«Queremos poder identificar las ‘huellas dactilares’ de los distintos generadores de imágenes de IA», dijo Poredi. «Esto nos permitiría construir plataformas para autenticar el contenido visual y prevenir cualquier evento adverso asociado con las campañas de desinformación».
Además de las imágenes falsificadas, el equipo ha desarrollado una técnica para detectar grabaciones de audio y vídeo falsas basadas en IA. La herramienta desarrollada, denominada «DeFakePro», aprovecha las huellas ambientales llamadas señal de frecuencia de red eléctrica (ENF), creada como resultado de ligeras fluctuaciones eléctricas en la red eléctrica. Como un sutil zumbido de fondo, esta señal se incorpora de forma natural a los archivos multimedia cuando se graban.
Al analizar esta señal, que es exclusiva del momento y el lugar de la grabación, la herramienta DeFakePro puede verificar si la grabación es auténtica o si ha sido manipulada. Esta técnica es muy eficaz contra los deepfakes y explora además cómo puede proteger las redes de vigilancia inteligente a gran escala contra este tipo de ataques de falsificación basados en IA. El enfoque podría ser eficaz en la lucha contra la desinformación y el fraude digital en nuestro mundo cada vez más conectado.
«La desinformación es uno de los mayores desafíos que enfrenta la comunidad global hoy en día», dijo Poredi. «El uso generalizado de la IA generativa en muchos campos ha llevado a su uso indebido. Combinado con nuestra dependencia de las redes sociales, esto ha creado un punto de inflamación para un desastre de desinformación. Esto es particularmente evidente en países donde las restricciones a las redes sociales y la libertad de expresión son mínimas. Por lo tanto, es imperativo garantizar la integridad de los datos compartidos en línea, específicamente los datos audiovisuales».
Aunque los modelos de IA generativa se han utilizado de forma indebida, también contribuyen de forma significativa al avance de la tecnología de imágenes. Los investigadores quieren ayudar al público a diferenciar entre contenido falso y real, pero mantenerse al día con las últimas innovaciones puede ser un desafío.
«La IA avanza tan rápido que, una vez que se ha desarrollado un detector de deepfakes, la próxima generación de esa herramienta de IA tiene en cuenta esas anomalías y las corrige», dijo Chen. «Nuestro trabajo consiste en intentar hacer algo innovador».
Más información:
Nihal Poredi et al, Autenticación de imágenes generadas por IA basada en redes generativas adversarias mediante análisis del dominio de frecuencia, Tecnologías disruptivas en las ciencias de la información VIII (2024). Documento: 10.1117/12.3013240
Citación:Nuevas herramientas utilizan ‘huellas dactilares’ de IA para detectar fotos y vídeos alterados (12 de septiembre de 2024) recuperado el 12 de septiembre de 2024 de https://techxplore.com/news/2024-09-tools-ai-fingerprints-photos-videos.html
Este documento está sujeto a derechos de autor. Salvo que se haga un uso legítimo con fines de estudio o investigación privados, no se podrá reproducir ninguna parte del mismo sin autorización por escrito. El contenido se ofrece únicamente con fines informativos.
GIPHY App Key not set. Please check settings