La mayoría de los deepfakes (vídeos con recreaciones hiperrealistas falsas) generados por inteligencia artificial (IA) que se difunden a través de las redes sociales presentan a representantes políticos y artistas y, a menudo, están vinculados a los ciclos informativos actuales.
Esta es una de las conclusiones de una investigación de la Universidad Carlos III de Madrid (UC3M) que analiza las características formales y de contenido de la desinformación viral en España derivada del uso de herramientas de IA con fines ilícitos. Este avance supone un paso hacia la comprensión y mitigación de las amenazas que generan los bulos en nuestra sociedad.
En el estudiarpublicado recientemente en la revista Observatorio (OBS*)el equipo de investigación estudió este contenido falso a través de las verificaciones de organizaciones españolas de fact-checking, como EFE Verifica, Maldita, Newtral y Verifica RTVE.
«El objetivo era identificar una serie de patrones y características comunes en estos deepfakes virales, dar algunas pistas para su identificación y hacer algunas propuestas de alfabetización mediática para que la ciudadanía pueda abordar la desinformación», explica una de las autoras, Raquel Ruiz Incertis, Investigadora del Departamento de Comunicación de la UC3M, donde realiza su doctorado. en la comunicación europea.
Los investigadores han desarrollado una tipología de deepfakes, que facilita su identificación y neutralización. Según los resultados del estudio, algunos líderes políticos (como Trump o Macron) fueron los principales protagonistas de contenidos referidos al consumo de drogas o a actividades moralmente reprobables. También existe una proporción considerable de deepfakes pornográficos que dañan la integridad de las mujeres, exponiendo especialmente a cantantes y actrices famosas. Según los investigadores, generalmente se comparten desde cuentas no oficiales y se difunden rápidamente a través de servicios de mensajería instantánea.
La proliferación de deepfakes, o el uso frecuente de imágenes, vídeos o audio manipulados con herramientas de inteligencia artificial, es un tema de gran actualidad. «Este tipo de engaño prefabricado es especialmente dañino en situaciones delicadas, como en períodos preelectorales o en tiempos de conflicto como los que estamos viviendo actualmente en Ucrania o Gaza. Esto es lo que llamamos ‘guerras híbridas’: la guerra es «No sólo se lucha en el ámbito físico, sino también en el digital, y las falsedades son más significativas que nunca», afirma Ruiz Incertis.
Las aplicaciones de esta investigación son diversas, desde la seguridad nacional hasta la integridad de las campañas electorales. Los hallazgos sugieren que el uso proactivo de la IA en las plataformas de redes sociales podría revolucionar la forma en que mantenemos la autenticidad de la información en la era digital.
La investigación destaca la necesidad de una mayor alfabetización mediática y propone estrategias educativas para mejorar la capacidad del público para discernir entre contenidos reales y manipulados. «Muchos de estos deepfakes pueden identificarse mediante búsquedas inversas de imágenes en motores de búsqueda como Google o Bing. Existen herramientas para que el público compruebe la exactitud del contenido en un par de clics antes de difundir contenidos de dudosa procedencia. La clave es enseñar cómo hacerlo», afirma Ruiz Incertis.
También aporta otros consejos para detectar deepfakes, como prestar atención a la nitidez de los bordes de los elementos y a la definición del fondo de la imagen: si en los vídeos se ralentizan los movimientos o si hay alguna alteración facial, desproporción corporal o Extraño juego de luces y sombras, todo indica que podría tratarse de contenido generado por IA.
Además, los autores del estudio también ven la necesidad de una legislación que obligue a las plataformas, aplicaciones y programas (como Midjourney o Dall-e) a establecer una «marca de agua» que los identifique y permita al usuario saber de un vistazo que la imagen o El vídeo ha sido modificado o creado íntegramente con IA.
El equipo de investigación ha utilizado un enfoque multidisciplinario, combinando ciencia de datos y análisis cualitativo, para examinar cómo las organizaciones de verificación de datos aplican la IA en sus operaciones. La metodología principal es un análisis de contenido de una treintena de publicaciones extraídas de los sitios web de los fact-checkers antes mencionados donde se desmiente este contenido manipulado o fabricado por la IA.
Más información:
Miriam Garriga et al, Propuestas de inteligencia artificial, desinformación y alfabetización mediática en torno a los deepfakes, Observatorio (OBS*) (2024). DOI: 10.15847/obsOBS18520242445
Citación: Los investigadores analizan las características de los deepfakes generados por IA (2024, 24 de mayo) recuperado el 24 de mayo de 2024 de https://techxplore.com/news/2024-05-characteristics-ai-generated-deepfakes.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings