El surgimiento de la llamada tecnología deepfake, que comúnmente implica la generación de imágenes, vídeos y sonidos falsos que parecen tan auténticos que confunden incluso a los espectadores y oyentes expertos, ha llegado al punto en que puede influir en aspectos importantes de nuestras vidas, como la política, las finanzas y más allá.
En esta nueva era de engaños, las falsificaciones sofisticadas de imágenes y vídeos ocupan los titulares. A menudo, estas falsificaciones se identifican rápidamente, pero a veces el daño puede estar ya hecho una vez que se denuncian, especialmente si se tiene en cuenta la velocidad a la que los vídeos y otros medios digitales pueden volverse virales en las redes sociales.
Las manipulaciones digitales que alteran o sintetizan por completo los rostros se han vuelto alarmantemente convincentes, contribuyendo a las noticias falsas y erosionando la confianza del público en los medios digitales. publicado en el Revista internacional de sistemas de comunicaciones autónomos y adaptativos describe un nuevo enfoque que detecta inconsistencias de iluminación dentro de las imágenes y así puede identificar si un video o una fotografía es un deepfake.
Según Fei Gu, Yunshu Dai, Jianwei Fei y Xianyi Chen, de la Universidad de Ciencias de la Información y Tecnología de Nanjing (China), las falsificaciones profundas se pueden clasificar en cuatro tipos principales: intercambio de identidad, intercambio de expresiones, manipulación de atributos y síntesis de rostros completos. Cada uno de ellos plantea diferentes amenazas y riesgos.
Los intercambios de identidad, en los que se reemplaza el rostro de una persona por el de otra, y los intercambios de expresiones, en los que se transfieren las expresiones faciales de un individuo a otro, son particularmente preocupantes. Los deepfakes pueden causar graves daños a la reputación y la percepción de las personas o grupos que son objeto de deepfakes.
El enfoque habitual para la detección de deepfakes es adoptar un enfoque de clasificación binaria. Sin embargo, el enfoque convencional puede fallar si el video o las imágenes están muy comprimidos o son de mala calidad. La compresión y la calidad pueden ocultar los rasgos faciales y reducir la confianza en la detección de deepfakes.
Incluso los expertos en deepfakers pueden fallar cuando se trata de lograr que la iluminación coincida perfectamente entre las regiones alteradas y no alteradas de una imagen o un video. Gu y sus colegas se han centrado en esta cuestión en su método de detección, que utiliza una red neuronal para detectar discrepancias en la iluminación.
Más información:
Fei Gu et al, Detección y localización de deepfakes basada en inconsistencia de iluminación, Revista internacional de sistemas de comunicaciones autónomos y adaptativos (2024). Documento: 10.1504/IJAACS.2024.139383
Citación: Arrojando luz sobre la detección de deepfake (15 de julio de 2024) recuperado el 15 de julio de 2024 de https://techxplore.com/news/2024-07-deepfake.html
Este documento está sujeto a derechos de autor. Salvo que se haga un uso legítimo con fines de estudio o investigación privados, no se podrá reproducir ninguna parte del mismo sin autorización por escrito. El contenido se ofrece únicamente con fines informativos.
GIPHY App Key not set. Please check settings