in

Cómo la tecnología puede detectar noticias falsas en videos

noticias falsas

noticias falsas

Crédito: Pixabay/CC0 Dominio público

Las redes sociales representan un canal importante para la difusión de noticias falsas y desinformación. Esta situación se ha agravado con los recientes avances en la edición de fotos y videos y las herramientas de inteligencia artificial, que facilitan la manipulación de archivos audiovisuales, por ejemplo, con los llamados deepfakes, que combinan y superponen imágenes, clips de audio y video para crear montajes. que parecen imágenes reales.

Investigadores de los grupos K-riptography and Information Security for Open Networks (KISON) y Communication Networks & Social Change (CNSC) del Instituto Interdisciplinario de Internet (IN3) de la Universitat Oberta de Catalunya (UOC) han puesto en marcha un nuevo proyecto para desarrollar tecnología innovadora que, utilizando inteligencia artificial y técnicas de ocultación de datos, debe ayudar a los usuarios a diferenciar automáticamente entre contenido multimedia original y adulterado, contribuyendo así a minimizar el reenvío de noticias falsas. DISSIMILAR es una iniciativa internacional liderada por la UOC en la que participan investigadores de la Universidad Tecnológica de Varsovia (Polonia) y la Universidad de Okayama (Japón).

«El proyecto tiene dos objetivos: por un lado, proporcionar a los creadores de contenido herramientas para marcar con agua sus creaciones, haciendo que cualquier modificación sea fácilmente detectable; y por otro lado, ofrecer a los usuarios de redes sociales herramientas basadas en métodos de procesamiento de señales y aprendizaje automático de última generación para detectar falsificaciones. contenidos digitales», explica el profesor David Megías, investigador principal de KISON y director del IN3. Además, DISSIMILAR pretende incluir “la dimensión cultural y el punto de vista del usuario final a lo largo de todo el proyecto”, desde el diseño de las herramientas hasta el estudio de la usabilidad en las diferentes etapas.

El peligro de los sesgos

Actualmente, existen básicamente dos tipos de herramientas para detectar noticias falsas. En primer lugar, están los automáticos basados ​​en aprendizaje automático, de los cuales (actualmente) solo existen algunos prototipos. Y, en segundo lugar, están las plataformas de detección de noticias falsas con participación humana, como es el caso de Facebook y Twitter, que requieren la participación de personas para determinar si un contenido específico es genuino o falso. Según David Megías, esta solución centralizada podría verse afectada por «diferentes sesgos» y fomentar la censura. “Creemos que una evaluación objetiva basada en herramientas tecnológicas puede ser una mejor opción, siempre que los usuarios tengan la última palabra para decidir, en base a una preevaluación, si pueden confiar o no en determinados contenidos”, explicó.

Para Megías, no existe una «sola bala de plata» que pueda detectar noticias falsas: más bien, la detección debe llevarse a cabo con una combinación de diferentes herramientas. “Por eso hemos apostado por explorar la ocultación de información (marcas de agua), las técnicas de análisis forense de contenidos digitales (basadas en gran medida en el procesamiento de señales) y, por supuesto, el aprendizaje automático”, apunta.

Verificación automática de archivos multimedia

La marca de agua digital comprende una serie de técnicas en el campo de la ocultación de datos que incrustan información imperceptible en el archivo original para poder verificar «fácil y automáticamente» un archivo multimedia. «Se puede usar para indicar la legitimidad de un contenido, por ejemplo, confirmando que un video o una foto ha sido distribuido por una agencia de noticias oficial, y también se puede usar como una marca de autenticación, que se eliminaría en caso de modificación de el contenido, o para rastrear el origen de los datos. Es decir, puede saber si la fuente de la información (por ejemplo, una cuenta de Twitter) está difundiendo contenido falso”, explicó Megías.

Técnicas de análisis forense de contenidos digitales

El proyecto combinará el desarrollo de marcas de agua con la aplicación de técnicas de análisis forense de contenido digital. El objetivo es aprovechar la tecnología de procesamiento de señales para detectar las distorsiones intrínsecas que producen los dispositivos y programas utilizados al crear o modificar cualquier archivo audiovisual. Estos procesos dan lugar a una serie de alteraciones, como el ruido del sensor o la distorsión óptica, que podrían detectarse mediante modelos de aprendizaje automático. “La idea es que la combinación de todas estas herramientas mejore los resultados en comparación con el uso de soluciones únicas”, afirma Megías.

Estudios con usuarios de Cataluña, Polonia y Japón

Una de las características clave de DISSIMILAR es su enfoque «holístico» y su recopilación de las «percepciones y componentes culturales en torno a las noticias falsas». En este sentido, se realizarán diferentes estudios centrados en el usuario, desglosados ​​en diferentes etapas. «En primer lugar, queremos saber cómo interactúan los usuarios con las noticias, qué les interesa, qué medios consumen, según sus intereses, qué usan como base para identificar ciertos contenidos como noticias falsas y qué están dispuestos a hacer para verificar su veracidad. Si podemos identificar estas cosas, será más fácil que las herramientas tecnológicas que diseñemos ayuden a prevenir la propagación de noticias falsas”, explicó Megías.

Estas percepciones se medirán en diferentes lugares y contextos culturales, en estudios de grupos de usuarios en Cataluña, Polonia y Japón, para incorporar su idiosincrasia en el diseño de las soluciones. “Esto es importante porque, por ejemplo, cada país tiene gobiernos y/o autoridades públicas con mayor o menor grado de credibilidad. Esto tiene un impacto en el seguimiento de las noticias y el apoyo a las noticias falsas: si no creo en la palabra de las autoridades, ¿por qué debo prestar atención a las noticias que provienen de estas fuentes?Esto se pudo ver durante la crisis del COVID-19: en países en los que había menos confianza en las autoridades públicas, hubo menos respeto por las sugerencias y las reglas sobre el manejo de la pandemia y la vacunación”, dijo Andrea Rosales, investigadora del CNSC.

Un producto que es fácil de usar y entender.

En la etapa dos, los usuarios participarán en el diseño de la herramienta para «asegurar que el producto sea bien recibido, fácil de usar y comprensible», dijo Andrea Rosales. “Nos gustaría que se involucraran con nosotros durante todo el proceso hasta producir el prototipo final, ya que esto nos ayudará a dar una mejor respuesta a sus necesidades y prioridades y hacer lo que otras soluciones no han sido capaces de hacer”, agregó David Megías.

Esta aceptación de los usuarios podría ser en el futuro un factor que lleve a las plataformas de redes sociales a incluir las soluciones desarrolladas en este proyecto. «Si nuestros experimentos dan frutos, sería fantástico que integraran estas tecnologías. Por el momento, estaríamos contentos con un prototipo funcional y una prueba de concepto que podría animar a las plataformas de redes sociales a incluir estas tecnologías en el futuro». «, concluyó David Megías.

Investigaciones anteriores fueron publicadas en el Número especial sobre los ARES-Workshops 2021.


La inteligencia artificial puede no ser la solución para detener la propagación de noticias falsas


Más información:
D. Megías et al, Arquitectura de un sistema de detección de noticias falsas que combina marcas de agua digitales, procesamiento de señales y aprendizaje automático, Número especial sobre los ARES-Workshops 2021 (2022). DOI: 10.22667/JOWUA.2022.03.31.033

A. Qureshi et al, Detección de videos falsos mediante marca de agua digital, Cumbre y Conferencia Anual de la Asociación de Procesamiento de Información y Señales de Asia-Pacífico 2021 (APSIPA ASC) (2021). ieeexplore.ieee.org/document/9689555

David Megías et al, DISSIMILAR: Hacia la detección de noticias falsas mediante el ocultamiento de información, el procesamiento de señales y el aprendizaje automático, 16° Congreso Internacional sobre Disponibilidad, Confiabilidad y Seguridad (ARES 2021) (2021). doi.org/10.1145/3465481.3470088

Proporcionado por la Universitat Oberta de Catalunya (UOC)

Citación: Cómo la tecnología puede detectar noticias falsas en videos (29 de junio de 2022) recuperado el 13 de julio de 2022 de https://techxplore.com/news/2022-06-technology-fake-news-videos.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Apple, Mac, iOS, iPhone, iPad, SSO, WWDC, security

Cómo Apple está mejorando el inicio de sesión único

Apex Legends obtiene una nueva tradición de vidente, y ahora la comunidad está en busca de sangre

Apex Legends obtiene una nueva tradición de vidente, y ahora la comunidad está en busca de sangre