in

Nuevos resultados en la investigación de la IA: los humanos apenas pueden reconocer los medios generados por la IA

Nuevos resultados en la investigación de la IA: los humanos apenas pueden reconocer los medios generados por la IA

Nuevos resultados en la investigación de la IA: los humanos apenas pueden reconocer los medios generados por la IA

Visualización del artículo «Un estudio representativo sobre la detección humana de medios generados artificialmente en todos los países». Crédito: CISPA

Las imágenes, los textos y los archivos de audio generados por IA son tan convincentes que las personas ya no pueden distinguirlos del contenido generado por humanos. Este es el resultado de una encuesta en línea a unos 3.000 participantes de Alemania, China y Estados Unidos. Esta es la primera vez que un gran estudio transnacional examina esta forma particular de alfabetización mediática.

La Dra. Lea Schönherr de la Facultad de CISPA y el Profesor Dr. Thorsten Holz presentaron los resultados esta semana en la 45º Simposio IEEE sobre seguridad y privacidad celebrada en San Francisco del 20 al 23 de mayo. El estudiar se llevó a cabo en cooperación con la Universidad Ruhr de Bochum, la Universidad Leibniz de Hannover y TU Berlín y está publicado en el arXiv servidor de preimpresión.

Debido a los rápidos avances en el campo de la inteligencia artificial, ahora se pueden generar grandes cantidades de archivos de imágenes, texto y audio con sólo unos pocos clics.

El profesor Dr. Thorsten Holz explica los riesgos que esto conlleva: «Los contenidos generados artificialmente pueden utilizarse de muchas maneras. Este año se avecinan elecciones importantes, como las elecciones al Parlamento de la UE o las elecciones presidenciales en Alemania. Los medios estadounidenses generados por IA pueden usarse muy fácilmente para influir en la opinión política. Veo esto como una gran amenaza para nuestra democracia».

En este contexto, el reconocimiento automatizado de medios generados por IA es un importante desafío de investigación. «Pero esto es una carrera contra el tiempo», explica la doctora Lea Schönherr, profesora de CISPA. «Los medios creados con métodos de generación de IA recientemente desarrollados son cada vez más difíciles de reconocer mediante métodos automáticos. Por eso, en última instancia, depende de si un humano puede hacer las evaluaciones adecuadas».

Esta consideración fue el punto de partida para investigar si los humanos son capaces de identificar los medios generados por IA.

La mayoría de los participantes clasifican los medios generados por IA como creados por el hombre.

Los resultados de su estudio transnacional sobre medios cruzados son sorprendentes. «Ya estamos en un punto en el que a las personas les resulta difícil, aunque todavía no imposible, saber si algo es real o generado por IA. Y esto se aplica a todo tipo de medios: texto, audio e imágenes», explica Holz.

En todos los países y tipos de medios, la mayoría de los participantes del estudio clasificaron los medios generados por IA como creados por el hombre.

«Nos sorprendió que haya muy pocos factores que puedan usarse para explicar si los humanos son mejores para reconocer los medios generados por IA o no. Incluso entre diferentes grupos de edad y factores como antecedentes educativos, actitudes políticas o alfabetización mediática, las diferencias son no es muy significativo», explica Holz.

El estudio incluye datos sociobiográficos.

Entre junio de 2022 y septiembre de 2022, el estudio cuantitativo se realizó como una encuesta en línea en China, Alemania y EE. UU. Los encuestados fueron asignados aleatoriamente a uno de los tres grupos de medios «texto», «imagen» o «audio» y se les mostró 50% medios reales y 50% generados por IA. Además, se recopilaron datos sociobiográficos, conocimiento de los medios generados por IA, así como factores como la alfabetización mediática, el pensamiento holístico, la confianza general, la reflexión cognitiva y la orientación política.

Después de la limpieza de datos, quedaron 2.609 conjuntos de datos (822 de EE. UU., 875 de Alemania, 922 de China), que informaron el análisis. Los archivos de audio y texto generados por IA utilizados en el estudio fueron generados por los propios investigadores, mientras que las imágenes generadas por IA fueron tomadas de un estudio existente. Las imágenes que utilizaron fueron retratos fotorrealistas, los textos fueron noticias y los archivos de audio fueron extractos de literatura.

Puntos de partida para futuras investigaciones.

Los resultados del estudio proporcionan importantes conclusiones para la investigación en ciberseguridad. «Existe el riesgo de que los textos y archivos de audio generados por la IA se utilicen para ataques de ingeniería social. Es posible que la próxima generación de correos electrónicos de phishing estén personalizados para mí y que el texto coincida perfectamente conmigo», explica Schönherr. . Según ella, el desarrollo de mecanismos de defensa precisamente para estos escenarios de ataque es una tarea importante para el futuro.

Sin embargo, del estudio también surgen más deseos de investigación. «En primer lugar, debemos comprender mejor cómo es posible que la gente todavía reconozca los medios generados por la IA. Estamos planeando un estudio de laboratorio en el que los participantes tendrán que explicarnos cómo reconocen si algo es generado por la IA o no. Por otro lado, «Tenemos que considerar cómo podemos respaldarlo técnicamente, por ejemplo mediante procesos automatizados de verificación de datos», concluye Schönherr.

Más información:
Joel Frank et al, Un estudio representativo sobre la detección humana de medios generados artificialmente en todos los países, arXiv (2023). DOI: 10.48550/arxiv.2312.05976

Información de la revista:
arXiv


Proporcionado por el Centro CISPA Helmholtz para la Seguridad de la Información

Citación: Nuevos resultados en la investigación de la IA: los humanos apenas pueden reconocer los medios generados por la IA (2024, 21 de mayo) obtenido el 21 de mayo de 2024 de https://techxplore.com/news/2024-05-results-ai-humans-generated-media .html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Directrices de revisión de aplicaciones actualizadas ya disponibles – Últimas noticias – Desarrollador de Apple

¿Deberías ayudar a Astridr o Fargrimr en Senuas Saga Hellblade 2 Astridr?

¿Deberías ayudar a Astridr o Fargrimr en Senua’s Saga Hellblade 2?