Los deepfakes están causando estragos en todo el mundo, difundiendo noticias falsas y pornografía, utilizándose para robar identidades, explotando a celebridades, estafando a la gente común e incluso influyendo en las elecciones.
Sin embargo, un encuesta mundial Descubrió que el 71% de las personas no tiene idea de qué son los deepfakes.
Los deepfakes son fotografías, vídeos o voces digitales de personas reales que han sido creados sintéticamente o manipulados mediante inteligencia artificial (IA) y pueden ser difíciles de distinguir de los reales.
Probablemente hayas visto un vídeo o una foto deepfake sin siquiera darte cuenta. Tom Cruises, Taylor Swifts y Mark Zuckerbergs generados por computadora han estado circulando en Internet durante varios años, pero lo que comenzó como una diversión inofensiva ahora se ha vuelto mucho más serio.
A principios de este año, un trabajador financiero de una empresa multinacional en Hong Kong fue engañado para pagar 39 millones de dólares australianos a los estafadores que utilizaron tecnología deepfake para hacerse pasar por el director financiero de la empresa en una videoconferencia.
En 2022, un vídeo falso Surgió la imagen del presidente ucraniano Volodymyr Zelenskyy, retratándolo falsamente instando a su ejército a rendirse a las fuerzas invasoras rusas. Si bien el líder ucraniano lo cerró rápidamente, existen temores reales de que los deepfakes difundan información falsa y teorías de conspiración en múltiples campañas electorales este año, incluso en Estados Unidos, Reino Unido, India y Rusia.
El jefe de Defensa de Australia, Angus Campbell, ha expresado su temor de que el mundo esté entrando en «una era de decadencia de la verdad», donde la desinformación socavará la democracia al sembrar discordia y desconfianza.
Campbell le dijo a conferencia de defensa en 2023 que la inteligencia artificial y los deepfakes «dañarían gravemente la confianza del público en los funcionarios electos» al hacer imposible para la mayoría de las personas distinguir la realidad de la ficción.
Durante algunos años, los científicos informáticos (incluidos los de STEM UniSA—han estado desarrollando nuevas tecnologías de IA para ayudar a responder a importantes desafíos en la industria, la atención sanitaria, la ingeniería y la defensa.
A través de avances en el aprendizaje automático y las redes neuronales profundas, han utilizado la tecnología para siempre, pero siempre ha existido la posibilidad de que personas con intenciones maliciosas (conocidas como «malos actores» en la industria) la aprovechen. Introduzca deepfakes.
En este artículo, el profesor asociado Wolfgang Mayer y el profesor Javaan Chahl ofrecen su perspectiva sobre los deepfakes.
Profesor asociado Wolfgang Mayer, informático de UniSA y experto en inteligencia artificial
q: Los deepfakes son posibles gracias a los avances en el aprendizaje automático y la inteligencia artificial. ¿Qué beneficios positivos hemos obtenido gracias a esta tecnología? ¿Contrarresta esto los usos peligrosos?
La tecnología de IA generativa siempre ha tenido buenos y malos usos.
Escuchamos mucho en los medios acerca de cómo la IA generativa se utiliza con fines dañinos, pero está haciendo más bien que mal en el mundo. Si se piensa en coches autónomos para evitar accidentes y permitir que las personas discapacitadas se muevan libremente, eso sólo es posible gracias a la inteligencia artificial y el aprendizaje automático.
Esta tecnología nos permite acelerar la investigación médica en salud y detectar enfermedades de forma más temprana; también es una poderosa herramienta en construcción e ingeniería, liberando tareas mundanas y minimizando errores; y es la base de los sistemas de visión por computadora. Los usos positivos superan con creces a los negativos.
Sin embargo, no hay duda de que los deepfakes están causando problemas. El problema de la propaganda y la desinformación no es nuevo, pero ahora tiene una escala diferente debido a los deepfakes.
q: La mayoría de la gente asumiría que la IA sólo la entienden los informáticos, los ingenieros informáticos especializados y no la gente corriente. ¿Verdadero?
Es un proceso complicado construir sistemas inspirados en el cerebro, pero utilizar estos sistemas ahora es relativamente fácil, y es por eso que los deepfakes están proliferando. Los sistemas se han vuelto lo suficientemente poderosos como para que no necesitemos ser expertos en aprendizaje automático para usarlos. Es solo cuestión de descargar una aplicación desarrollada por empresas de tecnología.
q: ¿Poner una marca de agua digital en imágenes auténticas de IA ayudará a abordar la proliferación de deepfakes?
No. Puede que detenga a los usuarios más simplistas, pero los serios podrán replicar la tecnología sin ponerle marcas de agua. A medida que mejore la calidad de la IA generativa, será más difícil detectar fotos, vídeos y voces clonadas falsos.
q: ¿Cuáles son algunas de las formas en que puedes detectar deepfakes?
Puede ser complicado, dependiendo de cuánto esfuerzo haya puesto alguien para crear un deepfake. Sintetizar las manos siempre es difícil y muchas veces los labios no se sincronizan con la voz en un vídeo. Sin embargo, replicar rostros en una videoconferencia es mucho más sencillo. Creo que, en última instancia, será extremadamente difícil detectar deepfakes basándose en la apariencia. Necesitamos confiar en lo que se dice, cuál es la situación y si es extraña de alguna manera.
q: ¿Qué pueden hacer las personas para protegerse de ser blanco de deepfakes?
A menos que estés en una posición de poder o seas una celebridad, probablemente no corras riesgo de que te copien. Sin embargo, la gente debe tener cuidado con lo que pone en línea porque todos esos datos pueden usarse para imitarnos.
Si pusiera todos mis apuntes de clases en línea, no sería tan difícil generar un Wolfgang virtual para dar mis conferencias, pero afortunadamente están detrás de un muro de pago. Es una buena idea verificar con otras fuentes si lo que ha visto u oído, especialmente en las redes sociales, es realmente exacto.
Profesor Javaan Chahl, presidente conjunto de sistemas de sensores DST/UniSA
q: ¿Qué impacto tendrán los deepfakes en los gobiernos? ¿Podrían erosionar la confianza en nuestros líderes?
Los gobiernos y los políticos ya están socavando la democracia. Al margen de cada campaña electoral, especialmente en la última década, ha habido folletos falsos; cosas que dicen los políticos y que luego resultan ser notoriamente falsas. Ese juego ya está en marcha.
Para mitigar la sensación de pánico en torno a los deepfakes, la desinformación procedente de poderes superiores se viene produciendo desde hace muchísimo tiempo. La razón por la que los altos niveles del gobierno podrían estar preocupados por este uso de la IA es porque han tenido un dominio absoluto sobre la información en el pasado y podrían decidir lo que te dicen. Ahora, personas sin rostro pueden empezar a lanzar señales ruidosas al sistema y provocar el caos.
En Australia, nuestra relación con el poder es de desconfianza y siempre lo ha sido. No creo que la gente confíe en el liderazgo tanto como los líderes creen, y la infiltración de deepfakes significa que tendrán que trabajar mucho más duro para asegurarle al público que están diciendo la verdad. Eso no es malo.
q: ¿Qué papel tienen los medios para garantizar que no difundan deepfakes?
Los medios de comunicación ya están utilizando ChatGPT para escribir sus historias, así que no se sorprenda si la gente deja de confiar en ellos por completo. En cualquier caso, los espectadores deberían cuestionar cada vídeo que ven en las redes sociales y los principales canales de noticias, porque normalmente sólo incluyen segmentos que se adaptan a su narrativa.
Los medios de comunicación se han vuelto más partidistas en los últimos años y eso está erosionando la confianza del público incluso sin la infiltración de deepfakes. Los medios deben adoptar una postura no partidista, confiar más en los hechos y comenzar a verificar de dónde provienen si quieren que se confíe en ellos.
q: ¿Estamos entrando en una era en la que es difícil separar la realidad de la ficción debido a la IA?
Que las personas no crean automáticamente lo que ven, leen o escuchan en los medios digitales probablemente sea algo bueno. Necesitamos un pensamiento más crítico en lugar de aceptar todo al pie de la letra. Mi consejo es cuestionar cualquier cosa que veas en las redes sociales o en las noticias a menos que conozcas a la persona que lo filmó y confíes en ella implícitamente.
Incluso las imágenes y los vídeos que no han sido manipulados digitalmente pueden contener falsedades en forma de propaganda, por lo que la gente debería tratar todos los vídeos como películas, que son esencialmente un ejercicio de creación de un mundo artificial que se parece al mundo real en diversos grados.
q: ¿Deberíamos preocuparnos de que los deepfakes y la IA se infiltren en nuestras fuerzas de defensa y representen una amenaza para nuestra seguridad nacional?
La desinformación ha existido durante décadas, pero ahora adopta una forma diferente. Somos parte de ello. En el pasado, los regímenes rivales explotaron los defectos de personalidad comunes entre los intelectuales para exportar una ideología inteligente, seductora y divisiva. Estas operaciones de desestabilización siguen en marcha mucho después de que esos regímenes hayan desaparecido.
Ahora contamos con tecnología muy sofisticada que se está implementando en forma de guerra cibernética, alterando sistemas informáticos vitales con fines estratégicos o militares, y tecnología ultrafalsa para disminuir la cohesión social. Se trata de la manipulación de la información, que siempre ha sido parte integrante del conflicto.
q: ¿Qué pueden hacer investigadores como usted para abordar los deepfakes o simplemente estamos librando una batalla perdida?
En este momento, podemos usar tecnología de visión por computadora para leer los signos vitales en un video y ver si es falso. Sabemos que los videos deepfake tienen signos vitales irregulares más allá de la respiración y la frecuencia cardíaca, como la saturación de oxígeno en la sangre, la presión arterial, la temperatura y otras cosas que pueden indicar si son falsos. Eso podría permitirnos ganar algunos años, pero eventualmente los videos son tan buenos como la cadena de custodia humana que condujo al video.
Citación: Preguntas y respuestas: ¿Qué son los deepfakes y deberíamos preocuparnos? (22 de mayo de 2024) obtenido el 22 de mayo de 2024 de https://techxplore.com/news/2024-05-qa-deepfakes.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings