in

Un nuevo informe describe recomendaciones para defenderse de las falsificaciones profundas

cerebro computadora

cerebro computadora

Crédito: Pixabay/CC0 Dominio público

Aunque la mayor parte de la atención pública en torno a los deepfakes se ha centrado en grandes campañas de propaganda, la nueva tecnología problemática es mucho más insidiosa, según un nuevo informe de expertos en inteligencia artificial (IA) y política exterior de la Universidad Northwestern y la Institución Brookings.

En el nuevo informe, los autores analizan videos, imágenes y audio falsos, así como los desafíos de seguridad relacionados. Los investigadores predicen que la tecnología está a punto de ser utilizada mucho más ampliamente, incluso en operaciones militares y de inteligencia específicas.

En última instancia, los expertos hacen recomendaciones a los funcionarios de seguridad y a los encargados de formular políticas sobre cómo manejar la nueva tecnología inquietante. Entre sus recomendaciones, los autores enfatizan la necesidad de que Estados Unidos y sus aliados desarrollen un código de conducta para el uso de deepfakes por parte de los gobiernos.

El informe de investigación, «Deepfakes y conflicto internacionalfue publicado este mes por Brookings.

«La facilidad con la que se pueden desarrollar deepfakes para individuos y objetivos específicos, así como su rápido movimiento, más recientemente a través de una forma de IA conocida como difusión estable, apuntan hacia un mundo en el que todos los estados y actores no estatales tendrán la capacidad de implementar deepfakes en sus operaciones de seguridad e inteligencia», escriben los autores. «Los funcionarios de seguridad y los formuladores de políticas deberán prepararse en consecuencia».

Los coautores de Northwestern incluyen al experto en inteligencia artificial y seguridad de renombre mundial VS Subrahmanian, el profesor Walter P. Murphy de Ciencias de la Computación en la Escuela de Ingeniería McCormick de Northwestern y miembro de la facultad de Buffett en el Instituto Buffett de Asuntos Globales, y Chongyang Gao, Ph.D. . estudiante en el laboratorio de Subrahmanian. Los coautores del Brookings Institute incluyen a Daniel L. Bynam y Chris Meserole.

Deepfakes requieren ‘poca dificultad’

Subrahmanian, líder del Northwestern Security and AI Lab, y su estudiante Gao desarrollaron previamente TREAD (Terrorism Reduction with Artificial Intelligence Deepfakes), un nuevo algoritmo que los investigadores pueden usar para generar sus propios videos deepfake. Al crear deepfakes convincentes, los investigadores pueden comprender mejor la tecnología en el contexto de la seguridad.

Usando TREAD, Subrahmanian y su equipo creó videos falsos de muestra del fallecido terrorista del Estado Islámico Abu Mohammed al-Adnani. Si bien el video resultante se ve y suena como al-Adnani, con expresiones faciales y audio muy realistas, en realidad está pronunciando palabras del presidente sirio Bashar al-Assad.

Los investigadores crearon el video realista en cuestión de horas. El proceso fue tan sencillo que Subrahmanian y sus coautores dijeron que los militares y las agencias de seguridad deberían asumir que los rivales son capaces de generar videos falsos de cualquier funcionario o líder en cuestión de minutos.

«Cualquiera con una experiencia razonable en aprendizaje automático puede, con un trabajo sistemático y el hardware adecuado, generar videos falsos profundos a escala mediante la construcción de modelos similares a TREAD», escriben los autores. «Las agencias de inteligencia de prácticamente cualquier país, que ciertamente incluye a los adversarios de Estados Unidos, pueden hacerlo con poca dificultad».

Evitar los ‘juegos del gato y el ratón’

Los autores creen que los actores estatales y no estatales aprovecharán las falsificaciones profundas para fortalecer los esfuerzos de desinformación en curso. Deepfakes podría ayudar a alimentar el conflicto al legitimar la guerra, sembrar confusión, socavar el apoyo popular, polarizar sociedades, desacreditar a los líderes y más. A corto plazo, los expertos en seguridad e inteligencia pueden contrarrestar las falsificaciones profundas mediante el diseño y entrenamiento de algoritmos para identificar videos, imágenes y audio potencialmente falsos. Sin embargo, es poco probable que este enfoque siga siendo efectivo a largo plazo.

«Cualquiera con una experiencia razonable en aprendizaje automático puede generar videos falsos profundos a escala. Las agencias de inteligencia de prácticamente cualquier país pueden hacerlo con poca dificultad».

«El resultado será un juego del gato y el ratón similar al visto con el malware: cuando las empresas de ciberseguridad descubren un nuevo tipo de malware y desarrollan firmas para detectarlo, los desarrolladores de malware hacen ‘ajustes’ para evadir el detector», dijeron los autores. . «El ciclo detectar-evadir-detectar-evadir se desarrolla con el tiempo… Eventualmente, podemos llegar a un punto final donde la detección se vuelve inviable o demasiado computacionalmente intensiva para llevarla a cabo rápidamente y a escala».

Para las estrategias a largo plazo, los autores del informe hacen varias recomendaciones:

  • Educar al público en general para aumentar la alfabetización digital y el razonamiento crítico.
  • Desarrollar sistemas capaces de rastrear el movimiento de activos digitales documentando a cada persona u organización que maneja el activo
  • Anime a los periodistas y analistas de inteligencia a reducir la velocidad y verificar la información antes de incluirla en los artículos publicados. «Del mismo modo, los periodistas podrían emular los productos de inteligencia que analizan los ‘niveles de confianza’ con respecto a los juicios».
  • Use información de fuentes separadas, como códigos de verificación, para confirmar la legitimidad de los activos digitales

Sobre todo, los autores argumentan que el gobierno debería promulgar políticas que ofrezcan mecanismos sólidos de supervisión y rendición de cuentas para regular la generación y distribución de contenido falso. Si Estados Unidos o sus aliados quieren «combatir fuego con fuego» mediante la creación de sus propios deepfakes, primero se deben acordar políticas y ponerlas en práctica. Los autores dicen que esto podría incluir el establecimiento de un «Proceso de acciones de Deepfakes», modelado a partir de procesos similares para la ciberseguridad.

«La decisión de generar y usar deepfakes no debe tomarse a la ligera y no sin una cuidadosa consideración de las compensaciones», escriben los autores. «El uso de deepfakes, especialmente diseñado para atacar objetivos de alto valor en entornos de conflicto, afectará a una amplia gama de oficinas y agencias gubernamentales. Cada parte interesada debe tener la oportunidad de ofrecer aportes, según sea necesario y apropiado. Establecer un amplio- basado en un proceso deliberativo es la mejor ruta para garantizar que los gobiernos democráticos usen deepfakes de manera responsable».

Proporcionado por la Universidad de Northwestern


Citación: Un nuevo informe describe las recomendaciones para defenderse de las falsificaciones profundas (2023, 17 de enero) consultado el 17 de enero de 2023 en https://techxplore.com/news/2023-01-outlines-defending-deepfakes.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Ofertas: Apple Watch Ultra a la venta por $ 749 en Amazon ($ 50 de descuento)

Revisión de la PC portátil Persona 3 2

Revisión de PC portátil de Persona 3: ¿Realmente todavía necesitamos «Portátil» en el título?