
Abe Davis, izquierda, profesor asistente de ciencias de la computación en el Cornell Ann S. Bowers College of Computing and Information Science, y el estudiante graduado Peter Michael con una luz de agua. Crédito: Sreang Hok/Universidad de Cornell
Los verificadores de datos pueden tener una nueva herramienta en la lucha contra la información errónea.
Un equipo de investigadores de Cornell ha desarrollado una forma de «marca de agua» la luz en los videos, que pueden usar para detectar si el video es falso o ha sido manipulado.
La idea es ocultar información en fluctuaciones casi invisibles de iluminación en eventos y ubicaciones importantes, como entrevistas y conferencias de prensa o incluso edificios completos, como la sede de las Naciones Unidas. Estas fluctuaciones están diseñadas para pasar desapercibidas por los humanos, pero se registran como una marca de agua oculta en cualquier video capturado bajo la iluminación especial, que podría programarse en pantallas de computadora, lámparas de fotografía e iluminación incorporada. Cada fuente de luz marcada con agua tiene un código secreto que se puede usar para verificar la marca de agua correspondiente en el video y revelar cualquier edición maliciosa.
Peter Michael, un estudiante graduado en el campo de la informática que dirigió el trabajo, presentará el estudio «,Iluminación codificada por ruido para video forense y fotométrico«El 10 de agosto en Siggraph 2025 En Vancouver, Columbia Británica.
Editar imágenes de video de una manera engañosa no es nada nuevo. Pero con la IA generativa y las redes sociales, es más rápido y más fácil difundir la información errónea que nunca.
«El video solía ser tratado como una fuente de verdad, pero eso ya no es una suposición que podemos hacer», dijo Abe Davis, profesor asistente de ciencias de la computación en el Cornell Ann S. Bowers College of Computing and Information Science, que primero concibió la idea. «Ahora puedes crear un video de lo que quieras. Eso puede ser divertido, pero también problemático, porque solo es más difícil saber qué es real».
Para abordar estas preocupaciones, los investigadores habían diseñado previamente técnicas para marcar los archivos de video digital de agua directamente, con pequeños cambios en píxeles específicos que pueden usarse para identificar imágenes no manipuladas o decir si AI creó un video. Sin embargo, estos enfoques dependen del creador de video utilizando una cámara específica o modelo de IA, un nivel de cumplimiento que puede ser poco realista de esperar de posibles malos actores.
Al incrustar el código en la iluminación, el nuevo método asegura que cualquier video real del sujeto contenga la marca de agua secreta, independientemente de quién lo capturó. El equipo mostró que las fuentes de luz programables, como las pantallas de la computadora y ciertos tipos de iluminación de habitaciones, se pueden codificar con una pequeña pieza de software, mientras que las luces más antiguas, como muchas lámparas estándar, se pueden codificar con un pequeño chip de computadora del tamaño de una marca de contenido de contenido. El programa en el chip varía el brillo de la luz de acuerdo con el código secreto.

Davis y Michael trabajan en el laboratorio Gates Hall de Davis. Crédito: Sreang Hok/Universidad de Cornell
Entonces, ¿qué información secreta está oculta en estas marcas de agua y cómo se revela cuando el video es falso? «Cada marca de agua lleva una versión de tiempo de baja fidelidad del video no manipulado bajo iluminación ligeramente diferente. Llamamos a estos videos de código», dijo Davis. «Cuando alguien manipula un video, las piezas manipuladas comienzan a contradecir lo que vemos en estos videos de código, que nos permite ver dónde se hicieron los cambios. Y si alguien intenta generar video falso con AI, los videos de código resultantes solo parecen variaciones aleatorias».
Parte del desafío en este trabajo fue lograr que el código fuera en gran medida imperceptible para los humanos. «Utilizamos estudios de literatura de percepción humana para informar nuestro diseño de la luz codificada», dijo Michael. «El código también está diseñado para parecer variaciones aleatorias que ya ocurren en la luz llamada ‘ruido», lo que también dificulta la detección, a menos que conozca el código secreto «.
Si un adversario recorta imágenes, como de una entrevista o discurso político, un analista forense con el código secreto puede ver las brechas. Y si el adversario agrega o reemplaza los objetos, las piezas alteradas generalmente aparecen negras en videos de código recuperado.
El equipo ha utilizado con éxito hasta tres códigos separados para diferentes luces en la misma escena. Con cada código adicional, los patrones se vuelven más complicados y difíciles de fingir.
«Incluso si un adversario sabe que la técnica se está utilizando y de alguna manera descubre los códigos, su trabajo sigue siendo mucho más difícil», dijo Davis. «En lugar de fingir la luz por un solo video, tienen que fingir cada video de código por separado, y todas esas falsificaciones tienen que estar de acuerdo entre sí».
También han verificado que este enfoque funciona en algunos entornos al aire libre y en personas con diferentes tonos de piel.
Davis y Michael advierten, sin embargo, que la lucha contra la información errónea es una carrera armamentista, y los adversarios continuarán ideando nuevas formas de engañar.
«Este es un problema continuo importante», dijo Davis. «No va a desaparecer, y de hecho, solo se volverá más difícil».
Más información:
Peter Michael et al, iluminación codificada por ruido para análisis de video forense y fotométrico, Transacciones ACM en gráficos (2025). Doi: 10.1145/3742892
Citación: Ocultar códigos secretos de la luz puede proteger contra videos falsos (2025, 30 de julio) Recuperado el 30 de julio de 2025 de https://techxplore.com/news/2025-07-secret-codes-fake-videos.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.