
La líder del proyecto, Elizabeth Perry, demuestra el resultado de la imagen de datos envenenados. Crédito: Angkit Thapa Magar
La Universidad de Monash y la Policía Federal Australiana (AFP) se están uniendo para darle la vuelta a la tecnología contra los ciberdelincuentes mediante una dosis de veneno digital.
El laboratorio de IA para la aplicación de la ley y la seguridad comunitaria (AiLECS), una colaboración entre la AFP y la Universidad de Monash, está desarrollando una nueva herramienta disruptiva que, entre sus amplias aplicaciones, puede ralentizar y detener a los delincuentes que producen material de abuso infantil generado por IA, propaganda de tecnología extremista e imágenes y vídeos deepfake.
Conocido como «intoxicación de datos», implica la alteración sutil de los datos para que sea mucho más difícil producir, manipular y hacer un mal uso de imágenes o vídeos utilizando programas de inteligencia artificial.
La IA y las herramientas de aprendizaje automático (ML) requieren cantidades significativas de datos en línea para producir contenido generado por IA, por lo que, al envenenar estos datos, los modelos de IA crean resultados inexactos, sesgados o corruptos. Esto también hace que sea más fácil detectar una imagen o un vídeo manipulado creado por delincuentes.
El disruptor de IA, llamado «Silverer», se encuentra en su etapa de prototipo. Ha estado en desarrollo durante los últimos 12 meses bajo la dirección del investigador de AiLECS y líder del proyecto, Ph.D. la candidata Elizabeth Perry.
Perry dijo que el nombre era un guiño a la plata que se utiliza para hacer espejos. De manera similar, la herramienta se utilizaría para crear reflejos de una imagen original. «En este caso, es como deslizar plata detrás del cristal, así que cuando alguien intenta mirar a través de él, termina con un reflejo completamente inútil», dijo.
«Antes de que una persona suba imágenes a las redes sociales o a Internet, puede modificarlas usando Silverer. Esto alterará los píxeles para engañar a los modelos de IA y las generaciones resultantes serán de muy baja calidad, estarán cubiertas de patrones borrosos o completamente irreconocibles».
El experto en forense digital y profesor asociado codirector de AiLECS, Campbell Wilson, dijo que la generación de imágenes falsas y maliciosas se estaba convirtiendo en un problema mucho mayor.
«Actualmente, estas imágenes y vídeos dañinos generados por IA se crean con relativa facilidad utilizando tecnología de código abierto y existe una barrera de entrada muy baja para que las personas utilicen estos algoritmos», dijo el profesor asociado Wilson.
La AFP ha identificado un aumento en el material de abuso infantil generado por IA, y los delincuentes aprovechan la tecnología para producir y compartir cantidades significativas de contenido explícito falso en línea.
El comandante de la AFP, Rob Nelson, dijo que las tecnologías de envenenamiento de datos aún están en su infancia y se están probando, pero mostraron resultados iniciales prometedores en términos de capacidad de aplicación de la ley. «Donde vemos aplicaciones fuertes es en el mal uso de la tecnología de inteligencia artificial con fines maliciosos.
«Por ejemplo, si un delincuente intenta generar imágenes basadas en IA utilizando los datos envenenados, la imagen de salida estará distorsionada o será completamente diferente de la original. Al envenenar los datos, en realidad los estamos protegiendo para que no se generen como contenido malicioso».
El comandante Nelson dijo que la herramienta de interrupción también podría ayudar a los investigadores al reducir el volumen de material falso que hay que atravesar. «Ya existen varios algoritmos de envenenamiento de datos y, como vemos en otras áreas de ciberseguridad, los métodos emergentes para evitarlos aparecen rápidamente poco después.
«No anticipamos que ningún método sea capaz de detener el uso malicioso o la recreación de datos; sin embargo, lo que estamos haciendo es similar a colocar topes de velocidad en una pista de carreras ilegal. Estamos construyendo obstáculos para dificultar que las personas hagan un mal uso de estas tecnologías».
El objetivo general del proyecto de investigación Silverer es desarrollar y seguir mejorando una tecnología que sea fácil de usar para los australianos comunes y corrientes que quieran proteger sus datos en las redes sociales.
Actualmente se encuentra en discusión la versión prototipo de la herramienta para su uso interno en la AFP.
Citación: Píxeles envenenados: nueva herramienta de inteligencia artificial para combatir imágenes deepfake maliciosas (2025, 10 de noviembre) recuperado el 10 de noviembre de 2025 de https://techxplore.com/news/2025-11-poisoned-pixels-ai-tool-malicious.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.

