La inteligencia artificial puede ayudar a las personas a procesar y comprender grandes cantidades de datos con precisión, pero las plataformas modernas de reconocimiento de imágenes y los modelos de visión por computadora integrados en la IA con frecuencia pasan por alto una característica importante de back-end llamada canal alfa, que controla la transparencia de las imágenes. según un nuevo estudio.
Investigadores de la Universidad de Texas en San Antonio (UTSA) desarrollaron un ataque patentado llamado AlphaDog para estudiar cómo los piratas informáticos pueden aprovechar esta supervisión. Sus hallazgos se describen en un artículo escrito por Guenevere Chen, profesora asistente en el Departamento de Ingeniería Eléctrica e Informática de UTSA, y su ex estudiante de doctorado, Qi Xia ’24, y publicado por la Simposio de seguridad de redes y sistemas distribuidos 2025.
En el artículo, los investigadores de UTSA describen la brecha tecnológica y ofrecen recomendaciones para mitigar este tipo de amenaza cibernética.
«Tenemos dos objetivos. Uno es una víctima humana y el otro es la IA», explicó Chen.
Para evaluar la vulnerabilidad, los investigadores identificaron y explotaron un ataque de canal alfa a imágenes mediante el desarrollo de AlphaDog. El simulador de ataque hace que los humanos vean las imágenes de forma diferente a las máquinas. Funciona manipulando la transparencia de las imágenes.
Los investigadores generaron 6500 imágenes de ataques AlphaDog y las probaron en 100 modelos de IA, incluidos 80 sistemas de código abierto y 20 plataformas de IA basadas en la nube como ChatGPT.
Descubrieron que AlphaDog destaca por apuntar a regiones en escala de grises dentro de una imagen, lo que permite a los atacantes comprometer la integridad de imágenes puramente en escala de grises e imágenes en color que contienen regiones en escala de grises.
Los investigadores probaron imágenes en una variedad de escenarios cotidianos.
Encontraron lagunas en la IA que suponen un riesgo importante para la seguridad vial. Usando AlphaDog, por ejemplo, podrían manipular los elementos en escala de grises de las señales de tráfico, lo que podría potencialmente engañar a los vehículos autónomos.
Del mismo modo, descubrieron que podían alterar imágenes en escala de grises, como rayos X, resonancias magnéticas y tomografías computarizadas, creando potencialmente una amenaza grave que podría conducir a diagnósticos erróneos en el ámbito de la telesalud y las imágenes médicas. Esto también podría poner en peligro la seguridad del paciente y abrir la puerta al fraude, como manipular las reclamaciones de seguros alterando los resultados de las radiografías que muestran una pierna normal como si fuera una pierna rota.
También encontraron una manera de alterar imágenes de personas. Al apuntar al canal alfa, los investigadores de UTSA podrían alterar los sistemas de reconocimiento facial.
AlphaDog funciona aprovechando las diferencias en cómo la IA y los humanos procesan la transparencia de las imágenes. Los modelos de visión por computadora normalmente procesan imágenes rojas, verdes, azules y alfa (RGBA), valores que definen la opacidad de un color. El canal alfa indica qué tan opaco es cada píxel y permite combinar una imagen con una imagen de fondo, produciendo una imagen compuesta que tiene apariencia de transparencia.
Sin embargo, al utilizar AlphaDog, los investigadores descubrieron que los modelos de IA que probaron no leen los cuatro canales RGBA; en cambio, solo leen datos de los canales RGB.
«La IA es creada por humanos, y las personas que escribieron el código se centraron en RGB pero dejaron de lado el canal alfa. En otras palabras, escribieron código para que los modelos de IA leyeran archivos de imágenes sin el canal alfa», dijo Chen. «Ésa es la vulnerabilidad. La exclusión del canal alfa en estas plataformas conduce al envenenamiento de los datos».
Y añadió: «La IA es importante. Está cambiando nuestro mundo y tenemos muchas preocupaciones».
Chen y Xia están trabajando con varias partes interesadas clave, incluidas Google, Amazon y Microsoft, para mitigar la vulnerabilidad relacionada con la capacidad de AlphaDog para comprometer sistemas.
Citación: El simulador de ataques revela supervisión de las herramientas de reconocimiento de imágenes de IA y mitigación de amenazas cibernéticas (2024, 14 de octubre) obtenido el 14 de octubre de 2024 de https://techxplore.com/news/2024-10-simulator-reveals-oversight-ai-image. HTML
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings