in

Investigadores investigan la seguridad de la IA en los coches sin conductor y encuentran vulnerabilidades

Investigadores investigan la seguridad de la IA en los coches sin conductor y encuentran vulnerabilidades

Investigadores investigan la seguridad de la IA en los coches sin conductor y encuentran vulnerabilidades

El sedán autónomo Lincoln MKZ de la UB es uno de los vehículos que los investigadores han utilizado para probar las vulnerabilidades a los ataques. Crédito: Universidad de Buffalo

La inteligencia artificial es una tecnología clave para los vehículos autónomos. Se utiliza para la toma de decisiones, la detección, la modelización predictiva y otras tareas. Pero ¿hasta qué punto son vulnerables estos sistemas de IA a un ataque?

Una investigación en curso en la Universidad de Buffalo examina esta cuestión y los resultados sugieren que actores maliciosos podrían provocar que estos sistemas fallen. Por ejemplo, es posible que un vehículo se vuelva invisible para los sistemas de radar impulsados ​​por IA colocando estratégicamente objetos impresos en 3D en él, que lo oculten de la detección.

El trabajo, que se lleva a cabo en un entorno de investigación controlado, no significa que los vehículos autónomos existentes sean inseguros, afirman los investigadores. No obstante, podría tener implicaciones para la industria automotriz, la tecnología, los seguros y otras industrias, así como para los reguladores gubernamentales y los responsables de las políticas.

«Aunque hoy en día son una novedad, los vehículos autónomos están a punto de convertirse en una forma dominante de transporte en el futuro cercano», afirma Chunming Qiao, profesor distinguido de SUNY en el Departamento de Ciencias Informáticas e Ingeniería, que dirige el trabajo. «Por consiguiente, debemos asegurarnos de que los sistemas tecnológicos que impulsan estos vehículos, especialmente los modelos de inteligencia artificial, estén a salvo de actos adversos. Esto es algo en lo que estamos trabajando diligentemente en la Universidad de Buffalo».

La investigación se describe en una serie de artículos que se remontan a 2021 con un estudio publicado en Actas de la Conferencia ACM SIGSAC 2021 sobre seguridad informática y de las comunicaciones (CCS)Ejemplos más recientes incluyen un estudio de mayo en Actas de la 30ª Conferencia internacional anual sobre computación móvil y redes (más comúnmente conocido como Mobicom) y otro estudio en el 33° Simposio de Seguridad USENIX de este mes que está disponible en arXiv.

La detección de ondas milimétricas es eficaz, pero vulnerable

Durante los últimos tres años, Yi Zhu y otros miembros del equipo de Qiao han estado realizando pruebas en un vehículo autónomo en el Campus Norte de la UB.

Zhu, que completó su doctorado en el Departamento de Ciencias Informáticas e Ingeniería de la UB en mayo, aceptó recientemente un puesto de profesor en la Universidad Estatal de Wayne. Especialista en ciberseguridad, es uno de los autores principales de los artículos antes mencionados, que se centran en la vulnerabilidad de los lidars, radares y cámaras, así como en los sistemas que fusionan estos sensores.

«En la conducción autónoma, las ondas milimétricas [mmWave] «El radar se ha adoptado ampliamente para la detección de objetos porque es más fiable y preciso en condiciones de lluvia, niebla y poca iluminación que muchas cámaras», afirma Zhu. «Pero el radar puede ser pirateado tanto digitalmente como en persona».

En una de esas pruebas de esta teoría, los investigadores utilizaron impresoras 3D y láminas de metal para fabricar objetos con formas geométricas específicas que llamaron «máscaras de mosaico». Al colocar dos máscaras de mosaico en un vehículo, descubrieron que podían engañar a los modelos de IA en la detección del radar, haciendo que el vehículo desapareciera de su radar.

El trabajo sobre máscaras de azulejos fue publicado en Actas de la Conferencia ACM SIGSAC 2023 sobre seguridad informática y de las comunicaciones en noviembre de 2023.

Investigadores investigan la seguridad de la IA en los coches sin conductor y encuentran vulnerabilidades

Los investigadores de la UB utilizaron impresoras 3D y láminas de metal para fabricar objetos con formas geométricas específicas que pudieran colocarse estratégicamente en un vehículo para hacerlo desaparecer de la detección por radar. Crédito: Universidad de Buffalo

Los motivos del ataque pueden incluir fraude de seguros y competencia de AV.

Zhu señala que si bien la IA puede procesar grandes cantidades de información, también puede confundirse y proporcionar información incorrecta si recibe instrucciones especiales que no fue entrenada para manejar.

«Supongamos que tenemos una foto de un gato y que la IA puede identificar correctamente que se trata de un gato. Pero si cambiamos ligeramente algunos píxeles de la imagen, la IA podría pensar que se trata de la imagen de un perro», afirma Zhu. «Se trata de un ejemplo antagónico de IA. En los últimos años, los investigadores han encontrado o diseñado muchos ejemplos antagónicos para diferentes modelos de IA. Por lo tanto, nos preguntamos: ¿es posible diseñar ejemplos para los modelos de IA en vehículos autónomos?».

Los investigadores observaron que los posibles atacantes podrían colocar subrepticiamente un objeto hostil en un vehículo antes de que el conductor comience el viaje, estacione temporalmente o se detenga en un semáforo. Incluso podrían colocar un objeto en algo que un peatón esté usando, como una mochila, borrando efectivamente la detección de ese peatón, dice Zhu.

Las posibles motivaciones de tales ataques incluyen provocar accidentes por fraude de seguros, competencia entre empresas de conducción autónoma o un deseo personal de lastimar al conductor o a los pasajeros de otro vehículo.

Es importante señalar, dicen los investigadores, que los ataques simulados presuponen que el atacante tiene pleno conocimiento del sistema de detección de objetos por radar del vehículo de la víctima. Si bien es posible obtener esta información, tampoco es muy probable que lo haga el público en general.

La seguridad va a la zaga de otras tecnologías

La mayoría de la tecnología de seguridad de los vehículos autónomos se centra en la parte interna del vehículo, mientras que pocos estudios analizan las amenazas externas, afirma Zhu.

«La seguridad se ha quedado un poco rezagada respecto del resto de la tecnología», afirma.

Aunque los investigadores han buscado formas de detener estos ataques, aún no han encontrado una solución definitiva.

«Creo que queda mucho por hacer para crear una defensa infalible», afirma Zhu. «En el futuro, nos gustaría investigar la seguridad no sólo de los radares, sino también de otros sensores como la cámara y la planificación del movimiento. Y también esperamos desarrollar algunas soluciones de defensa para mitigar estos ataques».

Más información:
Yang Lou et al, Un primer ataque de predicción de trayectorias en el mundo físico a través de engaños inducidos por LiDAR en la conducción autónoma, arXiv (2024). DOI: 10.48550/arxiv.2406.11707

Yi Zhu et al, Ataques maliciosos contra la fusión de múltiples sensores en la conducción autónoma, Actas de la 30ª Conferencia internacional anual sobre computación móvil y redes (2024). Número de artículo: 10.1145/3636534.3649372

Yi Zhu et al, TileMask: un ataque basado en reflexión pasiva contra la detección de objetos por radar de ondas milimétricas en conducción autónoma, Actas de la Conferencia ACM SIGSAC 2023 sobre seguridad informática y de las comunicaciones (2023). Documento de la investigación: 10.1145/3576915.3616661

Información de la revista:
arXiv


Proporcionado por la Universidad de Buffalo


Citación:Los investigadores investigan la seguridad de la IA en los coches sin conductor y encuentran vulnerabilidades (2024, 2 de septiembre) recuperado el 2 de septiembre de 2024 de https://techxplore.com/news/2024-09-probe-safety-ai-driverless-cars.html

Este documento está sujeto a derechos de autor. Salvo que se haga un uso legítimo con fines de estudio o investigación privados, no se podrá reproducir ninguna parte del mismo sin autorización por escrito. El contenido se ofrece únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Descargue la aplicación empresarial con inteligencia artificial Spotlight

Descargue la aplicación empresarial con inteligencia artificial Spotlight

¿CVP acaba de anunciar el lanzamiento de una nueva cámara Sony? No lo creo…