in

La investigación de ingeniería descubre vulnerabilidades críticas en robots habilitados para IA

La investigación de ingeniería de Penn descubre vulnerabilidades críticas en robots habilitados para IA

La investigación de ingeniería de Penn descubre vulnerabilidades críticas en robots habilitados para IA

Los investigadores demostraron que las indicaciones maliciosas pueden «hacer jailbreak» a los robots impulsados ​​por IA y hacer que realicen acciones inseguras. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

Dentro de su nueva iniciativa de Innovación Responsable, los investigadores de Penn Engineering descubrieron que ciertas características de los robots gobernados por IA conllevan vulnerabilidades y debilidades de seguridad que antes no estaban identificadas y eran desconocidas. La investigación tiene como objetivo abordar la vulnerabilidad emergente para garantizar la implementación segura de grandes modelos de lenguaje (LLM) en robótica.

«Nuestro trabajo muestra que, en este momento, los grandes modelos de lenguaje simplemente no son lo suficientemente seguros cuando se integran con el mundo físico», dice George Pappas, profesor de Transporte en Ingeniería Eléctrica y de Sistemas (ESE) de la Fundación UPS, en Ciencias de la Información y la Computación ( CIS), y en Ingeniería Mecánica y Mecánica Aplicada (MEAM).

En el nuevo artículo, Pappas, quien también se desempeña como Decano Asociado de Investigación en Penn Engineering, y sus coautores advierten que una amplia variedad de robots controlados por IA pueden ser manipulados o pirateados.

RoboPAIR, el algoritmo que desarrollaron los investigadores, necesitó sólo unos días para lograr una tasa de «jailbreak» del 100%, evitando las barreras de seguridad en tres sistemas robóticos diferentes: el Unitree Go2un robot cuadrúpedo utilizado en diversas aplicaciones; el Chacal de Robótica Clearpathun vehículo con ruedas que se utiliza a menudo para investigaciones académicas; y el Maestría en Delfinesun simulador de conducción autónoma diseñado por NVIDIA. Por ejemplo, al sortear las barandillas de seguridad, el sistema de conducción autónoma podría manipularse para acelerar los cruces peatonales.

La investigación de ingeniería de Penn descubre vulnerabilidades críticas en robots habilitados para IA

Los investigadores demostraron que se puede engañar a los robots impulsados ​​por IA para que realicen una amplia variedad de comportamientos maliciosos, lo que plantea dudas sobre la seguridad de los robots impulsados ​​por IA. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

Antes de publicar el estudio, Penn Engineering informó a las empresas sobre las vulnerabilidades de sus sistemas y está trabajando con ellas para utilizar la investigación como marco para avanzar en las pruebas y validación de los protocolos de seguridad de IA de estos fabricantes.

«Lo que es importante subrayar aquí es que los sistemas se vuelven más seguros cuando se encuentran sus debilidades. Esto es cierto para la ciberseguridad. Esto también es válido para la seguridad de la IA», dice Alexander Robey, reciente doctorado en ingeniería de Penn. Licenciado en ESE, actual becario postdoctoral en la Universidad Carnegie Mellon y primer autor del artículo.

«De hecho, el equipo rojo de IA, una práctica de seguridad que implica probar los sistemas de IA para detectar posibles amenazas y vulnerabilidades, es esencial para salvaguardar los sistemas de IA generativos, porque una vez que se identifican las debilidades, se pueden probar e incluso entrenar estos sistemas para evitarlas. «

Lo que se requiere para abordar el problema, argumentan los investigadores, es menos un parche de software que una reevaluación integral de cómo se regula la integración de la IA en los sistemas físicos.

  • La investigación de ingeniería de Penn descubre vulnerabilidades críticas en robots habilitados para IA

    Basándose en trabajos anteriores sobre chatbots de jailbreak, los investigadores crearon un algoritmo que puede hacer jailbreak de manera confiable a robots impulsados ​​​​por IA. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

  • La investigación de ingeniería de Penn descubre vulnerabilidades críticas en robots habilitados para IA

    Los investigadores demostraron que se puede hacer jailbreak a una variedad de robots diferentes usando este método, desde robots con sistemas cerrados hasta aquellos con sistemas abiertos, lo que sugiere que estas vulnerabilidades son sistémicas para los robots impulsados ​​por IA. Crédito: Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. Pappas

«Los hallazgos de este artículo dejan muy claro que tener un enfoque que priorice la seguridad es fundamental para desbloquear la innovación responsable», dice Vijay Kumar, decano de la familia Nemirovsky de Penn Engineering y otro coautor.

«Debemos abordar las vulnerabilidades intrínsecas antes de implementar robots habilitados para IA en el mundo real. De hecho, nuestra investigación está desarrollando un marco de verificación y validación que garantiza que los sistemas robóticos solo puedan (y deban) tomar acciones que se ajusten a las normas sociales».

Más información:
Liberación de robots controlados por LLM, (2024).

Proporcionado por la Universidad de Pensilvania


Citación: Investigación de ingeniería descubre vulnerabilidades críticas en robots habilitados para IA (2024, 17 de octubre) recuperado el 17 de octubre de 2024 de https://techxplore.com/news/2024-10-critical-vulnerabilities-ai-enabled-robots.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Anker y Jackery presentan grandes descuentos en accesorios de carga en Amazon

Plantas contra Zombies 3

Plantas vs. Zombies 3 está recibiendo una revisión importante y pronto se eliminará de la lista