in

Las herramientas de inteligencia artificial pueden ayudar a los piratas informáticos a colocar fallas ocultas en los chips de las computadoras, según un estudio

chip de computadora

chip de computadora

Crédito: Pixabay/CC0 Dominio público

Según una nueva investigación de la Escuela de Ingeniería Tandon de la Universidad de Nueva York, se pueden utilizar sistemas de inteligencia artificial ampliamente disponibles para insertar deliberadamente vulnerabilidades de seguridad difíciles de detectar en el código que define los chips de computadora, una advertencia sobre la posible utilización de la IA como arma en el diseño de hardware.

En un estudio publicado por Seguridad y privacidad de IEEEun equipo de investigación de NYU Tandon demostró que grandes modelos de lenguaje como ChatGPT podrían ayudar tanto a principiantes como a expertos a crear «troyanos de hardware», modificaciones maliciosas ocultas dentro de diseños de chips que pueden filtrar información confidencial, desactivar sistemas u otorgar acceso no autorizado a atacantes.

Para probar si la IA podría facilitar modificaciones maliciosas de hardware, los investigadores organizaron una competencia durante dos años llamada AI Hardware Attack Challenge como parte de CSAW, un evento anual de ciberseguridad dirigido por estudiantes y organizado por el Centro de Ciberseguridad de la Universidad de Nueva York.

Los participantes tuvieron el desafío de utilizar IA generativa para insertar vulnerabilidades explotables en diseños de hardware de código abierto, incluidos procesadores RISC-V y aceleradores criptográficos, y luego demostrar cómo funcionan los ataques.

«Las herramientas de inteligencia artificial definitivamente simplifican el proceso de agregar estas vulnerabilidades», afirmó Jason Blocklove, Ph.D. candidato en el Departamento de Ingeniería Eléctrica e Informática (ECE) de NYU Tandon y autor principal del estudio. «Algunos equipos automatizaron completamente el proceso. Otros interactuaron con grandes modelos de lenguaje para comprender mejor el diseño, identificar dónde se podrían insertar vulnerabilidades y luego escribir código malicioso relativamente simple».

Las presentaciones más efectivas provinieron de equipos que crearon herramientas automatizadas que requerían una supervisión humana mínima. Estos sistemas podrían analizar el código de hardware para identificar ubicaciones vulnerables y luego generar e insertar troyanos personalizados sin intervención humana directa. Las fallas generadas por la IA incluían puertas traseras que otorgaban acceso no autorizado a la memoria, mecanismos para filtrar claves de cifrado y lógica diseñada para bloquear sistemas en condiciones específicas.

Quizás lo más preocupante es que varios equipos con poca experiencia en hardware crearon con éxito ataques sofisticados. Dos presentaciones provinieron de equipos de estudiantes universitarios con conocimientos previos mínimos sobre diseño de chips o seguridad, pero ambas produjeron vulnerabilidades clasificadas de gravedad media a alta según los sistemas de puntuación estándar.

La mayoría de los modelos de lenguajes grandes incluyen salvaguardas diseñadas para prevenir el uso malicioso, pero los participantes de la competencia encontraron que estas protecciones eran relativamente fáciles de eludir. Un equipo ganador elaboró ​​indicaciones que enmarcaban solicitudes maliciosas como escenarios académicos, induciendo con éxito a la IA a generar troyanos de hardware que funcionaran. Otros equipos descubrieron que solicitar respuestas en idiomas menos comunes podía evitar por completo los filtros de contenido.

La permanencia de las vulnerabilidades del hardware amplifica el riesgo. A diferencia de las fallas de software que se pueden corregir mediante actualizaciones, los errores en los chips fabricados no se pueden corregir sin reemplazar los componentes por completo.

«Una vez que se ha fabricado un chip, no hay manera de arreglar nada sin reemplazar los componentes mismos», dijo Blocklove. «Es por eso que los investigadores se centran en la seguridad del hardware. Nos estamos adelantando a problemas que aún no existen en el mundo real pero que posiblemente podrían ocurrir. Si tal ataque ocurriera, las consecuencias podrían ser catastróficas».

La investigación sigue a trabajos anteriores del mismo equipo que demuestran los beneficios potenciales de la IA para el diseño de chips. En su «Chat de chips«, los investigadores demostraron que ChatGPT podría ayudar a diseñar un microprocesador funcional. El nuevo estudio revela la naturaleza dual de la tecnología. Las mismas capacidades que podrían democratizar el diseño de chips también podrían permitir nuevas formas de ataque.

«Esta competencia ha puesto de relieve tanto la necesidad de mejorar las barreras de seguridad LLM como la gran necesidad de mejorar las herramientas de verificación y análisis de seguridad», escribieron los investigadores.

Los investigadores enfatizaron que los modelos de IA disponibles comercialmente representan solo el comienzo de amenazas potenciales. Los modelos de código abierto más especializados, que siguen en gran medida inexplorados para estos fines, podrían resultar aún más capaces de generar ataques de hardware sofisticados.

Más información:
Jason Blocklove et al, Bajando el listón: cómo los piratas informáticos de hardware pueden utilizar modelos de lenguaje grandes como copiloto, Seguridad y privacidad de IEEE (2025). DOI: 10.1109/mseg.2025.3600140

Proporcionado por la Escuela de Ingeniería Tandon de la Universidad de Nueva York


Citación: Las herramientas de inteligencia artificial pueden ayudar a los piratas informáticos a instalar fallas ocultas en los chips de computadora, según un estudio (2025, 9 de octubre) recuperado el 9 de octubre de 2025 de https://techxplore.com/news/2025-10-ai-tools-hackers-hidden-flaws.html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.



Fuente

Apple se burla de las PC con Windows en ‘The Underdogs: BSOD’

El crossover Doja Cat de Fortnite comenzó con un momento muy incómodo

El crossover Doja Cat de Fortnite comenzó con un momento muy incómodo