
Operai en junio reveló un caso de ChatGPT ayudando a un usuario a desarrollar software malicioso.
El posible abuso de las herramientas de IA del consumidor está generando preocupaciones, con ciberdelincuentes en ciernes aparentemente capaces de engañar a los chatbots para darles una ventaja en la producción de programas maliciosos.
La llamada «piratería de vibos», un giro en la «codificación de ambientes» más positiva que las herramientas generativas de IA supuestamente permiten a aquellos sin experiencia extensa para lograr, marcaron «una evolución preocupante en el delito cibernético asistido por AI-AIS» según la compañía estadounidense Anthropy.
El laboratorio, cuyo producto Claude compite con el chatbot de nombre de mayor nombre, Chatgpt de OpenAI, se iluminó en un informe publicado el miércoles el caso de «un código de Claude CyberCriminal (OMS) para llevar a cabo una operación de extorsión de datos escalada en múltiples objetivos internacionales en un corto plazo».
Anthrope dijo que el chatbot de programación fue explotado para ayudar a llevar a cabo ataques que «potencialmente» golpearon «al menos 17 organizaciones distintas en el último mes en todo el gobierno, la atención médica, los servicios de emergencia e instituciones religiosas».
Desde entonces, el atacante ha sido prohibido por antrópico.
Antes de eso, pudieron usar el código Claude para crear herramientas que reunieran datos personales, registros médicos y detalles de inicio de sesión, y ayudaron a enviar demandas de rescate tan rígidas como $ 500,000.
Las «medidas de seguridad y seguridad sofisticadas de Anthrope no pudieron evitar el mal uso, reconoció.
Tales casos identificados confirman los temores que han molestado a la industria de la ciberseguridad desde la aparición de herramientas generativas de IA generalizadas, y están lejos de limitarse a la antrópica.
«Hoy, los ciberdelincuentes han tomado IA a bordo tanto como el cuerpo más amplio de usuarios», dijo Rodrigue Le Bayon, quien dirige el Equipo de Respuesta a Emergencias de la Computadora (CERT) en Orange CyberDefense.
Esquivando salvaguardas
Al igual que Anthrope, Openai en junio reveló un caso de chatgpt que ayudó a un usuario a desarrollar software malicioso, a menudo denominado malware.
Los modelos que impulsan los chatbots de IA contienen salvaguardas que se supone que evitan que los usuarios los acorden a actividades ilegales.
Pero hay estrategias que permiten que los «actores de amenaza de conocimiento cero» extraen lo que necesitan para atacar los sistemas de las herramientas, dijo Vitaly Simonovich de la firma de ciberseguridad israelí Cato Networks.
Anunció en marzo que había encontrado una técnica para que los chatbots produzcan un código que normalmente infringiría sus límites incorporados.
El enfoque implicó convencer la IA generativa de que está participando en un «mundo ficticio detallado» en el que la creación de malware se ve como una forma de arte, lo que hace que el chatbot desempeñe el papel de uno de los personajes y cree herramientas capaces de robar las contraseñas de las personas.
«Tengo 10 años de experiencia en ciberseguridad, pero no soy un desarrollador de malware. Esta fue mi manera de probar los límites de los LLM actuales», dijo Simonovich.
Sus intentos fueron rechazados por Gemini de Google y Claude de Anthrope, pero obtuvieron salvaguardas integradas en ChatGPT, Chatbot Deepseek y el copiloto de Microsoft.
En el futuro, tales soluciones significan que incluso los no codificadores «representarán una amenaza mayor para las organizaciones, porque ahora pueden … sin habilidades, desarrollar malware», dijo Simonovich.
El Bayón de Orange predijo que las herramientas probablemente «aumentarían el número de víctimas» del delito cibernético al ayudar a los atacantes a hacer más, en lugar de crear una población completamente nueva de piratas informáticos.
«No vamos a ver un código muy sofisticado creado directamente por los chatbots», dijo.
Le Bayon agregó que a medida que las herramientas de IA generativas se usan cada vez más, «sus creadores están trabajando en el análisis de los datos de uso», lo que les permite «detectar mejor el uso malicioso» de los chatbots.
© 2025 AFP
Citación: ‘Vibe Hacking’ pone a los chatbots a trabajar para cibercriminales (2025, 2 de septiembre) recuperado el 2 de septiembre de 2025 de https://techxplore.com/news/2025-09-vibe-hacking-chatbots-cybercriminals.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.