in

El investigador desarrolla un modelo de lenguaje grande centrado en la seguridad para defenderse contra el malware

Chatgpt

Crédito: dominio público Unsplash/CC0

La seguridad era lo más importante cuando el Dr. Marcus Botacin, profesor asistente en el Departamento de Informática e Ingeniería, se enteró de grandes modelos de idiomas (LLM) como ChatGPT. Los LLM son un tipo de IA que puede elaborar rápidamente el texto. Algunos LLM, incluido ChatGPT, también pueden generar código de computadora. La botacina se preocupó de que los atacantes usarían las capacidades de LLM para escribir rápidamente cantidades masivas de malware.

«Cuando eres un investigador de seguridad (o paranoico de seguridad), ve nueva tecnología y piensas: ‘¿Qué podría salir mal? ¿Cómo pueden las personas abusar de este tipo de cosas?'», Dijo Botacin.

En un proyecto que comienza este año, Botacin planea desarrollar una LLM propia para abordar esta amenaza de seguridad. Comparó su proyecto para construir una versión más pequeña y centrada en la seguridad de ChatGPT.

«La idea es luchar con las mismas armas que los atacantes», dijo Botacin. «Si los atacantes usan LLM para crear millones de malwares a escala, queremos crear millones de reglas para defender a escala».

El malware a menudo muestra patrones únicos que se pueden usar como firmas, como huellas digitales, para identificarlo. Los planes de botacina para que su LLM use firmas para identificar automáticamente el malware y escribir reglas para defenderse.

Actualmente, los analistas humanos escriben estas reglas, pero esta tarea lleva mucho tiempo y requiere una experiencia sustancial, lo que dificulta que un humano defienda contra los atacantes que usan IA para generar una gran cantidad de código instantáneamente. Botacin quiere que su LLM sea una herramienta que los analistas puedan usar para complementar sus habilidades e identificar malware más rápido y con mayor precisión.

«La idea es, por supuesto, no reemplazar al analista, sino dejar al analista libre de pensar, guiar la máquina y luego dejar que la máquina haga el trabajo pesado para el analista», dijo Botacin.

Botacin todavía está decidiendo el formato de la interfaz de software para su LLM, puede ser un sitio web o código fuente que las personas pueden descargar, pero estará disponible para el público.

Aunque podría usarse preventivamente, la botacina anticipa que los analistas utilizarán este LLM para la respuesta a incidentes. Por ejemplo, un analista podría ejecutar el LLM en su computadora portátil, llevarla a una empresa y usarlo para buscar computadoras de red para firmas de malware.

Este proyecto se alinea con la botacina Otra investigación en curso donde está integrando la detección de malware en el hardware de la computadora como un enfoque preventivo.

Para hacer que el LLM lo sea lo suficientemente pequeño como para correr en una computadora portátil, «un chatgpt que corre en su bolsillo», el LLM requerirá un entrenamiento extenso. Realizar más capacitación durante el desarrollo permitirá un producto final más pequeño. La botacina tiene acceso a un clúster de unidades de procesamiento de gráficos (GPU) que usará para entrenar el LLM. Las GPU son ideales para capacitar a las LLM debido a su capacidad para procesar muchos datos simultáneamente.

El socio científico para la investigación de la botacina es el laboratorio de la ciencia física.

Proporcionado por la Universidad de Texas A&M


Citación: El investigador desarrolla un modelo de lenguaje grande centrado en la seguridad para defenderse contra el malware (2025, 20 de marzo) Consultado el 20 de marzo de 2025 de https://techxplore.com/news/2025-03-focused-large-language-defend-malware.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

65525

YouTube dice que los videos son borrosos para algunos usuarios de iOS, pero se acerca una solución

EU confirma que un iPhone sin portuario sería completamente legal