Un pequeño equipo de investigadores de inteligencia artificial de Adobe Inc., en colaboración con un colega de la Universidad de Auburn y otro de Georgia Tech, ha desarrollado un modelo de lenguaje pequeño (SLM) que, según afirman, se puede ejecutar localmente en un teléfono inteligente sin acceso a la nube. . El grupo ha escrito un papel describiendo su nueva aplicación, a la que llaman SlimLM, y la han publicado en el arXiv servidor de preimpresión.
A medida que la tecnología LLM continúa madurando, los investigadores de todo el mundo continúan encontrando nuevas formas de mejorarla. En este nuevo esfuerzo, el equipo de investigación ha encontrado una manera de cortar el cable para un tipo específico de aplicación de IA: el procesamiento de documentos localmente.
A medida que los LLM como ChatGPT se vuelven más populares, los usuarios se preocupan más por la privacidad. Y no se trata solo de individuos: empresas grandes y pequeñas han adoptado aplicaciones de inteligencia artificial que ayudan con una variedad de procesos comerciales, algunos de los cuales requieren un alto grado de privacidad.
La razón por la que los LLM no son privados en este momento es que parte de su trabajo y gran parte de su almacenamiento se encuentran en dispositivos en la nube, que pueden ser pirateados. La solución obvia, como han observado personas en el campo, es cortar el cable y ejecutar modelos de lenguaje pequeño (SLM) localmente sin necesidad de la nube, de modo que se puedan resolver los problemas de privacidad.
Algunos de los actores más importantes en el campo han estado trabajando con ese fin: Google, Apple y Meta han desarrollado aplicaciones que se pueden ejecutar sin acceder a la nube. Pero hasta ahora ninguno se está utilizando en el mundo real. Ahí es donde SlimLM se diferencia, al menos según el equipo. Planean que la aplicación esté disponible para los usuarios «pronto».
Los investigadores reconocen que la razón por la que su producto se puede utilizar localmente es por su especificidad: no es un chatbot ni una herramienta de uso general. En cambio, se puede utilizar para tareas de documentos específicas, como crear un resumen o responder preguntas de actualidad. Eso significa que la aplicación fue entrenada solo en el procesamiento de documentos, lo que reduce la cantidad de parámetros: la versión más pequeña actualmente funciona con solo 125 millones. También significa que tiene mucho menos trabajo que hacer en el teléfono inteligente.
Los investigadores sugieren que su aplicación también representa un paso hacia aplicaciones de IA más localizadas y un grado mucho mayor de privacidad para todo tipo de aplicaciones.
Más información:
Thang M. Pham et al, SlimLM: un modelo de lenguaje pequeño eficiente para la asistencia de documentos en el dispositivo, arXiv (2024). DOI: 10.48550/arxiv.2411.09944
© 2024 Red Ciencia X
Citación: Adobe anuncia el desarrollo de SLM que puede ejecutarse localmente en un teléfono sin conexión a la nube (2024, 20 de noviembre) obtenido el 20 de noviembre de 2024 de https://techxplore.com/news/2024-11-adobe-slm-locally-cloud. HTML
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings