Actualmente, Agentic RAG está recibiendo mucha atención como una forma práctica de reducir (o, dependiendo de la audacia del proveedor, eliminar) las alucinaciones causadas por las herramientas de inteligencia artificial generativa (genAI). Lamentablemente, es posible que no reduzca las alucinaciones, pero podría abrir la puerta a otros problemas.
Para ser claros, no hay nada malo en Agentic RAG (que significa generación aumentada de recuperación); funciona bien para algunos usuarios, pero para otros es decepcionante, costoso, requiere mucho trabajo y no siempre cumple sus promesas clave.
Agentic RAG está diseñado para permitir la integración de bases de datos y fuentes de datos adicionales, de modo que un algoritmo genAI tenga una gama más amplia de información para sus hallazgos iniciales. Pero usar IA para gestionar IA, en pocas palabras, agregar Aún más La IA en la ecuación no siempre produce mejores resultados.
Hablé con dos expertos en genAI que deberían saberlo: Alan Nichol, director de tecnología de Rasa, y el especialista en agentes Sandi Besen.
“RAG Agentic es una palabra de moda innecesaria”, dijo Nichol. “Simplemente significa agregar un bucle alrededor de su [large language models] y llamadas de recuperación. El mercado se encuentra en una situación extraña en la que agregar un bucle ‘while’ adicional o una declaración ‘if’ al código se promociona como un método nuevo y revolucionario. Los agentes web de última generación solo logran una tasa de éxito del 25 %, una cifra inaceptable en cualquier contexto de software.
“Las empresas y los desarrolladores deberían desarrollar de forma explícita cierta lógica empresarial en código normal”, afirmó. “Pueden utilizar los LLM para convertir la información del usuario en formatos estructurados y parafrasear los resultados de búsqueda, haciéndolos sonar más naturales”.
Nichol sostuvo que Agentic RAG es a menudo el enfoque equivocado para las necesidades de análisis de datos empresariales. “Agentic RAG es la forma equivocada de pensar en el problema”, dijo. “Cualquier RAG que funcione bien es simplemente un simple motor de búsqueda sobre el que se espolvorea un poco de magia LLM”.
Si bien esa táctica puede funcionar, el departamento de TI debería dejar de pensar que “la manera de resolver este problema (de alucinaciones) es agregar una convocatoria más para el programa de LLM”, dijo Nichol. “La gente espera que este tipo de enfoque resuelva mágicamente el problema de raíz”.
¿Y cuál es el problema de fondo? La calidad de los datos.
Nichol dijo que a menudo ve empresas que han «construido un mal sistema de recuperación, porque no han limpiado sus datos. Es aburrido y poco atractivo limpiar información obsoleta, como el control de versiones y la gestión de conflictos de datos. En lugar de eso, agregan siete llamadas más al LLM para disimular todos los problemas de datos que tienen. Simplemente va a poner mucho trabajo en el LLM y no va a funcionar muy bien».
“No va a resolver tu problema, pero lo sentirás así”.
Besen, un investigador de IA aplicada en IBM, sostiene que la agencia puede de hecho reducir las alucinaciones, pero coincide con Nichol en que podría no ser siempre el mejor enfoque empresarial.
Besen advierte que agregar complejidad a un paquete genAI (algo que ya es complejo) puede generar problemas inesperados.
“Cuando se aumenta la cantidad de agentes, se aumenta inherentemente la variabilidad de una solución”, dijo. “Sin embargo, con la arquitectura adecuada implementada, es decir, con el equipo de agentes [is] “Si se construye de manera eficaz y se dan las indicaciones adecuadas, debería haber una menor probabilidad de alucinaciones porque se puede incorporar la evaluación y el razonamiento. Por ejemplo, se puede tener un agente que recupera el contenido y otro que evalúa si la información recuperada es relevante para responder la pregunta original. Con el RAG tradicional, no había una verificación del razonamiento en lenguaje natural para determinar si la información recuperada era relevante”.
Como cualquier otra cosa en programación, esto puede o no dar los resultados deseados. “Hay una manera de que tenga mucho éxito y otra de que no. El truco es ajustar nuestras expectativas a las capacidades de la tecnología”, dijo Besen. “La capacidad de un agente es tan buena como el modelo de lenguaje que lo sustenta. La capacidad de razonamiento depende del modelo de lenguaje”.
Dicho esto, Besen enfatizó que, a pesar de lo que afirman algunos proveedores de IA, incluso la mejor implementación de RAG agéntica nunca hará que desaparezcan las alucinaciones. “Es imposible eliminar por completo las alucinaciones en este momento. Pero podría haber una reducción en las alucinaciones”.
Los ejecutivos de TI deben decidir si pueden vivir con esa incertidumbre y el riesgo de recibir respuestas incorrectas de vez en cuando. “Si desea obtener el mismo resultado siempre, no utilice genAI”, dijo Besen. En cuanto a aceptar alucinaciones ocasionales, Besen sugirió que el departamento de TI considere cómo reaccionaría si un empleado o contratista las hiciera.
“¿Está usted de acuerdo en tener un empleado que no tiene razón el 10% del tiempo?”
GIPHY App Key not set. Please check settings