in

Los nuevos agentes de IA de Microsoft pueden detallar cómo razonan

Si se pregunta cómo funcionan los agentes de IA, los nuevos agentes de AI de copilot de Microsoft proporcionan respuestas en tiempo real sobre cómo se analizan y obtienen datos para alcanzar los resultados.

El investigador y los analistas agentes, anunciado el martesanalice más profundamente las fuentes de datos, como el correo electrónico, el chat o las bases de datos dentro de una organización, para producir informes de investigación, analizar estrategias o convertir información sin procesar en datos significativos.

En el proceso, los agentes brindan a los usuarios una visión ocular de las aves en cada paso de cómo están pensando y analizando datos para formular respuestas. Los agentes están integrados con Microsoft 365 Copilot.

Los agentes combinan herramientas de Microsoft con los modelos más nuevos de OpenAI, que no responden preguntas de inmediato, pero pueden razonar mejor. Los modelos piensan más profundamente generando tokens adicionales o dibujando más información de fuentes externas antes de obtener una respuesta.

El agente de los investigadores toma los modelos de razonamiento de OpenAI, verifica la eficacia del modelo, se burla de extraer datos de fuentes a través de Orquestadores de Microsoft y luego aumenta el nivel de confianza en la recuperación y los resultados de los resultados, según la información proporcionada por Microsoft.

Un video de demostración proporcionado por Microsoft muestra la interfaz Copilot ChatBot que publica su «cadena de pensamiento», por ejemplo, el proceso paso a paso de buscar datos empresariales y de dominio, identificando líneas de productos, oportunidades y más, siendo la salida definitiva el documento final.

El enfoque es un beneficio importante para Microsoft, ya que la mayoría de los modelos operan como una caja negra, dijo Jack Gold, analista principal de J. Gold Associates.

La responsabilidad y la capacidad de ver cómo los modelos obtienen sus resultados son importantes para asegurar a los usuarios que la tecnología es segura, efectiva y no alucinante, dijo Gold.

«Gran parte de la IA hoy es un ‘agujero negro’ cuando se trata de poder descubrir cómo llegó a sus resultados, la mayoría de las referencias, pero no la lógica sobre cómo llegaron al resultado final», dijo Gold. «Cualquier transparencia que pueda ofrecer es hacer que los usuarios se sientan más cómodos».

El agente de investigadores de copilotes puede analizar más profundamente los datos internos para desarrollar estrategias comerciales o identificar oportunidades de mercado inexploradas, tareas típicas de los investigadores. Proporciona investigación altamente técnica y trabajo de estrategia que esperaría pagar a un consultor, investigador o analista altamente calificado, dijo una portavoz de Microsoft.

«Su capacidad para combinar los datos de trabajo y los datos web de un usuario significa que sus respuestas son actuales, pero también contextualmente relevantes para las necesidades personales de cada usuario», dijo la portavoz.

Por ejemplo, dentro del agente de los investigadores, un usuario puede consultar el chatbot sobre la exploración de nuevas oportunidades de negocios. En el proceso de análisis de datos, el agente comparte cómo el modelo se acerca a la consulta. Hará preguntas aclaratorias, publicará un plan para llegar a una respuesta, mostrará las fuentes de datos de las que está dibujando información y explicará cómo se recopilan, categorizan y analizan los datos.

El agente de los analistas toma datos sin procesar y genera información, generalmente el trabajo de un científico de datos. La herramienta está diseñada para trabajadores que usan datos para obtener información y tomar decisiones sin conocimiento del análisis de datos avanzados como la codificación de python, dijo la portavoz.

Por ejemplo, el agente de analistas puede tomar una hoja de cálculo con gráficos de datos no estructurados y compartir ideas. Similar al agente del investigador, el agente de analistas toma una pregunta a través de la interfaz de copilot, crea un plan para analizar los datos y determina las herramientas de Python para generar ideas. El agente comparte su proceso paso a paso de cómo está respondiendo a la consulta e incluso comparte el código de Python utilizado para generar la respuesta.

Microsoft ha tenido una serie de «fallas» documentadas relacionadas con herramientas problemáticas de IA generativa (Genai), como el retiro de Windows, una función de copiloto que utiliza instantáneas para registrar el historial de actividad en una PC, dijo Gold.

Dar a los usuarios una sensación de seguridad es beneficiosa para que los usuarios prueben copilotos, dijo Gold. «Piense en ello como tener el automóvil más seguro de la carretera cuando va a seleccionar un auto nuevo para su familia», dijo.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

65525

No se deje engañar por las capturas de pantalla ‘no representativas’ iOS 19, Fleater advierte

2026 Porsches todavía no tendrá Carplay de próxima generación