|
La IA generativa ha conquistado al mundo y estamos empezando a ver la próxima ola de adopción generalizada de IA con el potencial de que cada aplicación y experiencia del cliente se reinventen con IA generativa. La IA generativa le permite crear nuevos contenidos e ideas, incluidas conversaciones, historias, imágenes, videos y música. La IA generativa está impulsada por modelos de aprendizaje automático muy grandes que se entrenan previamente en grandes cantidades de datos, comúnmente denominados modelos básicos (FM).
Un subconjunto de FM llamados modelos de lenguaje extenso (LLM) se entrena en billones de palabras en muchas tareas de lenguaje natural. Estos LLM pueden comprender, aprender y generar texto que es casi indistinguible del texto producido por humanos. Y no solo eso, los LLM también pueden participar en conversaciones interactivas, responder preguntas, resumir diálogos y documentos y brindar recomendaciones. Pueden impulsar aplicaciones en muchas tareas e industrias, incluida la escritura creativa para marketing, el resumen de documentos para fines legales, la investigación de mercado para finanzas, la simulación de ensayos clínicos para el cuidado de la salud y la escritura de códigos para el desarrollo de software.
Las empresas se están moviendo rápidamente para integrar la IA generativa en sus productos y servicios. Esto aumenta la demanda de científicos e ingenieros de datos que entiendan la IA generativa y cómo aplicar LLM para resolver casos de uso empresarial.
Es por eso que estoy emocionado de anunciar que DeepLearning.AI y AWS lanzan conjuntamente un nuevo curso práctico IA generativa con grandes modelos de lenguaje en la plataforma educativa de Coursera que prepara a los científicos e ingenieros de datos para que se conviertan en expertos en la selección, capacitación, ajuste e implementación de LLM para aplicaciones del mundo real.
DeepLearning.AI fue fundada en 2017 por un pionero en educación y aprendizaje automático andres ng con la misión de hacer crecer y conectar a la comunidad global de IA brindando educación en IA de clase mundial.
DeepLearning.AI se asoció con especialistas en IA generativa de AWS, incluidos chris fregly, Shelbee Eigenbrode, mike cámaras, y a mí para desarrollar e impartir este curso para científicos e ingenieros de datos que quieran aprender a crear aplicaciones de IA generativa con LLM. Desarrollamos el contenido de este curso bajo la guía de Andrew Ng y con aportes de varios expertos de la industria y científicos aplicados en Amazon, AWS y Hugging Face.
Aspectos destacados del curso
Este es el primer curso integral de Coursera centrado en los LLM que detalla el ciclo de vida típico del proyecto de IA generativa, incluida la determinación del alcance del problema, la elección de un LLM, la adaptación del LLM a su dominio, la optimización del modelo para la implementación y la integración en las aplicaciones comerciales. El curso no solo se enfoca en los aspectos prácticos de la IA generativa, sino que también destaca la ciencia detrás de los LLM y por qué son efectivos.
El curso a pedido se divide en tres semanas de contenido con aproximadamente 16 horas de videos, cuestionarios, laboratorios y lecturas adicionales. Los laboratorios prácticos alojados por un socio de AWS Vocareum le permite aplicar las técnicas directamente en un entorno de AWS proporcionado con el curso e incluye todos los recursos necesarios para trabajar con los LLM y explorar su eficacia.
En solo tres semanas, el curso lo prepara para usar IA generativa para aplicaciones comerciales y del mundo real. Echemos un vistazo rápido al contenido de cada semana.
Semana 1: casos de uso de IA generativa, ciclo de vida del proyecto y capacitación previa del modelo
En la semana 1, examinará la arquitectura del transformador que impulsa muchos LLM, verá cómo se entrenan estos modelos y considerará los recursos informáticos necesarios para desarrollarlos. También explorará cómo guiar la salida del modelo en el momento de la inferencia utilizando ingeniería rápida y especificando ajustes de configuración generativa.
En el primer laboratorio práctico, construirá y comparará diferentes indicaciones para una tarea generativa determinada. En este caso, resumirá conversaciones entre varias personas. Por ejemplo, imagine resumir conversaciones de soporte entre usted y sus clientes. Explorará técnicas de ingeniería rápida, probará diferentes parámetros de configuración generativa y experimentará con varias estrategias de muestreo para ganar intuición sobre cómo mejorar las respuestas del modelo generado.
Semana 2: ajuste fino, ajuste fino de parámetros eficientes (PEFT) y evaluación del modelo
En la semana 2, explorará opciones para adaptar modelos previamente entrenados a tareas y conjuntos de datos específicos a través de un proceso llamado ajuste fino. Una variante de ajuste fino, llamada ajuste fino eficiente de parámetros (PEFT), le permite ajustar modelos muy grandes utilizando recursos mucho más pequeños, a menudo una sola GPU. También aprenderá sobre las métricas utilizadas para evaluar y comparar el desempeño de los LLM.
En el segundo laboratorio, se familiarizará con el ajuste fino de parámetros eficientes (PEFT) y comparará los resultados con la ingeniería rápida del primer laboratorio. Esta comparación lado a lado lo ayudará a ganar intuición sobre el impacto cualitativo y cuantitativo de las diferentes técnicas para adaptar un LLM a los conjuntos de datos y casos de uso específicos de su dominio.
Semana 3: ajuste fino con aprendizaje de refuerzo a partir de comentarios humanos (RLHF), generación de recuperación aumentada (RAG) y LangChain
En la semana 3, hará que las respuestas de LLM sean más parecidas a las humanas y las alineará con las preferencias humanas utilizando una técnica llamada aprendizaje reforzado a partir de la retroalimentación humana (RLHF). RLHF es clave para mejorar la honestidad, la inocuidad y la utilidad del modelo. También explorará técnicas como la generación aumentada por recuperación (RAG) y bibliotecas como LangChain que permiten que el LLM se integre con fuentes de datos personalizadas y API para mejorar aún más la respuesta del modelo.
En la práctica de laboratorio final, se familiarizará con RLHF. Ajustará el LLM utilizando un modelo de recompensa y un algoritmo de aprendizaje por refuerzo llamado optimización de política proximal (PPO) para aumentar la inocuidad de las respuestas de su modelo. Finalmente, evaluará la inocuidad del modelo antes y después del proceso RLHF para obtener intuición sobre el impacto de RLHF en la alineación de un LLM con los valores y preferencias humanos.
Inscríbase hoy
IA generativa con grandes modelos de lenguaje es un curso a pedido de tres semanas para científicos e ingenieros de datos que desean aprender a crear aplicaciones de IA generativa con LLM.
Inscríbase hoy mismo en la IA generativa con grandes modelos de lenguaje.
— Antje