|
|
Hoy anunciamos la disponibilidad general de 18 modelos adicionales de peso abierto totalmente administrados en Amazon Bedrock de Google, MiniMax AI, Mistral AI, Moonshot AI, NVIDIA, OpenAI y Qwen, incluidos los nuevos modelos Mistral Large 3 y Ministral 3 3B, 8B y 14B.
Con este lanzamiento, Amazon Bedrock ahora ofrece casi 100 modelos sin servidor, ofreciendo una amplia y profunda gama de modelos de empresas líderes en inteligencia artificial, para que los clientes puedan elegir las capacidades precisas que mejor satisfagan sus necesidades únicas. Al monitorear de cerca tanto las necesidades de los clientes como los avances tecnológicos, ampliamos periódicamente nuestra selección seleccionada de modelos basados en las necesidades de los clientes y los avances tecnológicos para incluir nuevos modelos prometedores junto con los favoritos establecidos de la industria.
Esta expansión continua de ofertas de modelos diferenciados y de alto rendimiento ayuda a los clientes a mantenerse a la vanguardia de la innovación en IA. Puede acceder a estos modelos en Amazon Bedrock a través de la API unificada, evaluar, cambiar y adoptar nuevos modelos sin reescribir aplicaciones ni cambiar la infraestructura.
Nuevos modelos de IA de Mistral
Estos cuatro modelos de Mistral AI ahora están disponibles primero en Amazon Bedrock, cada uno optimizado para diferentes requisitos de rendimiento y costo:
- Mistral Grande 3 – Este modelo de peso abierto está optimizado para confiabilidad de instrucción, multimodal y de contexto largo. Destaca en la comprensión de documentos extensos, flujos de trabajo de uso de herramientas y agentes, trabajo de conocimiento empresarial, asistencia de codificación, cargas de trabajo avanzadas como tareas matemáticas y de codificación, análisis y procesamiento multilingüe y razonamiento multimodal con visión.
- Ministral 3 3B – El más pequeño de la familia Ministral 3 está optimizado para la implementación de una sola GPU con sólidas capacidades de lenguaje y visión. Muestra un rendimiento sólido en subtítulos de imágenes, clasificación de texto, traducción en tiempo real, extracción de datos, generación de contenido breve y aplicaciones livianas en tiempo real en dispositivos de vanguardia o de bajos recursos.
- Ministral 3 8B – El mejor modelo Ministral 3 para texto y visión está optimizado para la implementación de una sola GPU con alto rendimiento y espacio mínimo. Este modelo es ideal para interfaces de chat en entornos restringidos, descripción y comprensión de imágenes y documentos, casos de uso de agentes especializados y rendimiento equilibrado para sistemas locales o integrados.
- Ministral 3 14B – El modelo Ministral 3 más capaz ofrece un rendimiento de visión y texto de última generación optimizado para la implementación de una sola GPU. Puede utilizar casos de uso de agentes locales avanzados e implementaciones privadas de IA donde las capacidades avanzadas cumplen con restricciones prácticas de hardware.
Más opciones de modelos de peso abierto
Puede utilizar estos modelos de peso abierto para una amplia gama de casos de uso en todas las industrias:
| Proveedor de modelos | Nombre del modelo | Descripción | Casos de uso |
| Gema 3 4B | Modelo eficiente de texto e imagen que se ejecuta localmente en computadoras portátiles. Soporte multilingüe para aplicaciones de IA en el dispositivo. | IA en el dispositivo para aplicaciones móviles y perimetrales, inferencia local sensible a la privacidad, asistentes de chat multilingües, subtítulos y descripciones de imágenes y generación de contenido liviano. | |
| Gema 3 12B | Modelo equilibrado de texto e imagen para estaciones de trabajo. Comprensión de varios idiomas con implementación local para aplicaciones sensibles a la privacidad. | Aplicaciones de IA basadas en estaciones de trabajo; despliegue local para empresas; procesamiento de documentos multilingües, análisis de imágenes y preguntas y respuestas; y asistentes de IA que cumplen con la privacidad. | |
| Gema 3 27B | Potente modelo de texto e imagen para aplicaciones empresariales. Soporte multilingüe con implementación local para privacidad y control. | Implementación local empresarial, aplicaciones multimodales de alto rendimiento, comprensión avanzada de imágenes, servicio al cliente multilingüe y flujos de trabajo de IA sensibles a los datos. | |
| IA disparada a la luna | Kimi K2 pensando | Modelo de razonamiento profundo que piensa mientras utiliza herramientas. Maneja investigación, codificación y flujos de trabajo complejos que requieren cientos de acciones secuenciales. | Proyectos de codificación complejos que requieren planificación, flujos de trabajo de varios pasos, análisis y cálculo de datos y creación de contenido de formato largo con investigación. |
| IA MiniMax | Mini Max M2 | Creado para agentes de codificación y automatización. Destaca en ediciones de varios archivos, operaciones de terminales y en la ejecución eficiente de largas cadenas de llamadas de herramientas. | Agentes de codificación e integración del entorno de desarrollo integrado (IDE), edición de código de múltiples archivos, automatización de terminales y DevOps, orquestación de herramientas de cadena larga y desarrollo de software agente. |
| Mistral AI | Magistral Pequeño 1.2 | Destaca en matemáticas, codificación, tareas multilingües y razonamiento multimodal con capacidades de visión para una implementación local eficiente. | Tareas de matemáticas y codificación, análisis y procesamiento multilingüe y razonamiento multimodal con visión. |
| Voxtral Mini 1.0 | Modelo avanzado de comprensión de audio con transcripción, soporte multilingüe, preguntas y respuestas, resúmenes y llamadas de funciones. | Aplicaciones controladas por voz, conversión rápida de voz a texto y asistentes de voz sin conexión. | |
| Voxtral Pequeño 1.0 | Cuenta con entrada de audio de última generación con el mejor rendimiento de texto de su clase; sobresale en la transcripción, traducción y comprensión de discursos. | Transcripción de voz empresarial, servicio al cliente multilingüe y resumen de contenido de audio. | |
| Nvidia | NVIDIA Nemotrón Nano 2 9B | LLM de alta eficiencia con diseño híbrido de transformador Mamba, destacando en tareas de razonamiento y agencia. | Razonamiento, uso de herramientas, matemáticas, codificación y seguimiento de instrucciones. |
| NVIDIA Nemotron Nano 2 VL 12B | Modelo de razonamiento multimodal avanzado para la comprensión de videos y la inteligencia de documentos, que impulsa la generación aumentada de recuperación (RAG) y aplicaciones agente multimodales. | Comprensión de múltiples imágenes y videos, preguntas y respuestas visuales y resúmenes. | |
| AbiertoAI | gpt-oss-protección-20b | Modelo de seguridad de contenido que aplica sus políticas personalizadas. Clasifica contenido dañino con explicaciones sobre flujos de trabajo de confianza y seguridad. | Moderación de contenido y clasificación de seguridad, aplicación de políticas personalizadas, filtrado de contenido generado por el usuario, flujos de trabajo de confianza y seguridad y clasificación automatizada de contenido. |
| gpt-oss-protección-120b | Modelo de seguridad de contenido más amplio para moderación compleja. Aplica políticas personalizadas con razonamiento detallado para los equipos de seguridad y confianza empresarial. | Moderación de contenido empresarial a escala, interpretación de políticas complejas, clasificación de seguridad de varios niveles, verificación de cumplimiento normativo, revisión de contenido de alto riesgo. | |
| Qwen | Qwen3-Siguiente-80B-A3B | Inferencia rápida con atención híbrida para documentos ultralargos. Optimizado para canalizaciones de RAG, uso de herramientas y flujos de trabajo agentes con respuestas rápidas. | Canalizaciones RAG con documentos extensos, flujos de trabajo agentes con llamada de herramientas, generación de código y desarrollo de software, conversaciones de múltiples turnos con contexto extendido, generación de contenido multilingüe. |
| Qwen3-VL-235B-A22B | Entiende imágenes y vídeos. Extrae texto de documentos, convierte capturas de pantalla en código de trabajo y automatiza los clics en las interfaces. | Extraer texto de imágenes y archivos PDF, convertir diseños de UI o capturas de pantalla en código de trabajo, automatizar clics y navegación en aplicaciones, análisis y comprensión de videos, leer gráficos y diagramas. |
Al implementar modelos disponibles públicamente, considere cuidadosamente los requisitos de privacidad de datos en sus entornos de producción, verifique si hay sesgos en la salida y supervise sus resultados para la seguridad de los datos, la IA responsable y la evaluación del modelo.
Puede acceder a las funciones de seguridad de nivel empresarial de Amazon Bedrock e implementar medidas de seguridad personalizadas según los requisitos de su aplicación y políticas de IA responsables con Amazon Bedrock Guardrails. También puede evaluar y comparar modelos para identificar los modelos óptimos para sus casos de uso mediante el uso de herramientas de evaluación de modelos de Amazon Bedrock.
Para comenzar, puede probar rápidamente estos modelos con algunas indicaciones en el área de juegos de la consola de Amazon Bedrock o usar cualquier SDK de AWS para incluir acceso a las API Bedrock InvokeModel y Converse. También puede utilizar estos modelos con cualquier marco de agentes que admita Amazon Bedrock e implementar los agentes mediante Amazon Bedrock AgentCore y Agentes de hebras. Para obtener más información, visite Ejemplos de código para Amazon Bedrock utilizando los SDK de AWS en la Guía del usuario de Amazon Bedrock.
Ahora disponible
Consulte la lista completa de regiones para conocer la disponibilidad y futuras actualizaciones de nuevos modelos o busque el nombre de su modelo en la pestaña de recursos de AWS CloudFormation de Capacidades de AWS por región. Para obtener más información, consulte la página de productos de Amazon Bedrock y la página de precios de Amazon Bedrock.
Pruebe estos modelos hoy en la consola de Amazon Bedrock y envíe sus comentarios a AWS re: Publicación para Amazon Bedrock o a través de sus contactos habituales de AWS Support.
— chany


