in

Microsoft lanza su chip de inferencia de IA de segunda generación, Maia 200

Microsoft lanza su chip de inferencia de IA de segunda generación, Maia 200

Como parte de su heterogénea infraestructura de IA, Microsoft dice que Maia 200 servirá para múltiples modelos, incluida la última familia GPT-5.2 de OpenAI. Se integra perfectamente con Microsoft Azure, y Microsoft Foundry y Microsoft 365 Copilot también se beneficiarán del chip. El equipo de superinteligencia de la empresa también planea utilizar Maia 200 para aprendizaje por refuerzo (RL) y generación de datos sintéticos para mejorar los modelos internos.

Desde la perspectiva de las especificaciones, Maia 200 supera a Trainium e Inferentia de Amazon y a las TPU v4i y v5i de Google, señaló Scott Bickleymiembro asesor del Info-Tech Research Group. Se produce en un nodo de 3 nm, en comparación con los nodos de 7 nm o 5 nm de los chips de Amazon y Google, y también muestra un rendimiento superior en capacidades de computación, interconexión y memoria, dijo.

Sin embargo, señaló, «si bien estos números son impresionantes, los clientes deben verificar el rendimiento real dentro de la pila de Azure antes de escalar las cargas de trabajo fuera de Nvidia, por ejemplo». También deben asegurarse de que parte del ahorro del 30% obtenido por Microsoft se transfiera al cliente a través de sus cargos de suscripción a Azure, añadió.

Fuente

Apple está a solo unas semanas de presentar el cambio de imagen de Siri impulsado por Google, según un informe

La estrella de The Last Of Us, Kaitlyn Dever, se burla "Un papel mucho más importante" En la temporada 3