in

El nuevo Codestral Mamba de Mistral facilita la generación de códigos más largos

El nuevo Codestral Mamba de Mistral facilita la generación de códigos más largos

La empresa probó Codestral Mamba en capacidades de recuperación en contexto de hasta 256k tokens, el doble del número observado en OpenAI. GPT4o — y descubrió que su versión 7B funcionaba mejor que los modelos de código abierto en varias pruebas comparativas, como HumanEval, MBPP, Spider y CruxE.

La versión con parámetros 22B más grandes del nuevo modelo también tuvo un desempeño significativamente mejor que el CodeLlama-34B, con la excepción del punto de referencia CruxE.

Si bien la versión 7B está disponible bajo la licencia Apache 2.0, la versión más grande 22B está disponible bajo una licencia comercial para autoimplementación o una licencia comunitaria para fines de prueba.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Apple ayuda a lanzar el Fondo de Innovación en Vivienda del Área de la Bahía

No se proporcionó subtítulo

Mejora aún más tu Steam Deck con estas ofertas del Prime Day en accesorios útiles