La empresa probó Codestral Mamba en capacidades de recuperación en contexto de hasta 256k tokens, el doble del número observado en OpenAI. GPT4o — y descubrió que su versión 7B funcionaba mejor que los modelos de código abierto en varias pruebas comparativas, como HumanEval, MBPP, Spider y CruxE.
La versión con parámetros 22B más grandes del nuevo modelo también tuvo un desempeño significativamente mejor que el CodeLlama-34B, con la excepción del punto de referencia CruxE.
Si bien la versión 7B está disponible bajo la licencia Apache 2.0, la versión más grande 22B está disponible bajo una licencia comercial para autoimplementación o una licencia comunitaria para fines de prueba.
GIPHY App Key not set. Please check settings