noticias

Mistral AI dos lanzamientos consecutivos: razonamiento matemático 7B dedicado, modelo grande de código de arquitectura Mamba2

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Informe del corazón de la máquina

Departamento editorial de Machine Heart

Los internautas sienten curiosidad por saber si Mathstral puede resolver el problema de "¿quién es más grande, 9.11 o 9.9?".

Ayer, el círculo de la IA se vio abrumado por una simple pregunta: "¿Quién es más grande, 9.11 o 9.9?" Los grandes modelos de lenguaje, incluidos OpenAI GPT-4o, Google Gemini, etc., fueron anulados.





Esto nos permite ver que los modelos de lenguaje grandes no pueden comprender ni dar respuestas correctas como los humanos cuando se enfrentan a algunos problemas numéricos.

Para problemas matemáticos numéricos y complejos, los modelos especializados son más especializados.

Hoy, el unicornio francés de gran modelo Mistral AI lanzó unEl modelo 7B "Mathstral" se centra en el razonamiento matemático y el descubrimiento científico., para resolver problemas matemáticos avanzados que requieren un razonamiento lógico complejo de varios pasos.

Este modelo está construido sobre Mistral 7B, admite una longitud de ventana de contexto de 32k y sigue el acuerdo de código abierto de licencia Apache 2.0.

Mathstral se creó teniendo en mente una excelente relación rendimiento-velocidad, una filosofía de desarrollo que Mistral AI promueve activamente, especialmente con sus capacidades de ajuste.



Al mismo tiempo, Mathstral es un modelo imperativo que se puede utilizar o perfeccionar. Se han colocado pesos de modelo en HuggingFace.

  • Pesos del modelo: https://huggingface.co/mistralai/mathstral-7B-v0.1

El siguiente gráfico muestra la diferencia de rendimiento de MMLU entre Mathstral 7B y Mistral 7B por materia.

Mathstral logra un rendimiento de inferencia de última generación a su escala en una variedad de puntos de referencia estándar de la industria. Especialmente en el conjunto de datos MATH, logró una tasa de aprobación del 56,6% y una tasa de aprobación del 63,47% en MMLU.



Al mismo tiempo, la tasa de aprobación de Mathstral en MATEMÁTICAS (56,6%) es más de un 20% superior a la de Minerva 540B. Además, Mathstral obtuvo una puntuación del 68,4 % en MATEMÁTICAS con una mayoría de votos de 64 y un 74,6 % utilizando el modelo de recompensa.



Este resultado también ha despertado la curiosidad de los internautas sobre si Mathstral puede resolver el problema de "¿quién es más grande, 9.11 o 9.9?".



Código Mamba: Mamba Codestral



  • Pesos modelo: https://huggingface.co/mistralai/mamba-codestral-7B-v0.1

Lanzado junto con Mathstral 7B, también hay un modelo Codestral Mamba especialmente utilizado para la generación de código, que utiliza la arquitectura Mamba2 y también sigue el acuerdo de licencia de código abierto Apache 2.0. Se trata de un modelo de orientación con más de 7 mil millones de parámetros que los investigadores pueden utilizar, modificar y distribuir de forma gratuita.

Vale la pena mencionar que Codestral Mamba fue diseñado con la ayuda de los autores de Mamba Albert Gu y Tri Dao.

La arquitectura Transformer siempre ha soportado la mitad del campo de la IA. Sin embargo, a diferencia de Transformer, el modelo Mamba tiene la ventaja del razonamiento en tiempo lineal y teóricamente puede modelar secuencias de longitud infinita. La arquitectura permite a los usuarios interactuar con el modelo de forma amplia y rápida sin estar limitados por la longitud de la entrada. Esta eficiencia es especialmente importante para la generación de código.

En las pruebas comparativas, Codestral Mamba superó a los modelos de código abierto CodeLlama 7B, CodeGemma-1.17B y DeepSeek en la prueba HumanEval.



Mistral probó el modelo, que está disponible de forma gratuita en la API la Plateforme de Mistral, y puede manejar entradas de hasta 256.000 tokens, el doble que el GPT-4o de OpenAI.

Con el lanzamiento de Codestral Mamba, algunos internautas lo han usado en VSCode y es muy sencillo.