ニュース

Mistral AI 2 連続リリース: 7B 数的推論専用、Mamba2 アーキテクチャ コード大型モデル

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

マシンハートレポート

マシーンハート編集部

ネチズンは、マスストラルが「9.11と9.9のどちらが大きいか?」という問題を解決できるかどうかに興味を持っている。

昨日、AI 界は「9.11 と 9.9 ではどちらが大きいのか?」という単純な質問に圧倒され、OpenAI GPT-4o、Google Gemini などの大きな言語モデルがすべて覆されました。





これにより、大規模な言語モデルは、いくつかの数値問題を扱う場合、人間のように理解して正しい答えを与えることができないことがわかります。

数値的および複雑な数学的問題の場合は、特殊化されたモデルがより特殊化されます。

本日、フランスの大型モデルユニコーンMistral AIがリリースしました。7B モデル「Mathstral」は、数学的推論と科学的発見に焦点を当てています。、複雑な複数ステップの論理的推論を必要とする高度な数学的問題を解決します。

このモデルは Mistral 7B 上に構築されており、32k のコンテキスト ウィンドウ長をサポートし、オープン ソース契約の Apache 2.0 ライセンスに従います。

Mathstral は、パフォーマンスと速度の優れたトレードオフを念頭に置いて構築されました。これは、Mistral AI が、特に微調整機能で積極的に推進している開発哲学です。



同時に、Mathstral は使用または微調整が可能な命令型モデルです。モデルの重みは HuggingFace に配置されています。

  • モデルの重み: https://huggingface.co/mistralai/mathstral-7B-v0.1

以下のグラフは、被験者ごとの Mathstral 7B と Mistral 7B の MMLU パフォーマンスの違いを示しています。

Mathstral は、さまざまな業界標準のベンチマークにおいて、その規模で最先端の推論パフォーマンスを実現します。特に MATH データセットでは 56.6% の合格率、MMLU では 63.47% の合格率を達成しました。



同時に、Mathstral の MATH 合格率 (56.6%) は、Minerva 540B よりも 20% 以上高くなっています。さらに、Mathstral は、多数決 @64 で MATH で 68.4% を獲得し、報酬モデルを使用すると 74.6% を獲得しました。



この結果により、ネチズンは「9.11と9.9のどちらが大きいか?」という問題をMathstralが解決できるかどうかにも興味を示している。



コードマンバ: コードストラルマンバ



  • モデルの重み: https://huggingface.co/mistralai/mamba-codestral-7B-v0.1

Mathstral 7B と一緒にリリースされ、コード生成に特別に使用される Codestral Mamba モデルもあります。これは Mamba2 アーキテクチャを使用し、Apache 2.0 ライセンス オープン ソース契約にも準拠しています。これは、研究者が無料で使用、変更、配布できる 70 億を超えるパラメータを備えたガイダンス モデルです。

Codestral Mamba が Mamba 作者の Albert Gu 氏と Tri Dao 氏の協力を得て設計されたことは言及する価値があります。

Transformer アーキテクチャは常に AI 分野の半分をサポートしてきましたが、Transformer とは異なり、Mamba モデルには線形時間推論の利点があり、理論的には無限長のシーケンスをモデル化できます。このアーキテクチャにより、ユーザーは入力の長さに制限されることなく、広範囲かつ迅速にモデルを操作できるようになります。この効率はコード生成において特に重要です。

ベンチマーク テストでは、HumanEval テストで Codestral Mamba が競合するオープン ソース モデル CodeLlama 7B、CodeGemma-1.17B、DeepSeek を上回りました。



ミストラルはこのモデルをテストしました。このモデルはミストラルの la Plateforme API で無料で利用でき、OpenAI の GPT-4o の 2 倍である最大 256,000 トークンの入力を処理できます。

Codestral Mamba のリリースにより、一部のネチズンが VSCode でそれを使用しましたが、非常にスムーズです。