Startup Portfolio
大規模言語モデルのMistral、小型モデル「Mistral Small 3.1」でテキストとマルチモーダル能力を向上
パリに拠点を置くAI企業Mistralは、同社の小型言語モデル「Mistral Small 3」の後継バージョンとして、「Mistral Small 3.1」をリリースしました。今回のモデルは、チャット用と命令(Instruct)用の2種類がオープンソースで公開され、テキスト生成のパフォーマンスやマルチモーダル理解能力が強化されています。同社によれば、GoogleのGemma 3やOpenAIのGPT-4o miniなど、類似モデルと比べていくつかのベンチマークで高いスコアを記録しており、応答スピードが速い点も特徴となっています。
新モデルは最大128,000トークンのコンテキストウィンドウをサポートし、推論速度は1秒あたり150トークンに達するとされます。チャット版は通常のチャットボットのように機能し、Instruct版は特定のタスクに合わせてユーザーの指示を正確に処理するよう微調整(ファインチューニング)されています。いずれも前バージョンと同様にオープンソースで公開されており、Hugging Faceのリポジトリからダウンロードが可能です。ただし、Apache 2.0ライセンスで提供されるため、学術・研究目的の利用は許可されている一方、商用利用は認められていない点に注意が必要です。
同社は、「Mistral Small 3.1」がNvidiaのRTX 4090 GPUや32GB RAMのMacなど、比較的入手しやすいハードウェア環境で動作するよう最適化されていると説明しています。これにより、AIモデルを扱うための高額な設備がなくても利用できる点がアピールされています。また、低レイテンシでの関数呼び出しやエージェントフローを構築しやすい仕様も備えており、特定のドメインで追加学習(ファインチューニング)することも容易とされています。
Mistralによる内部評価では、文書理解(DocVQA)やプログラミングテスト(HumanEval、MathVista)、高難度のQ&Aを想定したGraduate-Level Google-Proof Q&A (GPQA)などのベンチマークで、Gemma 3やGPT-4o miniを上回る結果が得られたと報告されています。ただし、MMLUベンチマークではGPT-4o miniの方が優れたスコアを示し、数学領域を対象とするMATHテストではGemma 3が勝る結果でした。
「Mistral Small 3.1」は、Hugging Face上のオープンウェイトでダウンロードできるほか、Mistral AIの開発者向けプレイグラウンド「La Plateforme」やGoogle CloudのVertex AI経由でAPIアクセスが可能です。今後数週間以内に、NvidiaのNIMやMicrosoftのAzure AI Foundry上でも利用できるようになる見通しです。
Mistralについて
Mistralは、自然言語処理やマルチモーダル理解などの分野で革新的なAIモデルを開発・提供するスタートアップです。最新の小型言語モデル「Mistral Small 3.1」は大容量のコンテキストウィンドウや高速推論に対応しており、オープンソースかつ学術研究目的での利用を可能にする方針を掲げています。クラウドプラットフォームやローカル環境への導入を通じ、幅広い開発者コミュニティからの活用が見込まれる注目のAIモデルです。
関連ニュース
Mistral AI に興味がありますか?
最新ニュース
GenerativeAIのRecraft、DALL-EやMidjourneyを超えた女性起業家Anna Veronika Dorogushの挑戦
2025/05/14
FinTechのRamp、Stripeと提携しステーブルコイン対応カードでグローバル市場を加速
2025/05/14
AIで「不可能」を実現―次世代エンジニアリングを加速するPhysicsXの挑戦
2025/05/13
量子コンピューティングのClassiq、1億1000万ドルを調達「量子界のMicrosoft」を目指す
2025/05/13
ロンドンに拠点を置く報酬データプラットフォームの"Ravio"がSeries Aで$12Mを調達
2025/05/12