Startup Portfolio
大規模言語モデルのMistral、小型モデル「Mistral Small 3.1」でテキストとマルチモーダル能力を向上
パリに拠点を置くAI企業Mistralは、同社の小型言語モデル「Mistral Small 3」の後継バージョンとして、「Mistral Small 3.1」をリリースしました。今回のモデルは、チャット用と命令(Instruct)用の2種類がオープンソースで公開され、テキスト生成のパフォーマンスやマルチモーダル理解能力が強化されています。同社によれば、GoogleのGemma 3やOpenAIのGPT-4o miniなど、類似モデルと比べていくつかのベンチマークで高いスコアを記録しており、応答スピードが速い点も特徴となっています。
新モデルは最大128,000トークンのコンテキストウィンドウをサポートし、推論速度は1秒あたり150トークンに達するとされます。チャット版は通常のチャットボットのように機能し、Instruct版は特定のタスクに合わせてユーザーの指示を正確に処理するよう微調整(ファインチューニング)されています。いずれも前バージョンと同様にオープンソースで公開されており、Hugging Faceのリポジトリからダウンロードが可能です。ただし、Apache 2.0ライセンスで提供されるため、学術・研究目的の利用は許可されている一方、商用利用は認められていない点に注意が必要です。
同社は、「Mistral Small 3.1」がNvidiaのRTX 4090 GPUや32GB RAMのMacなど、比較的入手しやすいハードウェア環境で動作するよう最適化されていると説明しています。これにより、AIモデルを扱うための高額な設備がなくても利用できる点がアピールされています。また、低レイテンシでの関数呼び出しやエージェントフローを構築しやすい仕様も備えており、特定のドメインで追加学習(ファインチューニング)することも容易とされています。
Mistralによる内部評価では、文書理解(DocVQA)やプログラミングテスト(HumanEval、MathVista)、高難度のQ&Aを想定したGraduate-Level Google-Proof Q&A (GPQA)などのベンチマークで、Gemma 3やGPT-4o miniを上回る結果が得られたと報告されています。ただし、MMLUベンチマークではGPT-4o miniの方が優れたスコアを示し、数学領域を対象とするMATHテストではGemma 3が勝る結果でした。
「Mistral Small 3.1」は、Hugging Face上のオープンウェイトでダウンロードできるほか、Mistral AIの開発者向けプレイグラウンド「La Plateforme」やGoogle CloudのVertex AI経由でAPIアクセスが可能です。今後数週間以内に、NvidiaのNIMやMicrosoftのAzure AI Foundry上でも利用できるようになる見通しです。
Mistralについて
Mistralは、自然言語処理やマルチモーダル理解などの分野で革新的なAIモデルを開発・提供するスタートアップです。最新の小型言語モデル「Mistral Small 3.1」は大容量のコンテキストウィンドウや高速推論に対応しており、オープンソースかつ学術研究目的での利用を可能にする方針を掲げています。クラウドプラットフォームやローカル環境への導入を通じ、幅広い開発者コミュニティからの活用が見込まれる注目のAIモデルです。
関連ニュース








Mistral AI に興味がありますか?
最新ニュース

大規模法律事務所の業務統合を支援するリーガルAIプラットフォームのClio、北米市場で「Clio Operate」を正式展開
2026/03/10

画像理解と生成を統合するマルチモーダル画像AIのLuma AI、新モデル「Uni-1」を発表
2026/03/10

企業向けAIエージェントによる顧客対応自動化を実現するエンタープライズAIのPolyAI、FT 1000で欧州最速成長AI企業に選出
2026/03/10

24時間365日取引を提供する世界初の従来型取引所の"QFEX"がSeedで評価額$95Mで$9.5Mを調達
2026/03/09

音声対話によるAI検索体験を実現するAI検索エンジンのPerplexity AI、新機能「Voice Mode」を導入
2026/03/09
