1. Home
  2. News
  3. 生成AIモデルのOpenAI、GPT-5.4 miniとGPT-5.4 nanoを公開
2026/03/19

Startup Portfolio

生成AIモデルのOpenAI、GPT-5.4 miniとGPT-5.4 nanoを公開

OpenAIは、高頻度ワークロード向けに最適化した小型モデルとして、GPT-5.4 miniとGPT-5.4 nanoを公開しました。両モデルは、GPT-5.4の強みを引き継ぎながら、より高速かつ効率的な処理を実現することを狙ったものです。特にGPT-5.4 miniは、コーディング、推論、マルチモーダル理解、ツール利用の面でGPT-5 miniを大きく上回り、2倍超の速度で動作するとされています。さらに、一部の評価では、より大きなGPT-5.4に近い性能も示しています。 GPT-5.4 nanoは、速度とコストが最重視される用途向けに設計された、GPT-5.4系列で最も小さく最も安価なモデルです。OpenAIは、分類、データ抽出、ランキング、比較的単純な補助タスクを担うコーディング用サブエージェントなどに適していると説明しています。一方のGPT-5.4 miniは、応答性が重要なコーディング支援、補助タスクを並列に処理するサブエージェント、スクリーンショットを解釈するコンピューター利用システム、リアルタイム画像理解を伴うマルチモーダルアプリケーションなどで強みを持つと位置づけられています。

 

コーディング分野では、GPT-5.4 miniとnanoは、高速な反復処理が求められるワークフローに適しています。OpenAIによると、これらのモデルは、狙いを絞ったコード修正、コードベース探索、フロントエンド生成、デバッグループといった処理を低レイテンシで実行できます。特にGPT-5.4 miniは、SWE-Bench Proで54.4%を記録し、GPT-5 miniの45.7%を上回りました。nanoも52.4%と改善を示しています。OSWorld-Verifiedでも、miniは72.1%でGPT-5.4の75.0%に迫り、GPT-5 miniの42.0%を大きく上回りました。 また、GPT-5.4 miniは、複数サイズのモデルを組み合わせる構成にも向いています。OpenAIはCodexの例として、より大きなGPT-5.4が計画や最終判断を担い、GPT-5.4 miniのサブエージェントがコードベース検索や大きなファイルのレビュー、補足資料処理などの限定的なサブタスクを並列実行する使い方を紹介しています。こうした構成により、推論負荷の高い判断は大きなモデルに任せつつ、周辺タスクを安価で高速な小型モデルで回す設計がしやすくなります。

 

提供形態については、GPT-5.4 miniはAPI、Codex、ChatGPTで利用可能です。APIではテキストと画像入力、ツール利用、関数呼び出し、Web検索、ファイル検索、コンピューター利用、スキルに対応し、コンテキストウィンドウは400kです。価格は入力1Mトークンあたり$0.75、出力1Mトークンあたり$4.50です。CodexではGPT-5.4の割り当ての30%で利用でき、より低コストでシンプルなコーディング作業を処理できます。ChatGPTでは、FreeとGoユーザーが「Thinking」機能から利用でき、その他のユーザーにはGPT-5.4 Thinkingのレート制限時のフォールバックとして提供されます。 一方、GPT-5.4 nanoはAPI専用で提供され、価格は入力1Mトークンあたり$0.20、出力1Mトークンあたり$1.25です。OpenAIのAPIドキュメントによると、nanoも400,000トークンのコンテキストウィンドウを備え、テキストと画像入力に対応しています。OpenAIは、最小コストで大量処理を回したいケースにおいて、nanoを有力な選択肢として位置づけています。

 

OpenAIについて
OpenAIは、ChatGPTやCodex、APIを通じて高度な生成AIモデルを提供するAI企業です。近年は、GPT-5.4のようなフロンティアモデルに加え、miniやnanoのような小型モデルも拡充し、プロフェッショナル向けの高性能用途から、高頻度・低コスト用途までを広くカバーする製品群を展開しています。今回のGPT-5.4 miniとnanoの公開は、企業や開発者が用途ごとに最適な性能とコストのバランスを選びやすくする動きとして位置づけられます。

 

TagsAIUnited States

関連ニュース

Contact

AT PARTNERSにご相談ください