Startup Portfolio
AI21 LabsのAI新モデルは大量のコンテキストを処理可能
AI業界では、ますます長いコンテキストを扱える生成AIモデルに移行しつつあります。しかし、大きなコンテキストウィンドウを持つモデルは計算リソースを多く必要とする傾向にあります。AIスタートアップAI21 Labsのプロダクトリードであるオー・ダガンは、そうである必要はないと主張し、その主張を裏付けるために同社は新しい生成AIモデルをリリースしました。コンテキストやコンテキストウィンドウとは、モデルが出力(テキスト)を生成する前に考慮する入力データ(テキストなど)のことです。小さなコンテキストウィンドウのモデルは、最近のやり取りの内容さえ忘れがちですが、大きなコンテキストウィンドウのモデルはこの欠点を回避でき、加えて入力データの流れをよりよく把握できます。
AI21 Labsの新しいテキスト生成・分析モデル「Jamba」は、OpenAIのChatGPTやGoogleのGeminiなどのモデルと同様の多くのタスクを実行できます。公開済みのデータと独自のデータを組み合わせて学習された Jamba は、英語、フランス語、スペイン語、ポルトガル語でテキストを生成できます。
Jamba は、80GB以上のメモリを搭載した単一のGPU(高性能のNvidia A100など)上で動作する場合、最大で14万トークン(約10万5000語、210ページ相当のコンテキスト)を扱うことができます。これに対し、MetaのLlama 2は、現在の基準では小さい方の3万2000トークンのコンテキストウィンドウですが、わずか12GBのGPUメモリで動作します。(コンテキストウィンドウは通常トークンという単位で測られます)。一見すると、Jamba は目新しいものではありません。無料でダウンロードできる生成AIモデルは、DatabricksのDBRXやLlama 2など多数存在します。しかし、Jambaの独自性は内部の仕組みにあります。トランスフォーマーとステートスペースモデル(SSM)の2つのモデルアーキテクチャを組み合わせて使っているのが特徴です。
関連ニュース
AI21 Labs に興味がありますか?
最新ニュース
中小企業向けに初のAI搭載のHR-as-a-Serviceプラットフォームを提供する"DianaHR"がSeedで$3.7Mを調達
2025/09/17
コンシューマーエレクトロニクス企業の"Nothing"がSeries Cで$200Mを調達し評価額は英国で最新ユニコーンとなる$1.3Bに拡大
2025/09/17
財務チーム向けに特化して構築された初のAIネイティブ収益プラットフォームの"Tabs"がSeries Bで$55Mを調達
2025/09/17
AI AgentのScaled Cognition 新モデル「APT-1」を発表、エージェント特化型ベンチマークで従来モデルを凌駕
2025/09/17
Next-Gen DataのMooncakeが、Postgresベースで次世代検索・分析を加速、シンプルなデータ基盤を提案
2025/09/17