Startup Portfolio
AI21 LabsのAI新モデルは大量のコンテキストを処理可能
AI業界では、ますます長いコンテキストを扱える生成AIモデルに移行しつつあります。しかし、大きなコンテキストウィンドウを持つモデルは計算リソースを多く必要とする傾向にあります。AIスタートアップAI21 Labsのプロダクトリードであるオー・ダガンは、そうである必要はないと主張し、その主張を裏付けるために同社は新しい生成AIモデルをリリースしました。コンテキストやコンテキストウィンドウとは、モデルが出力(テキスト)を生成する前に考慮する入力データ(テキストなど)のことです。小さなコンテキストウィンドウのモデルは、最近のやり取りの内容さえ忘れがちですが、大きなコンテキストウィンドウのモデルはこの欠点を回避でき、加えて入力データの流れをよりよく把握できます。
AI21 Labsの新しいテキスト生成・分析モデル「Jamba」は、OpenAIのChatGPTやGoogleのGeminiなどのモデルと同様の多くのタスクを実行できます。公開済みのデータと独自のデータを組み合わせて学習された Jamba は、英語、フランス語、スペイン語、ポルトガル語でテキストを生成できます。
Jamba は、80GB以上のメモリを搭載した単一のGPU(高性能のNvidia A100など)上で動作する場合、最大で14万トークン(約10万5000語、210ページ相当のコンテキスト)を扱うことができます。これに対し、MetaのLlama 2は、現在の基準では小さい方の3万2000トークンのコンテキストウィンドウですが、わずか12GBのGPUメモリで動作します。(コンテキストウィンドウは通常トークンという単位で測られます)。一見すると、Jamba は目新しいものではありません。無料でダウンロードできる生成AIモデルは、DatabricksのDBRXやLlama 2など多数存在します。しかし、Jambaの独自性は内部の仕組みにあります。トランスフォーマーとステートスペースモデル(SSM)の2つのモデルアーキテクチャを組み合わせて使っているのが特徴です。
関連ニュース
AI21 Labs に興味がありますか?
最新ニュース
ヨーロッパでハイパースケールクラウドの構築を目指すスウェーデンの"Evroc"がSeries Aで€50.6M($55M)を調達
2025/03/21
HumanoidのReflex Robotics、第2世代ロボットを披露し、遠隔操作にも対応
2025/03/21
Productivity Tech圧縮技術のRewind、Mac向け「人生の検索エンジン」をローンチ
2025/03/21
Security AutomationのBackline、自動脆弱性修復を行うAIエージェントを発表
2025/03/21
AI Modelの圧縮・最適化Pruna AI、AIモデル最適化フレームワークをオープンソース化
2025/03/21