Startup Portfolio
GPUに代わる選択肢を提供するAIチップメーカーの"SambaNova"がSeries Eで$350Mを調達し、Intelとの協業を発表
SambaNovaは、Vista Equity PartnersとCambium Capitalがリードし、Intel Capitalの強い参加の他、Battery Ventures、Mayfield Capital、T. Rowe Price、BlackRock、GVなど多数の投資家が参加したSeries Eで$350Mを調達した。また、同社で最も先進的なAIプロセッサーを発表し、AI推論向けの新しい高性能かつコスト効率の高いシステムの開発においてIntelと協業することも発表しました。これは、現在ほとんどのワークロードを支えているグラフィックス処理装置(GPU)に代わる選択肢を企業に提供することを目的としています。
2017年創業のAIチップメーカーのSambaNova Systemsは、Nvidiaの競合としてのポジションを確立しています。同社はAIモデルのトレーニングおよび推論に適した高性能コンピューターチップを開発しています。同社のチップはクラウド経由で利用できるほか、自社ハードウェアアプライアンスとしてオンプレミスに導入することも可能です。大きなセールスポイントの一つは電力効率であり、SambaNovaは自社チップが競合プロセッサーと比較して、1キロワット時あたりより多くのトークンを生成できると主張しています。
発表された新しいSN50チップは、推論性能を大幅に向上させるとしています。SambaNovaによると、前世代のSN40チップセットと比較して、5倍のコンピュート性能と4倍のネットワーク帯域幅を実現しています。顧客は超高速のマルチテラビット毎秒インターコネクトを通じて最大256基のアクセラレーターを接続でき、これによりコンピュートコストを増大させることなく、より大規模で長いコンテキストを持つAIモデルを、より高いスループットと応答性でサポートできると同社は述べています。
SambaNovaによると、SN50はNvidiaのGPUとは大きく異なります。技術的には専用AIアクセラレーターチップであり、GoogleのTensor Processing Units(TPU)やAmazon Web ServicesのTrainiumチップにより近い設計です。これは、1兆パラメータ級の大規模言語モデルの高性能トレーニングおよび推論向けに設計されています。
SN50は3層メモリアーキテクチャに基づいており、最大10兆パラメータおよび1,000万コンテキスト長のAIモデルをサポートできます。これにより、これまで以上に高度な推論や、より知的な自律システムの実現が可能になるとしています。また、常駐マルチモデルメモリおよびエージェント型キャッシング機能により電力効率を最適化し、トークンあたりのコストを低減できるとも主張しています。
SN50は、リアルタイム動作のために超低レイテンシを必要とするAI音声アシスタントなどのアプリケーションを対象としています。同時に数千のセッションを処理可能であるとしています。
「AIはもはや最大のモデルを構築するための文脈ではありません。本当の競争は、即座に応答し、停止せず、そしてAIを実験からクラウドにおける最も収益性の高いエンジンへと変えるコストで、データセンター全体をAIエージェントで稼働させられるかどうかにあります」とSambaNovaの共同創業者兼Chief ExecutiveであるRodrigo Liangは述べました。
同氏は、SambaNovaはすでに現在データセンターをAIで稼働させることができるものの、今後もそれを継続するためにIntelとより緊密に協力することを決定したと述べました。
この協業では、既存のSambaNova Cloudプラットフォームに基づく、Intel搭載の新しい「AI cloud」の展開を加速するためにIntelがSambaNovaへ出資します。IntelはXeon中央処理装置(CPU)によりSambaNova Cloudを強化し、マルチモーダル大規模言語モデルに最適化された、より効率的なインフラストラクチャを構築します。
IntelのXeon CPUは汎用処理およびシステム運用管理に優れており、一方でSN50は大規模データセットの高速処理や複雑な計算実行に最適化されています。これらを単一のクラウドに統合することで、より効率的なタスク分散が可能となり、レイテンシ、スループット、そしてAIワークロード全体の性能が向上します。
Intelはさらに、リファレンスアーキテクチャや導入ブループリントの提供、ならびにソフトウェアベンダーやシステムインテグレーターとのパートナーシップを通じて、SambaNovaのクラウド拡張を加速できると述べました。準備が整い次第、IntelとSambaNovaは、Intelの既存の企業顧客との関係およびパートナーチャネルを活用し、新プラットフォームを共同マーケティングおよび共同販売する計画です。
このパートナーシップは両社にとって大きな可能性を持っています。SambaNovaはIntelのグローバルな展開力および製造基盤を活用してAIプロセッサーのスケール拡大が可能となり、Intelはこれまで十分に存在感を示せていなかった市場で巻き返す機会を得ます。これまでIntelは、AI業界においてNvidiaやAMDなどの他のチップメーカーと競争することができていませんでした。SambaNovaの強力なSN50チップとIntelのXeonプロセッサーの組み合わせは、その状況を変える可能性があります。
Constellation ResearchのアナリストであるHolger Muellerは、SambaNovaの支援を受けることでIntelがAIチップ市場で存在感を示す可能性は依然としてあると述べました。「Nvidiaは注目を独占し市場シェアの大半を握っていますが、AIモデルは実際にはどのメーカーのチップ上で動作しているかを気にしていません。重要なのは性能です。もしSambaNovaとIntelの推論プラットフォームが競争力を持つならば、最大の課題はそれを企業に示し、NvidiaのGPUではなくそれを採用するよう説得することです」と述べました。
両社は以前からこの協業を計画していたと考えられています。実際、12月にはIntelがSambaNovaを完全買収することを検討しているとの報道もありました。Bloombergは、同社が約$1.6B規模のオファーを検討していたと報じました。Intelが実際にそのような提案を行ったかは不明ですが、2021年の前回資金調達後の評価額の3分の1程度に過ぎなかったことから、SambaNovaが同意した可能性は低いとみられます。
Intelのデータセンターグループのexecutive vice president兼general managerであるKevork Kechichianは、AIデータセンター市場には大きな機会があると述べました。「顧客はより多くの選択肢と、より効率的にAIをスケールさせる方法を求めています。Intelのコンピュート、ネットワーキング、メモリにおけるリーダーシップと、SambaNovaのフルスタックAIシステムおよび推論クラウドプラットフォームを組み合わせることで、GPUの代替を求める組織にとって魅力的な選択肢を提供します」と述べました。
SoftBankは、日本の次世代AIデータセンターにSN50を導入する最初の顧客となります。本導入により、アジア太平洋地域の主権およびエンタープライズ顧客向けに、低レイテンシー推論サービスを提供します。オープンソースおよび独自の最先端モデル双方を、厳格なレイテンシーおよびスループット要件のもとでサポートします。
「SN50により、日本向けにスピード、レジリエンス、主権性を備えたAI推論基盤を構築しています。SN50を標準化することで、最高クラスのGPUクラスターに匹敵する性能を、より優れた経済性とコントロールのもとで実現できます。」とSoftBankのテクノロジーユニット統括データ基盤戦略本部長である丹波廣寅氏は述べました。
今回のSN50導入は、既にSambaCloudをホストして地域の開発者に超高速推論を提供しているSoftBankとの既存関係をさらに強化するものです。最新クラスターをSN50で構築することで、SoftBankは主権AI構想および将来の大規模エージェント型サービスの推論基盤としてSambaNovaを位置付けます。
関連ニュース








SambaNova に興味がありますか?
最新ニュース

イギリス・ロンドンを拠点とするAI自動運転スタートアップの"Wayve"が最大で$1.5Bを調達し評価額は$8.6Bに拡大
2026/02/25

GTMチーム向けのAIネイティブなrevenue enablementプラットフォームの"Letter AI"がSeries Bで$40Mを調達
2026/02/25

Googleの半導体部門出身社が設立したNvidiaと直接競合するAIチップ・スタートアップの"MatX"がSeries Bで$500M超を調達
2026/02/25

会計事務所向けのAIエージェントを開発する"Basis"がSeries Bで評価額$1.15Bで$100Mを調達
2026/02/25

インドのFinTechスタートアップでクロスボーダーB2B決済の"Xflow"がSeries Aで$16.6Mを調達し評価額が$85Mに拡大
2026/02/24
