Startup Portfolio
AI基盤のTogether AI、ファインチューニングを迅速・簡単にする新機能を公開
AIスタートアップのTogether AI(Together Computer Inc.)は、自社のFine-Tuning Platformに大規模なアップデートを実施しました。これにより開発者がオープンソースの大規模言語モデル(LLM)を迅速かつ低コストで継続的にファインチューニングできるようになります。今回のアップデートの大きな特徴は、ブラウザから直接モデルのファインチューニングが可能になったことです。従来はPythonのSDKをインストールしたり、API経由での操作が必要でしたが、今後はコードを書かずにデータセットをアップロードし、パラメータ設定や実験追跡まで一貫してブラウザ内で完結します。これにより専門知識がなくても直感的な操作でAIモデルの継続的な改善が可能になり、開発時間を従来比で約50%短縮できるとしています。
Together AIのファインチューニング製品責任者であるAnirudh Jain氏は、「技術的には従来と変わらないが、ブラウザベースのインターフェースでスクリプト作成が不要になり、操作全体がシンプルで直感的なノーコード体験になります」と説明しています。さらに同プラットフォームには、「直接的選好最適化(Direct Preference Optimization: DPO)」という新たな訓練方法が導入されました。この手法は、人間の評価に基づいて好ましい回答と好ましくない回答をモデルに示し、望ましい応答を学習させる仕組みです。従来の教師ありファインチューニング(Supervised Fine-Tuning: SFT)が「何を言うべきか」をモデルに教えるのに対し、DPOは「何を言うべきでないか」を教えます。これによりユーザーの期待に沿った精度の高いモデルをより迅速かつ安定的に構築できます。
また、以前の訓練済みモデルからファインチューニングを再開できる「継続的訓練機能」も追加されました。これを利用することで段階的なモデル改善や複数の手法を組み合わせた高度な訓練ワークフローを容易に実行できます。そのほか、会話データに含まれる特定のメッセージを無視または重要度を下げて処理できるようになったほか、学習速度を柔軟に制御する新たなスケジューリング機能も導入されています。データ前処理エンジンの改良により、大規模なトレーニングでは最大32%、小規模なものでも17%の性能向上が達成されました。さらに今回、最低利用額なしの従量課金制の料金体系を導入し、小規模チームや個人開発者が気軽にカスタマイズしたLLMを試せるようにしています。現在Llama 3、Gemma、DeepSeek-R1など人気のオープンモデルに対応しており、今後はLlama 4や将来的なDeepSeekの新モデルにも対応する予定です。
Together AIについて
Together AI(Together Computer Inc.)はAIモデルの開発とファインチューニングに特化したパブリッククラウドサービスを運営するスタートアップ企業です。ブラウザベースの直感的な操作や高度な訓練手法を提供することで、企業や開発者が容易にAIを導入し、継続的にモデルを改善していくための環境を提供しています。
関連ニュース








Together AI に興味がありますか?
最新ニュース

顧客価値を高めるロイヤルティ体験を提供する金融プラットフォームの"Imprint"がSeries Dで評価額$1.2Bで$150Mを調達
2025/12/19

AIが抱える電力問題を解決するアナログAIチップを開発する"Mythic"がSeries Dで$125Mを調達
2025/12/19

Enterprise AI OpsのImpala AI、AIワークロードの統合運用レイヤーで本番展開の効率化を狙い正式ローンチ
2025/12/19

建設業の給与、現場オペレーションのMiter、2025 SuiteCloud Breakthrough Partner of the Yearに選出
2025/12/19

Lifecycle MarketingのEikona、強化学習でA/Bテストとコンテンツ最適化を自動化するGenAI基盤にシード500万ドルを調達
2025/12/19
