Startup
OpenAIの共同創設者が安全なAIに特化した新会社Safe Superintelligence (SSI)を設立
OpenAIの共同創設者の一人であるIlya Sutskeverが、安全性への懸念からAI大手を離れ、新たなAIベンチャーSafe Superintelligence (SSI)を立ち上げました。SSIは、その名前が示すように「安全な」AI技術の開発に焦点を当てます。これは、「機密情報を漏洩しない」「人種差別的にならない」から、可能性は低いものの「Boston Dynamicsのロボットに侵入してターミネーターのようなことをしない」まで、幅広い意味を持ちます。Sutskeverは、パロアルトとテルアビブを拠点とする同社の発表で、「世界初の直接的なSSIラボを立ち上げ、安全な超知能という一つの目標と一つの製品を掲げています」と述べています。
SSIの共同創設者には、技術の専門家であるDaniel GrossとDaniel Levyが加わっています。GrossはTIME誌の2023年AI分野で最も影響力のある100人に選ばれ、LevyはOpenAIのシニア開発者でした。Sutskeverは、イスラエル国籍を持つOpenAIの主任科学者で、昨年11月にOpenAIのCEO Sam Altmanを追放する動きを主導しました。これは、二人が数ヶ月前まで密接に協力していたことから衝撃的でした。取締役会(Sutskeverを含む)は当初Altmanの解任に成功しましたが、投資家や従業員からの強い圧力を受けて5日後に復帰しました。Sutskeverは6ヶ月後に同社を辞任し、OpenAIのAIリスクチームは崩壊しました。SSIは、「安全な超知能の構築は、我々の時代で最も重要な技術的課題です」と述べ、経営上の負担や製品サイクルに左右されず、短期的な商業的圧力から安全性、セキュリティ、進歩を守ることを目指しています。
関連ニュース








最新ニュース

健康保険プランの基盤となる次世代型の第三者管理者(TPA)の"Yuzu Health"がSeries Aで$35Mを調達
2026/04/07

投資審査とポートフォリオ管理を効率化するデューデリジェンスAIのDili、ファンド業務の自動化を推進
2026/04/07

フロントエンド開発を組織単位で自動化するAgentic開発基盤のAutonomyAI、企業向けAIエージェント群で開発速度向上を狙う
2026/04/07

建設AIプラットフォームのMaterialspace、、内装建設プロジェクトにおける計画、価格算定、調達、実行の流れをAIで統合
2026/04/07

鉱物・地下資源探査の不確実性を下げる地中解析AIのTerra AI、大手資源企業との提携拡大とSeed調達を公表
2026/04/07
