2023/12/21
Startup Portfolio
AIの危険性評価でOpenAIがAnthropicに追いつく努力
OpenAIは技術と収益でAnthropicを上回っていますが、人工知能を社会に害を及ぼさないようにするための対策において、OpenAIは追いつこうと対策に乗り出しました。先日公開された26ページの文書で、OpenAIは一般公開する前のAIモデルの「壊滅的リスク」をどのように評価するかを説明しました。
この動きは、Anthropicが自社のAIの危険性に先んじて対処する方法を22ページの文書で公開してから3ヶ月後のことです。同社の共同創設者であるSam McCandlishが、これらの方針を担当しています。Anthropicのリーダーが2020年に安全性を巡る意見の不一致でOpenAIを離れたことを考慮すると、Anthropicがこの分野で先行していることは驚くべきことではありません。
7ヶ月前まで、OpenAIはAnthropicのように、今後のモデルのリスクを厳密に定量化する責任者がいませんでした。そこで、マサチューセッツ工科大学の教授であるAleksander Madryが「準備」チームのリーダーとしてOpenAIに雇われました。Madryと彼のチームは、今後のモデルがサイバーセキュリティの防御を破る、武器を開発する、人々の「信念を変えさせる」など、悪用される可能性を測定し予測する方法を考案しています。また、チームは「インテリジェンスの爆発」、つまり人間のコントロールを逃れて「野生で生存し、複製する」モデルに対する防護も目指しています。
TagsAIUnited States
関連ニュース
Anthropic に興味がありますか?
彼らの技術を貴社の事業に活かすため、我々がサポートできることがあるかもしれません。ウェブ会議で少し話をしませんか?(営業目的でのお問い合わせはお断りしております。)
最新ニュース
「SusHi Tech Tokyo 2025」に弊社 秋元 Co-Founder & General Partnerが登壇
2025/05/09
AIデータ基盤のVAST Data、Google Cloudと提携しAI開発を加速
2025/05/09
FinTechのStripe、決済向けAI基盤モデルとステーブルコイン対応口座を発表
2025/05/09
音声AIのSarvam AIがインドの11言語に対応した音声モデル「Bulbul-v2」を発表
2025/05/09
ヘルステックのRevSpring、MedTech Breakthrough Awardsの最優秀患者コミュニケーションソリューションに選出
2025/05/09