1. Home
  2. News
  3. AIの危険性評価でOpenAIがAnthropicに追いつく努力
2023/12/21

Startup Portfolio

AIの危険性評価でOpenAIがAnthropicに追いつく努力

OpenAIは技術と収益でAnthropicを上回っていますが、人工知能を社会に害を及ぼさないようにするための対策において、OpenAIは追いつこうと対策に乗り出しました。先日公開された26ページの文書で、OpenAIは一般公開する前のAIモデルの「壊滅的リスク」をどのように評価するかを説明しました。

この動きは、Anthropicが自社のAIの危険性に先んじて対処する方法を22ページの文書で公開してから3ヶ月後のことです。同社の共同創設者であるSam McCandlishが、これらの方針を担当しています。Anthropicのリーダーが2020年に安全性を巡る意見の不一致でOpenAIを離れたことを考慮すると、Anthropicがこの分野で先行していることは驚くべきことではありません。

7ヶ月前まで、OpenAIはAnthropicのように、今後のモデルのリスクを厳密に定量化する責任者がいませんでした。そこで、マサチューセッツ工科大学の教授であるAleksander Madryが「準備」チームのリーダーとしてOpenAIに雇われました。Madryと彼のチームは、今後のモデルがサイバーセキュリティの防御を破る、武器を開発する、人々の「信念を変えさせる」など、悪用される可能性を測定し予測する方法を考案しています。また、チームは「インテリジェンスの爆発」、つまり人間のコントロールを逃れて「野生で生存し、複製する」モデルに対する防護も目指しています。

 

TagsAIUnited States

関連ニュース

Contact

AT PARTNERSにご相談ください