2023/12/21
Startup Portfolio
AIの危険性評価でOpenAIがAnthropicに追いつく努力
OpenAIは技術と収益でAnthropicを上回っていますが、人工知能を社会に害を及ぼさないようにするための対策において、OpenAIは追いつこうと対策に乗り出しました。先日公開された26ページの文書で、OpenAIは一般公開する前のAIモデルの「壊滅的リスク」をどのように評価するかを説明しました。
この動きは、Anthropicが自社のAIの危険性に先んじて対処する方法を22ページの文書で公開してから3ヶ月後のことです。同社の共同創設者であるSam McCandlishが、これらの方針を担当しています。Anthropicのリーダーが2020年に安全性を巡る意見の不一致でOpenAIを離れたことを考慮すると、Anthropicがこの分野で先行していることは驚くべきことではありません。
7ヶ月前まで、OpenAIはAnthropicのように、今後のモデルのリスクを厳密に定量化する責任者がいませんでした。そこで、マサチューセッツ工科大学の教授であるAleksander Madryが「準備」チームのリーダーとしてOpenAIに雇われました。Madryと彼のチームは、今後のモデルがサイバーセキュリティの防御を破る、武器を開発する、人々の「信念を変えさせる」など、悪用される可能性を測定し予測する方法を考案しています。また、チームは「インテリジェンスの爆発」、つまり人間のコントロールを逃れて「野生で生存し、複製する」モデルに対する防護も目指しています。
TagsAIUnited States
関連ニュース
Anthropic に興味がありますか?
彼らの技術を貴社の事業に活かすため、我々がサポートできることがあるかもしれません。ウェブ会議で少し話をしませんか?(営業目的でのお問い合わせはお断りしております。)
最新ニュース
「SusHi Tech Tokyo 2025」に弊社 秋元 Co-Founder & General Partnerが登壇
2025/05/09
精度・速度・コスト予測性を重視したタスク特化型言語モデル「TLMs」を開発する"Fastino AI"がSeedで$17.5Mを調達
2025/05/08
「SusHi Tech Tokyo 2025」に弊社 土佐林 Co-Founder & General Partnerが登壇
2025/05/08
GrubhubおよびBlue Apronを傘下に持つFood Techの"Wonder Group"がSeries Dで$600Mを調達
2025/05/07
防衛、緊急サービス、産業向けのAI搭載自律型ドローンシステムを提供する"Quantum Systems"が€160Mを調達
2025/05/07