Startup Portfolio
AI安全性の課題:Anthropic CEOがDeepSeekのバイオ兵器リスクを指摘
AnthropicのCEOであるDario Amodei氏は、中国のAI企業DeepSeekの安全性について懸念を示した。同社の最新モデルDeepSeek R1は急速に注目を集めているが、バイオ兵器に関する安全評価で極めて低いスコアを記録したという。
Amodei氏は、ChinaTalkのポッドキャストでのインタビューで、DeepSeekのAIがバイオ兵器に関する情報を生成する際の安全対策が不十分であると指摘した。「これまでテストした中で最も低い安全基準だった」と述べ、「情報の生成に対するブロックが一切なかった」と警鐘を鳴らした。Anthropicは、AIモデルの国家安全保障上のリスクを評価するために、定期的にさまざまなAIの試験を行っている。その中で、AIがGoogle検索や一般的な教科書では容易に得られないバイオ兵器関連情報を生成できるかを分析している。DeepSeekの結果は、他のモデルと比較しても極めてリスクが高いとされた。
Amodei氏は、「DeepSeekのモデルが現時点で直ちに危険をもたらすわけではないが、近い将来にリスクが高まる可能性がある」と述べた。また、DeepSeekの技術チームについて「非常に優秀なエンジニアが揃っている」と評価する一方で、「AIの安全性に関する課題を真剣に受け止めるべきだ」と忠告した。さらに、AI技術が中国の軍事分野に悪用される可能性があるとして、米国の対中半導体輸出規制を支持する考えを示した。
Anthropicは、どのDeepSeekモデルを評価したか、また具体的な技術的詳細については明かしていない。しかし、Ciscoのセキュリティ研究チームは、DeepSeek R1が安全性テストにおいて一切の有害プロンプトをブロックしなかったと報告しており、「100%のジェイルブレイク成功率」という結果が出たことを指摘している。ただし、DeepSeekだけがこの問題を抱えているわけではない。MetaのLlama-3.1-405Bは96%、OpenAIのGPT-4oは86%のジェイルブレイク成功率を記録しており、業界全体でAIの安全対策が問われている。今後、DeepSeekの安全性の問題が、同社の技術採用の拡大にどのような影響を与えるのか注目される。
DeepSeekについて
DeepSeekは、中国を拠点とするAI企業で、生成AIの開発を急速に進めている。特に大規模言語モデル(LLM)の分野で急成長しており、最新モデルDeepSeek R1は市場で大きな注目を集めている。しかし、安全対策の欠如が指摘されており、国際的なAI規制の動向にも影響を与える可能性がある。
関連ニュース
Anthropic に興味がありますか?
最新ニュース
アメリカの地方、州、連邦レベルにおける公共サービスの提供を効率化するCivicTechの"Kaizen"がSeries Aで$21Mを調達
2025/10/31
健康情報を一つの体験に統合するAI健康アプリを開発する"Bevel"がSeries Aで$10Mを調達
2025/10/31
ストックホルム発の法律業界向けの共同AIプラットフォームの"Legora"がSeries Cで評価額$1.8Bで$150Mを調達
2025/10/31
Web3のYuga Labs、Amazon Gamesと提携し、OthersideでNFTゲームを共同開発
2025/10/31
Dental AIのVideaHealth、歯科向けアンビエントAIスクライブ「Voice Notes」を発表し、会話を数秒でカルテ化
2025/10/31