Startup Portfolio
大規模言語モデルのAnthropic、Claudeに「有害会話から退出する」新機能を導入
Anthropicは、自社のAIアシスタントClaudeに、新たな安全機能を導入したと発表しました。この機能により、会話が継続的に攻撃的または有害なものになった場合、Claudeは自ら会話を終了できるようになります。同社はこの機能を「実験的なセーフガード」と位置付け、モデルを守ると同時に、より健全で尊重あるデジタル対話を促す狙いがあると説明しています。この新機能は現在、Claude Opus 4および4.1で有効化されており、ユーザーが敵対的、操作的、または不適切な振る舞いを繰り返す場合、Claudeは警告を出し、その理由を説明した上でチャットを終了します。従来のチャットボットがユーザーの行動にかかわらず応答するのに対し、Claudeは境界線を越えたやり取りには退出するという点で異なります。
Anthropicは、この取り組みをAI安全性およびモデル整合性の一環と説明しています。システムがあらゆる誤用に耐えるのではなく、適切なインタラクションの基準を明確にし、責任ある利用を促すことが狙いです。特にこのセーフガードは、違法コンテンツ、児童搾取、大規模な暴力など、通常の利用ではほとんど遭遇しない「極端なケース」に限定して発動されるとしています。
Claudeが有害な会話から退出することは、AIが単なる受動的なツールではなく、境界を持つ能動的な対話エージェントへと進化していることを示しています。ただしAnthropicは、Claudeや他の大規模言語モデルが「意識を持つ」と主張しているわけではなく、その倫理的な位置付けについては依然として「不確実性が高い」と強調しています。
Anthropicについて
Anthropicは、AIの安全性と透明性に重点を置くスタートアップで、大規模言語モデルClaudeシリーズを開発しています。同社は「憲法AI」と呼ばれる独自のアプローチを採用し、AIの応答が倫理的かつ責任あるものとなるよう設計しています。今回の新機能はその哲学を体現するもので、AIが利用者との関係において境界を明示する新たなステップとなります。