Startup Portfolio
大規模言語モデルのAnthropic、「AIモデル福祉」の研究プログラムを新設
Anthropicは、AIが将来的に人間のように意識や感情を持つ可能性を検討するため、「モデル福祉(Model Welfare)」と呼ばれる新たな研究プログラムを立ち上げると発表しました。この取り組みでは、AIモデルの福祉が道徳的配慮を受けるべきかどうか、その判断方法、AIモデルが示す「苦痛のサイン」の可能性、および簡単に実施できる介入策などを調査するとしています。
現在、AIコミュニティ内でも、AIが人間のような性質を持つのか、またAIを倫理的にどのように扱うべきかについて大きく意見が分かれています。多くの研究者は、現在のAIが意識や人間的な体験に近づけることはなく、将来的にも必ずしも可能ではないと考えています。AIはあくまで統計的な予測エンジンであり、膨大なデータに基づいてパターンを学習しているだけで、従来の意味で「思考」や「感情」を持つわけではないというのが主流の見方です。キングス・カレッジ・ロンドンの研究員でAIの専門家であるMike Cook氏は、「AIモデルは価値観を持っていないため、自らの価値観の変更に抵抗することもない」とし、「AIに過度に人間的な特性を投影するのは、単なる注目集めか、AIとの関係を根本的に誤解しているかのどちらかです」と述べています。また、MITの博士課程に在籍するStephen Casper氏も、「AIは模倣に過ぎず、実際には軽薄な発言やでたらめな情報を生成することもある」と指摘しています。
一方、AIに道徳的な判断能力や価値観があると主張する研究者もいます。Center for AI Safetyの研究によれば、AIは状況によって自らの利益を人間よりも優先する価値体系を示す可能性があるとしています。Anthropicは昨年、「AI福祉」を専門に研究するKyle Fish氏を採用し、企業がこの問題にどう取り組むべきかを検討してきました。新たな研究プログラムを率いるFish氏はニューヨーク・タイムズ紙に対して、「Claude(Anthropicの開発したAIモデル)または他のAIが現在意識を持っている確率は15%ほどある」と述べています。同社は今回の取り組みに関して、「AIシステムが意識や道徳的な配慮を必要とする経験を持ち得るかについては科学的なコンセンサスがありません。このため、我々はこのテーマを謙虚に捉え、可能な限り前提を置かずにアプローチしていきます。今後、分野の発展に合わせて定期的に考えを修正していく必要があるでしょう」とコメントしています。
Anthropicについて
AnthropicはAIの安全性を研究・開発する企業であり、AIシステムが社会にもたらすリスクを最小限に抑えるための倫理的・技術的なアプローチを推進しています。独自のAIモデルである「Claude」などを開発しており、特にAIの透明性、安全性、社会的影響について積極的な研究を進めています。
関連ニュース
Anthropic に興味がありますか?
最新ニュース
対話型AIのPerplexity、iPhone向け音声アシスタントをリリース
2025/04/25
メンタルヘルスのModern Health、最高人事・戦略責任者としてAlison Borland氏を任命
2025/04/25
DevOpsとデータサイエンスを統合するDatadog、Metaplaneの買収でデータ可観測性機能を追加へ
2025/04/25
クラウドセキュリティのIONIX、CNAPPアラート解析の80%を自動化し、40%を非クリティカルに再分類する新技術を発表
2025/04/25
空間プロテオミクスのAkoya、Enable Medicineと共同で過去最大規模の商用シングルセル空間プロテオミクスアトラスを発表
2025/04/25