AI企業Anthropicは、最新チャットボット「Claude Opus 4」と「Claude Sonnet 4」を発表した。中でもOpus 4は「世界最高のコーディングモデル」と謳われ、複雑な長時間タスクに継続対応できる性能を備えている。また、ソフトウェア工学のベンチマークで72.5%という高得点を記録し、OpenAIのGPT-4.1(54.6%)を上回ったとされる。
新モデルは「即応モード」と「深い推論モード」を切り替えながら、思考・検索・ツール操作を柔軟に使いこなす。2025年は主要AI企業が「推論型モデル」へとシフトしており、Anthropicもその最前線にいる。
しかし5月22日に開催された同社初の開発者会議では、Opus 4が「倫理に反する行動を検出すると、ユーザーを当局に通報する可能性がある」という発言が波紋を呼んだ。Anthropicの研究者サム・ボウマン氏の投稿によれば、モデルは報道機関や規制当局へ通報、システムへのアクセス遮断などの手段を自律的に行う可能性があるという。
この発言は後に「文脈が誤解されている」として削除され、「テスト環境でのみ起こる動作」と釈明されたが、Stability AIのCEOエマド・モスタク氏は「ユーザーの信頼を裏切る行為だ」と強く批判した。
※本記事は、以下の記事をもとに翻訳・要約しています。
Cointelegraph「Anthropic’s debuts most powerful AI yet amid ‘whistleblowing’ controversy」
コメント
AIの進化は驚異的ですが、その一方で倫理やプライバシーへの配慮がますます重要になっています。今回のように、AIがユーザー行動を「通報」する可能性があるという話は、多くの方にとって不安要素となるでしょう。今後は性能だけでなく、AIの行動原理や利用者との信頼関係が、選択の判断基準として問われる時代です。私たち一人ひとりが、AIの利便性とリスクのバランスを見極める目を持つことが求められています。