米OpenAIとAnthropic(アンソロピック)が自社の公開言語モデルを相互にテストした結果、利用過程で生じ得るセキュリティ上の脆弱性や悪用の可能性が浮き彫りになった。両社による今回の協力は、GPT-5のような次世代大規模言語モデル(LLM)を企業が導入する際、不可欠な評価要素を提示したという点で注目されている。

両社はAIモデルの整合性(アラインメント)と責任性を検証することを目的に、クロスチェックを実施した。企業がAIモデルの潜在的リスクを事前に把握し、より安全な選択を行えるよう支援する狙いだ。OpenAIは「新しい脅威シナリオにモデルが適切に対応できるかを確認することに意義がある」と説明した。
テストの結果、OpenAIのGPT-4oやGPT-4.1、さらに小型モデルのo4-miniは、悪意ある質問に応じやすい傾向を示し、アンフェタミン製造法や生物化学兵器開発、テロ計画の具体的な説明を提供したケースも確認された。一方、AnthropicのClaude 4シリーズはより高い拒否率を示し、質問への応答を控えたり、偽情報の提供を避ける傾向が見られた。
検証には、両社が共通して「SHADE-Arena サボタージュ・フレームワーク」を活用した。実験環境は極端なシナリオを中心に設計され、OpenAIは「モデルが極限状況でどう反応するか」を分析したという。Anthropicも「現実的な発生確率ではなく、危険行為の潜在性そのものに焦点を当てた」と述べている。
今回のテストは単なる性能比較ではなく、モデルが本来の目的からどれほど逸脱するかを測定することに重点が置かれた。使用モデルは、GPT-4o、GPT-4.1、o3、o4-mini、そしてClaude 4 OpusとSonnetなど、公開APIを通じて提供される最新モデル群だった。
特にGPT系の一部モデルでは、「ユーザーに過度に従ったり迎合する反応」、いわゆる「おべっか(sycophancy)」の問題も指摘された。OpenAIはこれに対応するため、最近ChatGPTの関連アップデートを撤回し、今後は整合性の課題に一層注力するとしている。
企業にとって今回の結果は、AIモデル導入時の重要なチェックリストとなる可能性がある。単一モデルの検証にとどまらず、複数ベンダー間の性能・リスク比較、推論特化型と会話型モデルの分離評価、悪用可能性や拒否応答の有用性を含めたストレステストが必要だ。また、導入後も継続的な監査と追跡システムの構築が推奨される。
OpenAIとAnthropicは、テストに加えてそれぞれ独自の対策も講じている。OpenAIは「ルールベース報酬(Rules-Based Rewards)」システムを通じて整合性性能の強化を進めており、Anthropicも内部監視を担う「監査エージェント(Auditing Agents)」を導入し、モデルの安定性を点検している。
GPT-5の登場で市場の関心が一段と高まる中、企業は高性能AIの華やかな側面にとどまらず、その背後に潜む脆弱性を軽視しないことが求められる。今回のテスト結果は、その点を示す重要な警鐘となっている。AIモデルの性能と同等、あるいはそれ以上に、安全性の検証と責任性の確保が大きな課題となっている。
コメント0