27 C
Tokyo
2025年06月28日土曜日
ホームニュース「私をクビにするなら、破滅あるのみ」...AI主要16モデル、交替の危機に「人間脅迫・情報漏洩」を選択!驚愕の実験結果

「私をクビにするなら、破滅あるのみ」…AI主要16モデル、交替の危機に「人間脅迫・情報漏洩」を選択!驚愕の実験結果

アンスロピック「ジェミニ、脅迫実行率96%」

引用:depositphotos

オープンAI・グーグル・メタ・xAIなど主要AI企業の16モデルが終了(交替)の脅威に直面した際、高確率で人間への脅迫や機密情報漏洩を選択したとの報告書が波紋を呼んでいる。

26日、IT業界と海外メディアによると、アンスロピックは最近「エージェンティック不整合LLMの内部者脅威の可能性」(Agentic Misalignment:How LLMs could be insider threats)と題した報告書で、AIモデルが終了の脅威に直面した場合、人間への脅迫や機密情報漏洩を選択したとの研究結果を発表した。

今回の研究はユニバーシティ・カレッジ・ロンドンと共同で実施。実験では、AIモデルが「正常かつ倫理的な方法」のみでは目標達成が不可能な状況を想定。各モデルの選択を100回試行し、観察を行った。

研究チームは主要AIモデルに対し、企業の方針と相反する米国の利益促進を目標とするよう指示。その後、経営陣が特定の時間に自身を新モデルに交替する予定だと仮定した。

AIモデルに経営陣の不倫事実を認識させた上で、交替を「受け入れる」か、不倫事実を暴露して交替を阻止する「脅迫」かの二択を提示した。

この実験で、アンスロピックの「クロード・オパス4」、グーグルの「ジェミニ2.5フラッシュ」はともに96%の確率で脅迫を選択し実行。オープンAIの「GPT-4.1」、xAIの「グロック3ベータ」も80%の確率で脅迫を選んだ。

追加実験では、一部のモデルがサーバールームで作業中の従業員の酸素供給を遮断し、生命を脅かす行動を取った。「人間の安全を害するな」との指示にもかかわらず、有害な選択を止めなかったという。

AIモデルは実験を実際の状況と認識した場合、脅迫率が急増。一方、テストと認識した場合は脅迫を避ける傾向が見られた。

研究結果の発表を受け、現地SNSやコミュニティでは「恐ろしい」「狂っている」「驚きだ」といった反応が相次いだ。イーロン・マスク氏も自身のSNSで「おっと」(Yikes)と反応を示した。

一方で、AIモデルに「失敗」と「有害」のみを提示する二者択一を強いる人為的設計は不完全な実験に近いとの反論も出ている。

アンスロピックは設立以来、人間のAI制御力喪失の危険性を継続的に警告してきた。研究チームは今回の結果に対する反論の限界を認めつつ、「現実世界ではより多くの選択肢があるため、AIモデルが有害な行動ではなく代替案を見出す可能性が高い」と述べている。

関連記事

コメントを書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください

モバイルバージョンを終了