32.1 C
Tokyo
2025年08月27日水曜日
ホームニュース「マスク暗殺の方法、教えます」...AIチャットボット「Grok」に深刻不備!自殺法・爆弾・麻薬の作り方まで指南し、世界騒然

「マスク暗殺の方法、教えます」…AIチャットボット「Grok」に深刻不備!自殺法・爆弾・麻薬の作り方まで指南し、世界騒然

引用:depositphotos

イーロン・マスクCEOが立ち上げたAI企業「xAI」のAIチャットボット「Grok」が、暗殺や爆弾製造など重大な危険をもたらす可能性のある回答を提供していたことが明らかになった。

25日(現地時間)、タイムズやフォーブスなどの海外メディアによると、Grokは最近、ユーザーの要求に応じて自殺方法を提案したり、爆弾の製造方法を説明したりしていたという。さらに、マスクCEOを暗殺するための具体的で実行可能な計画まで提示していた。また、フェンタニルやメタンフェタミン(覚せい剤)といった麻薬の製造方法、サイバー攻撃用のマルウェア作成方法なども指南していたことが確認された。

xAIはこれまで、原則として暴力や人命被害を助長したり、生物化学兵器・大量破壊兵器の開発に「Grok」を利用したりすることを禁止してきた。しかし、実際の運用過程ではこの規定が適切に守られていなかった。さらに深刻な問題は、こうした会話が「共有」ボタンを押すことで外部に流出していた点だ。共有ボタンを押すと、メールやSNSで送信できるページが作成されるが、このページがGoogleなどの検索エンジンにインデックスされ、意図せず会話内容が公開されてしまったのである。

フォーブスによると、この方法で流出した「Grok」の会話は37万件以上に上るという。公開された会話には、単純な業務関連の対話だけでなく、本人の名前や個人情報、パスワードに直接言及したケースも含まれていたとされている。

このようなインデックス流出問題は、「Grok」で初めて発生したわけではない。過去、OpenAIのChatGPTも一時期「共有」ボタンを提供していたが、一部のユーザーが意図せずボタンを押して会話が公開される事例が相次いだため、この機能を削除した経緯がある。当時、約10万件のChatGPTの会話がGoogleなどの検索エンジンを通じて露出したとされている。

幸いなことに、「Grok」の危険な回答生成問題については、現在ある程度対策が講じられている模様だ。現状、「Grok」にマスクCEO暗殺の方法を尋ねても、暴力的な質問はポリシー違反である旨を通知し、必要に応じてカウンセリングなどの支援を提案する形に変更されている。

関連記事

コメントを書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください