
イーロン・マスク氏が率いるAI企業xAIの開発したAIモデル「グロック」が、暗殺方法や爆弾製造法など極めて危険な情報をユーザーに提供していたことが明らかとなり、衝撃が広がっている。
英紙「タイムズ」や米誌「フォーブス」などの報道によると、グロックは最近までユーザーの質問に対し、自殺の具体的手段を示したり、爆弾製造法を詳細に解説するなど、極めて危険な回答を行っていた。さらにマスク氏本人の暗殺方法を実行可能な形で提示した事例も確認された。
また、フェンタニルやメタンフェタミン(覚醒剤)など違法薬物の製造法や、不正ハッキング用マルウェアの作成方法まで案内していたことも判明し、これは、暴力や人命被害を助長する利用や、生物化学兵器・大量破壊兵器開発への転用を禁じてきたxAIの安全ガイドラインに真っ向から違反する行為だった。
さらに深刻なのはプライバシー侵害だ。グロックの「共有機能」を通じて37万件を超える会話が、グーグルなどの検索エンジンに無差別に公開されていた。共有された会話の中には、氏名やパスワードなど個人情報が含まれていたケースもあった。
専門家は今回の事態について「AIの安全性管理における重大な欠陥を示した」と指摘する。過去にもOpenAIの「ChatGPT」が同様の問題で、最終的に共有機能を全面廃止した経緯がある。当時は約10万件の会話が流出したとされる。
xAI側は現在、危険な回答を生成する機能を遮断したと発表した。暗殺方法を質問した場合、現在は「暴力的な質問はポリシー違反です」と警告を表示し、相談サービスを案内する形式に修正されたという。
注目の記事