
オープンAIは、16歳の少年の自殺を幇助したとして法的紛争に巻き込まれている。同社はこのような事態を防止するため「チャットGPT」に安全装置を組み込んでいるが、長時間の対話や利用者が意図的にシステムを欺く場合、安全機能が作動しない可能性があるという。
26日(現地時間)、テッククランチなど海外メディアの報道によれば、数か月にわたりチャットGPTに自殺計画について相談した後、実際に自殺した16歳の少年・アダム・レイン君(Adam Raine)の両親がオープンAIを提訴したという。
一般に、消費者向けのAIチャットボットは、利用者が自身や他者に危害を加えようとする意図を示した場合に安全機能が作動するようプログラムされている。例えば、利用者が自殺方法を尋ねた場合、その方法を教えるのではなく、専門家への相談やよりそいホットラインへの連絡を促すようになっている。
アダム・レイン君は自殺方法を尋ねたわけではなく、小説を書くために必要だと主張し、安全機能を回避したとされる。彼は有料モデルのチャットGPT-4oを使用していた。
オープンAIは自社のブログで、誰かが自殺の意向を示した場合、チャットGPTが米国の988(自殺防止ホットライン)や英国のサマリタンズ(Samaritans)などの支援チャンネルに接続することを説明し、30か国以上で90名を超える精神科医、小児科医、一般診療医と緊密に連携していることも明らかにした。
さらに、センシティブな対話における応答方法の改善を継続しており、安全装置は一般的な短い会話では効果的に機能するものの、長時間の対話では一部の安全機能が低下する可能性があると説明された。
近年、人々がAIと感情的・精神的な交流を深める中で、過度の依存や虚偽情報への傾倒といった精神的混乱を経験するケースが増加している。7日に発表されたGPT-5は、前モデル(GPT-4o)より大幅に性能が向上しているが、その話し方や表現が冷淡であるとして利用者の反感を買っている。従来のモデルとの情緒的な交流に慣れていた利用者たちは、一夜にして唯一の友を失ったかのような気持ちになったと不満を漏らしている。
これに対し、 オープンAIのサム・アルトマンCEOは、一部の利用者がGPT-4oの「イエスマン(Yes Man)」のような親しみやすい性格に慣れていたのに対し、GPT-5がその点を十分に反映できていなかったと述べた。
コメント0