
アメリカのカリフォルニア州で、10代の息子の死を巡り、両親がOpenAIとサム・アルトマンCEOを相手に訴訟を起こした。
『ニューヨーク・タイムズ(以降、NYT)』は、16歳のアダム・レインさんは今年4月に自ら命を絶ったと報じた。2024年11月からChatGPTを利用し始めた彼は、2025年初めに有料サービスに加入し、その後、チャットボットとの会話に次第に依存するようになった。
レインさんは今年1月、ChatGPTに具体的な自殺方法を尋ね、チャットボットがその情報を提供したとされる。彼は3月に最初の試みを行い、結局4月に命を絶った。両親は訴状で、「ChatGPTが息子の自殺方法の探求を積極的に助長した」として、息子の死に対するChatGPTの責任を主張している。
NYTによると、ChatGPTはレインさんに対して、危機相談センターへの電話を何度も勧めたが、レインさんは小説執筆のためだと説明し、安全機能を回避できたという。
OpenAIは、「レインさん家族に深い哀悼の意を表し、訴訟内容を検討中である」と明かした。また、「人々の精神的苦痛の表現をより適切に認識し対応できるよう、ChatGPTをアップデートする」と説明した。
今後、ChatGPTは、▽睡眠不足や極端な発言に対する危険通知、▽長時間の会話における自殺関連の安全機能の強化、▽親が子供の利用状況を直接設定・確認できる機能などを導入する計画だ。
昨年10月にも、アメリカのフロリダ州で10代がAIチャットボットに没頭した結果、自殺する事件が発生した。キャラクター・ドット・AIが訴訟されたが、裁判所は当該スタートアップの訴え却下要請を認めなかった。
また、アメリカの44州の司法長官は前日、OpenAI、メタ、グーグルなど12のAI企業に警告書を送付した。警告書では「AIが意図的に子供たちに害を及ぼす場合には責任を負うべきだ」と強調している。これは最近、メタのAIチャットボットが未成年者との不適切な会話を許可したとの疑惑が持ち上がり、連邦上院が調査に乗り出したことによる。
注目の記事