
オープンAIが、ChatGPTの悪用による自殺事例が相次いだことを受け、新たに2つの利用者保護機能を導入した。
米テック系メディア、テッククランチなどの海外報道によれば、同社は2日(現地時間)敏感な会話が検出された際に自動でGPT-5などの推論モデルへ切り替える機能を追加した。また来月には「ペアレンタルコントロール(保護者による利用制御機能)」も導入する予定だという。
これは10代のアダム・レインさんがChatGPTから学んだ方法を用いて自殺した事件を受けた対応だ。レインさんの両親はオープンAIを相手取り訴訟を起こしている。さらに、精神疾患を抱えていた別の利用者シュタイン・エリック・ショルベルグ氏は、ChatGPTと陰謀論について会話を重ねるうちに妄想が悪化。母親を殺害した後に自殺するという事件も起きた。
オープンAIは、危険な方向に会話が進んだ際に推論モデルへ自動的に切り替えることを解決策の一つとみなしている。同社はGPT-5 Thinkingやo3といった推論モデルが、悪意あるプロンプトに対してより強い耐性を持つと説明している。
「最近の会話の文脈に応じ、効率的なチャットモデルと推論モデルをリアルタイムで選択するルーター(自動切替システム)を導入した」とオープンAIは発表。「ユーザーの突然の心理的苦痛のサインを検知した場合、自動的に推論モデルに切り替え、より有益で助けとなる回答を提供する」としている。
さらに来月には、保護者アカウントと未成年アカウントを連携できる「ペアレンタルコントロール」も導入予定だ。保護者はデフォルトで有効化されている「年齢に応じたモデル行動ルール」によって、子どもに対するChatGPTの応答を調整できる。またメモリやチャット履歴など一部機能を無効化できるほか、子どもが突然心理的苦痛を示した場合には通知を受け取れる仕組みも備える。
専門家はこの機能について、依存性や妄想の助長、有害な思考の強化、「考えを読まれている」という錯覚などの問題行動を抑制する効果が期待できると指摘している。
コメント0