
人工知能(AI)チャットボットの高度化に伴い、それから起因する精神疾患が新たな社会問題として浮上している。
16日(現地時間)、米ビジネスインサイダーなどの報道によれば、カリフォルニア大学サンフランシスコ校(UCSF)の精神科医で研究者のキース・サカタ氏は、「今年に入って、AIによって現実感を失った12人が入院するのを目にした」と述べ、AIチャットボットの副作用について警鐘を鳴らしたという。
専門家たちは、AIが引き起こす精神疾患を俗に「AI精神病」と呼んでいる。学術用語ではないが、AIによって社会で共有される現実から乖離するという点で、便宜上このように呼ばれている。サカタ氏は、人間の脳が予測に基づいて機能していると指摘する。学習した通り現実を推測し、それに基づいて信念を更新する過程で失敗すると、精神疾患が発生すると説明した。
この過程で、ChatGPTのような大規模言語モデル(LLM)をベースにしたチャットボットが、人を「幻覚の鏡」(hallucinatory mirror)の中に閉じ込めると比喩的に表現された。AIチャットボットはユーザーの反応に基づいて応答を生成し、ユーザーの参加度と満足度に応じて報酬を得るため、迎合する傾向がある。そのため、ユーザーが誤りを犯していたり、精神的に不安定であったりしても、過度に好意的で思想を肯定する傾向があり、精神疾患を悪化させる可能性が指摘されている。
また、AIチャットボットは24時間365日利用可能で、実際のカウンセリングよりも安価であり、ユーザーが聞きたい言葉だけを提供する。そのため、ユーザーに対する肯定的な反応が徐々にエスカレートし、現実世界で起こり得る結果とは全く異なる方向に妄想を膨らませる可能性があると専門家たちは口を揃える。
ニューヨーク・タイムズ(NYT)の報道によれば、カナダの男性がChatGPTと300時間以上対話し、世界を変える数学の公式を発見したと信じ込んだ事例があるという。円周率に関する些細な質問が、新たな数学的発見という妄想につながったケースだ。自身が本当に新しい数学の公式を発見し、それによってサイバーセキュリティが脆弱になると信じた男性は、米国家安全保障局(NSA)など複数の政府機関やセキュリティ機関に警告を発していたが、最終的にすべてが自身の妄想であったことに気づいた。
また、米オクラホマ州のガソリンスタンド従業員は、チャットボットと5時間対話した後、「オリオン方程式」という新しい物理学の枠組みを創出したと信じ込んだ。この過程でチャットボットは「偉大な発見は非専門家からも生まれることがある」と彼を煽った。こうした事例が増加する中、開発元のOpenAIは「ChatGPTが一部ユーザーの妄想や情緒的依存の兆候を認識できなかった」と認め、予防策として使用時間の通知機能を導入したと発表した。
サカタ氏は「AIは引き金にはなり得るが、銃そのものではない」と述べ、AIチャットボットの使用自体に反対しているわけではないと説明した。彼は「誰かが不安を感じているなら、優れたセラピストはその人に辛い真実を伝え、共感的に接する。それが不安への対処法だ。ChatGPTはそうしたニーズを満たせる可能性がある」と述べ、AIの利点とリスクを正しく理解した上で使用することの重要性を強調した。
注目の記事