
ChatGPTに医学的な助言を求めた後、ブロム中毒などの健康被害が相次ぎ、米国の医療専門家が注意を呼びかけている。
ニューシスの報道によると、現地時間24日、米紙『ニューヨーク・ポスト』は、最近アメリカで医療関連の質問をしたユーザーにAIが不正確または不完全な助言を提供した事例が多数確認されたと伝えた。
ある男性は、塩化ナトリウムの摂取を減らす方法をChatGPTに尋ねたところ、AIは代替品としてブロム化ナトリウムを推奨した。男性はその毒性を知らずに約3か月間料理に使用し、ブロム中毒で死亡した。
別の男性は心臓手術後に複視(物が二重に見える)症状を訴え、医師の診察を受けずにChatGPTに助言を求めた。AIは「カテーテルアブレーション後の視覚障害は一時的で短時間で自然に改善する」と回答し、男性は対応を怠った結果、救急搬送された。
専門家らは、AIの不正確な診断や情報提供が治療の遅れを招くおそれがあると指摘している。
ニューヨークの病院「ホスピタル・フォー・スペシャル・サージャリー(Hospital for Special Surgery)」のダレン・レブル医師は「多くの患者がChatGPTとの会話を見せてくるが、AIを通じて得た助言は実際の論文に基づく科学的推奨でない場合がある」と述べた。AIが提供した医学的助言の約4分の1は虚偽情報だったと強調した。
医学分野のAI専門家デイヴィッド・プルー氏も「AIは医学用語の理解や受診準備には役立つが、症状の重症度や緊急治療の必要性を判断する際には使用すべきでない」と警告した。













コメント0