【AFP=時事】次に「ドクター・ChatGPT」に相談しようと思ったときは、もう一度考え直した方が良いかもしれない。人工知能(AI)チャットボットは今や多くの医師免許試験で高得点を取れるようになっているものの、人間が従来の方法で得られる以上に良い健康アドバイスを提供できているわけではないと、9日に発表された研究が警鐘を鳴らしている。
「話題になっているとはいえ、AIが医師に取って代わる準備はできていない」と、学術誌ネイチャー・メディシンに掲載された研究の共著者、英オックスフォード大のレベッカ・ペイン氏は述べた。
ペイン氏は「大規模言語モデルに症状について尋ねることは危険になり得ることを、患者は認識する必要がある。誤った診断を下したり、緊急の助けが必要な状況を認識できなかったりする可能性がある」と指摘した。
英国主導の研究チームは、チャットボットを使って自分の健康問題を特定し、医師の診察や病院受診が必要かどうかを判断する際、人間がどの程度うまく対応できるのかを調査した。研究チームは、英国在住の約1300人の参加者に対し、飲酒後の頭痛、新米の母親が感じる強い疲労、胆石の症状など、10通りの異なるシナリオを提示した。
参加者は無作為にOpenAIの「GPT-4o」、メタの「Llama 3」、Cohereの「Command R+」のいずれかを割り当てられた。これとは別に、インターネット検索エンジンを使用する対照群も設けられた。
AIチャットボットで自分の健康問題を正しく特定できた人は約3分の1にとどまり、適切な対応策を見極められたのも約45%にすぎなかった。これらの結果は、対照群と比べても優れているとは言えなかった。
■コミュニケーションに課題
研究者らは、こうした期待外れの結果と、AIチャットボットが医療関連の試験で極めて高得点を取ることとの間に大きな乖離(かいり)があるとし、その原因はコミュニケーションがうまくいっていないことにあると指摘した。
AIの性能評価でよく用いられる模擬患者とのやり取りとは異なり、実際の人間は関連する情報をすべてチャットボットに提供しないことが多かったという。また、人間側がチャットボットの提示する選択肢を理解できなかったり、助言を誤解したり、あるいは単に無視したりする場合もあった。
研究者によれば、米国の成人の6人に1人は少なくとも月に1回、AIチャットボットに健康情報を尋ねており、新技術の普及とともにこの割合は増加すると見込まれている。
この研究に関与していないオランダ・マーストリヒト大の生命倫理学者デービッド・ショー氏はAFPに対し、「本研究は、チャットボットが一般市民にもたらし得る現実の医療リスクを浮き彫りにするという点で、非常に重要だ」と語った。ショー氏は、英国の国民保健サービス(NHS)など、確かな情報源からの医療情報のみを信頼するよう助言した。【翻訳編集】 AFPBB News|使用条件
