見出し画像

人工知能チャットボットの応答は,医師よりも質が高く, 共感的だった


📖 文献情報 と 抄録和訳

公開ソーシャルメディア・フォーラムに投稿された患者の質問に対する医師と人工知能チャットボットの応答を比較する

📕Ayers, John W., et al. "Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum." JAMA internal medicine 183.6 (2023): 589-596. https://doi.org/10.1001/jamainternmed.2023.1838
🔗 DOI, PubMed, Google Scholar 🌲MORE⤴ >>> Connected Papers
※ Connected Papersとは? >>> note.

[背景・目的] 重要性:バーチャルヘルスケアの急速な拡大により、患者からのメッセージが急増し、それに伴い医療従事者の仕事量が増え、燃え尽き症候群が増加している。人工知能(Artificial intelligence, AI)アシスタントは、臨床医がレビュー可能な回答を作成することで、患者の質問に対する回答作成を支援できる可能性がある。目的: 2022年11月にリリースされたAIチャットボットアシスタント(ChatGPT)が、患者の質問に質の高い共感的な回答を提供する能力を評価すること。

[方法] デザイン、設定、参加者:この横断研究では、公的なソーシャルメディアフォーラム(Redditのr/AskDocs)の公開された個人を特定できない質問データベースを使用し、検証済みの医師が公開された質問に回答した2022年10月の195件のやり取りを無作為に抽出した。チャットボットの回答は、2022年12月22日と23日に、元の質問を新しいセッションに入力することで生成された(セッションで事前に質問されていない)。元の質問と、匿名化され無作為に並べられた医師とチャットボットの回答は、資格を持つ医療専門家のチームによって3重に評価された。評価者は、「どの応答がより良かったか」を選択し、「提供された情報の質」(非常に悪い、悪い、許容範囲、良い、非常に良い)と「提供された共感またはベッドサイド・マナー」(共感しない、少し共感する、適度に共感する、共感する、非常に共感する)の両方を判定した。平均結果は1~5の5段階で順位付けされ、チャットボットと医師の間で比較された。

[結果] 195の質問と回答のうち、評価者は585の評価のうち78.6%(95%CI、75.0%-81.8%)で医師の回答よりもチャットボットの回答を好んだ。医師の回答の平均値(IQR)は、チャットボットの回答よりも有意に短かった(52 [17-62] 語 vs 211 [168-245] 語; t = 25.4; P < 0.001)。

■ 質問に対する回答の質
・チャットボットの回答は、医師の回答よりも有意に質が高いと評価された(t = 13.3; P < 0.001)。
・例えば、「良い」または「非常に良い」と評価された回答の割合(≧4)は、医師よりもチャットボットの方が高かった(チャットボット:78.5%、95%CI、72.3%-84.1%;医師:22.1%、95%CI、16.4%-28.2%;)。
・これは、チャットボットの良質または非常に良質な回答率が3.6倍高いことに相当する。

■ 質問に対する回答の共感性
・チャットボットの回答はまた、医師の回答よりも有意に共感的と評価された(t = 18.9; P < 0.001)。
・共感的または非常に共感的(≧4)と評価された回答の割合は、医師よりもチャットボットの方が高かった(医師: 4.6%, 95% CI, 2.1%-7.7%; chatbot: 45.1%, 95% CI, 38.5%-51.8%; 医師: 4.6%、95% CI、2.1%-7.7%)。
・これは、チャットボットの方が共感的または非常に共感的な回答率が9.8倍高かったことになる。

この図は、患者からの質問に対する医師とチャットボットの回答の質と共感性の評価分布を示している。図は2つのグラフから構成されている。左側のグラフ(A)は回答の質に関する評価分布を示し、右側のグラフ(B)は共感性の評価分布を示している。

この図は、患者からの質問に対する医師とチャットボットの回答の質と共感性の評価分布を示している。図は2つのグラフから構成されている。左側のグラフ(A)は回答の質に関する評価分布を示し、右側のグラフ(B)は共感性の評価分布を示している。

[結論] この横断研究では、チャットボットがオンラインフォーラムで行われた患者の質問に対して、質の高い共感的な回答を生成した。この技術を臨床の場でさらに検討することが必要であり、例えば、医師が編集可能な回答の草稿をチャットボットで作成するなどの方法が考えられる。無作為化試験により、AIアシスタントを使用することで回答が改善され、臨床医のバーンアウトが低下し、患者の転帰が改善されるかどうかをさらに評価することができる。

🌱 So What?:何が面白いと感じたか?

最近、僕もChatGPTを使いはじめた。
使いはじめて感じたことは、ChatGPTは「本当に真面目で、いいやつ」である。
どんなくだらないことを質問しても、真摯に、真面目に、答えを返してくれる。
時に、全然事実とは異なる情報を平然と返してくる(ハルシネーション)こともあるが、慎重に使えばとても有用なツールだと実感している。

患者さんの悩みは、具体的であったり、なかったり、感情的であったり、なかったり・・・。
雲のように捉えどころがないことが多く、それが故に、医療者側もフラストレーションを抱えやすい。
それに対して、ChatGPTによるチャットボットは、落ち着いて悩みを受け入れ、建設的な提案をしてくれる。
以下に、実際に患者さんが抱えがちな悩みをChatGPTに相談した例を示す。

どうだろうか。
きっと、いいやつだと思ったはずだ。

ChatGPTによるチャットボットで草稿を作成→医療者が校閲・微調整

という協業ができたなら、患者さんへの回答の質・共感性も上がり、医療者側に加わるフラストレーションも軽減されそうだ。
新たな技術、それが出てきた時に重要になるのは、“使い方” の洗練である。
織田信長が、長篠の戦いで鉄砲を3段撃ちしたように、その道具の短所を埋めて、長所を生かし切るような使い方をしたいものだ。

⬇︎ 関連 note & 𝕏での投稿✨

○●━━━━━━━━━━━・・・‥ ‥ ‥ ‥
良質なリハ医学関連・英論文抄読『アリ:ARI』
こちらから♪

↓↓↓

‥ ‥ ‥ ‥・・・━━━━━━━━━━━●
#️⃣ #理学療法 #臨床研究 #研究 #リハビリテーション #英論文 #文献抄読 #英文抄読 #エビデンス #サイエンス #毎日更新 #最近の学び

この記事が参加している募集

#最近の学び

181,589件