医師×AI研究者×ジェネラリスト 医療AIについての期待・不安 Medical Imagingが切り開く医療の未来②

議題:AI、特に最先端のDeep Learningは判断基準をあまり説明してくれないので、特に診断だと、臨床現場で使うには抵抗感がある?
医療側の意見:どちらかというと診断以外での応用を特に期待していて、診断に使うなら医師を代替するのではなく、医用画像に限らず様々なデータを元に、見落とし防止に向けたアラートといった「信頼できるセカンドオピニオン」を想定している(自分の診断に不安を持たない医師はいない)。なぜなら診断において専門医を超える精度を出せたとしても、AIはHeatmapを使った最低限どこを見ているかくらいの説明しかできず、医師だけでなく、患者さんも納得させる必要があるのを踏まえると、より直感的に説明できるAIが必要だから。安全と安心は似て非なる。ただ説明しやすさを取ると、AIの精度は当然落ちるので、その調停者として医師はやはり必要。医師法的にも最終判断を下せるのは医師だけ。アメリカでは眼底画像診断には、医師の許可なしでいいと認可が通ったらしいが、これは例外的。
AI側の意見:別システムや医師の診断基準の説明と比べると、とりわけDeep Learningだけが説明してくれないわけではないし、そもそもAIにだけ物差しが厳し過ぎるのでは。AIというワードがやたら不安・完璧さを助長させているが、むしろAIの精度が専門医と比較して信頼に値するものかどうかの検証のほうが大事で、これが担保できるのであれば、過剰な説明は求めなくていいのでは。

議題:実際に医療AIを導入するメリットはある?
医療側の意見:結局いくらAIで高精度が出て、便利になっても商業的メリットがなければ、病院は導入しない。特に切実に医療AIが必要な、お医者さんが足りない小さなクリニックなどでは、そもそもMRIなど測定装置がないから使えない。
AI側の意見:医療AIの商業性は診断精度と強く結びついていて、近い将来多くの領域で圧倒的精度が出るのであれば、AIを導入しないクリニックに患者さんは行かなくなるので、5年後を見据えると医療AIを導入するインセンティブはあるはず。

議題:医療AIの精度とは信頼できる?
医療側の意見:精度と一括りに言っても、感度(陽性の人を陽性と正しく判定する割合)と特異度(逆に陰性の人を陰性と正しく判定する割合)に代表されるいくつかの尺度があるし、医用データは機械や個人、人種差などによって、汎化性能にも差が大きいので、臨床応用に向けたシステムとして適切かどうかをどう判定する?
AI側の意見:一般的には見逃し防止が最も大事なので、感度を特異度より重視している。もちろんある程度のバランスは大事だが。また異なるデータセットにロバストな医療AIに向けた研究も盛ん。