見出し画像

ヘルステックベンチャーと医療倫理

株式会社Ubieに入社して10ヶ月が経過しました。私のメインの業務はプロダクト開発ですが、社内医師として「医療倫理」の価値観の必要性を強く感じ、2022年秋に「医療倫理・医療安全(Medical Safety and Ethics, MSE)」という部署を社内に立ち上げました。MSEの主な役割は、ユーザーが触れうるすべてのコンテンツ、体験が医療倫理・医療安全的に妥当かどうかのサーベイランスならびに第三者的なレビューです。医療倫理の難しいところは、「決められた法を遵守すれば良い」わけではなく、むしろガイドライン外の答えがない領域に対してどのような見解を出すか、です。この記事では、今までの医療倫理の歴史を振り返りつつ、当社の取り組み、そしてITとAIが医療に浸透していく中での「新時代の医療倫理」について考察してみたいと思います。

そもそも「倫理」とは?

「倫理」という言葉自体は聞いたことがあっても、その定義を明確に答えられる人は少ないと思います。よく「法」と比較される事が多いですが、法律も倫理も人間が集団・社会生活を営む上でシェアされるルールである事は共通しています。そのルールを守る上で法律には強制力がありますが、倫理にはありません。法律的に問題なければ何をしても良いわけではなく、社会通念的に「こうあるべき」という認識があり、ここがグレースケールになります。ここが黒に近いのか(また白に近いのか)を徹底的に議論することが重要だと私は考えています。つまり、倫理とは明確な答えが出せない課題において「社会通念的に妥当」である判断を議論していく事だと思います。「社会通念」というのは時代ごとに変わっていくので、議論をし続けることも重要です。これを医学・医療現場において考えることを「医療倫理」と呼びます。医療倫理でよく課題になるテーマとして、安楽死問題、中絶問題、脳死問題、臓器移植問題などがあります。これらは国や宗教ごとに違う意見が飛び交っており、本邦においてもガイドラインや過去の判例を踏まえて大まかな判断はできても明確な答えを出すことが難しいテーマばかりです。そこに、近年「AIと医療倫理」が新たなテーマとして台頭しているのです。

医療倫理の歴史 〜それは患者と被検者の権利の戦いだった〜

医療倫理の歴史を紐解くには、紀元前500年まで遡る必要があります。それ以前までは魔術的要素の強かった医療に、「科学的な思考」を取り入れたヒポクラテスという医師が古代ギリシャにいました。その時に生まれた「ヒポクラテスの誓い」には今では当たり前の事が多く書かれていますが、当時としては画期的なものだったと予想されます。

医の神アポロン、アスクレーピオス、ヒギエイア、パナケイア、及び全ての神々よ。私自身の能力と判断に従って、この誓約を守ることを誓う。

この医術を教えてくれた師を実の親のように敬い、自らの財産を分け与えて、必要ある時には助ける。
師の子孫を自身の兄弟のように見て、彼らが学ばんとすれば報酬なしにこの術を教える。
著作や講義その他あらゆる方法で、医術の知識を師や自らの息子、また、医の規則に則って誓約で結ばれている弟子達に分かち与え、それ以外の誰にも与えない。
自身の能力と判断に従って、患者に利すると思う治療法を選択し、害と知る治療法を決して選択しない。
依頼されても人を殺す薬を与えない。
同様に婦人を流産させる道具を与えない。
生涯を純粋と神聖を貫き、医術を行う。
どんな家を訪れる時もそこの自由人と奴隷の相違を問わず、不正を犯すことなく、医術を行う。

医に関するか否かに関わらず、他人の生活についての秘密を遵守する。
この誓いを守り続ける限り、私は人生と医術とを享受し、全ての人から尊敬されるであろう!しかし、万が一、この誓いを破る時、私はその反対の運命を賜るだろう。

ヒポクラテスの誓い

その後、第二次世界大戦でナチスドイツが非人道的な人体実験研究を行い、そこで行われた「医者裁判」の結果、1947年に「ニュルンベルグ綱領」が策定されました。人間を被検者とする研究に関する一連の倫理原則です。1964年には同様に、ヒトとヒト由来の試料を対象とした研究の医療倫理の文書が策定されました。

「ヒポクラテスの誓い」を現代化したものが「ジュネーブ宣言」で、1948年に初めて策定され、最新版は2017年になります。
ここには患者の自己決定権、患者の自主尊重原則などの患者の権利が記載されています。

1960年代には米国の公民権運動の高まりにより、患者の権利がより注目されるようになりました。その中で重要視されたのが、Informed Concent (IC)です。以前は医師が治療の主導権を握っていたわけですが、(いわゆるPatarnalism)、ICの概念が普及したことで、患者に全ての情報が提供された上で、患者と医師が相談して治療方針を決めるという形に変わりました。

上記の歴史を踏まえて、現在、医療倫理は
①自己決定権
②無加害原則
③与益原則
④公平・正義の原則
が中心となって構成されています。この原則が主体となって「対面」での臨床医学や研究が成り立っています。今、医療業界にITやAIが急速に浸透している新時代の医療が見えてきていますが、既存の医療倫理概念だけですべて対応できるのでしょうか?

現在Ubieが行っている医療安全・医療倫理活動

少し視点を変えてUbieの取り組みを紹介します。先述した通り、2022年10月弊社に「医療倫理・医療安全(Medical Safety and Ethics, MSE)」という部署が立ち上がりました。MSE活動の一部について簡単に紹介したいと思います。

医療界の”Google”を目指すUbieは医師・患者向けに多くのコンテンツを提供しています。これらは最新でかつ公平・中立な情報である必要があります。当たり前ですが、特定の治療・薬剤に偏ること、エビデンスのない治療法等が患者や医師に情報提供されることはあってはなりません。厚生労働省が提示している「医療用医薬品の販売情報提供活動に関するガイドライン」を始め様々な法律やガイドラインを遵守するだけでなく、誤解を与えるような表現がないかどうかも細かくチェックしています。問診の聞き方、情報提供の結果による行動変容も、表現によっては誤った方向に誘導してしまうリスクがあるからです。

倫理とは法のように白黒つけられないこともあるので、複数医師でのチェックを基本としています。最低2人の医師でダブルチェックを行いますが、議論が必要な場合は人数を増やしたり、場合によっては専門科の医師を招集して議論を行います。これらの承認プロセスや議論は全てログを取り、今後新しい議論が生じた際に参考にします。

新規プロダクト開発に対しても医療倫理・医療安全のサーベイランス活動を行っています。Ubieは日々新しい価値を創造し患者様、医療機関様に提供しています。Ubieが提供する情報を踏まえてどのような行動を起こすかの最終決定は患者様や医師・医療機関の判断になることが前提ですが、これは不適切な情報提供が許容されるわけではありません。例えば、Ubieが提供する情報を普段は吟味して使っている医師であっても、業務が逼迫している時には鵜呑みにしてしまう可能性もゼロではありません。そのような実務的なリスクを踏まえて、どの程度の精度、不確実性まで許容されるのかを第三者的視点で評価するように努力しています。

現在、社内には複数のバックグラウンド・診療科出身医師が5名在籍しており、加えて20名近くの監修医師、20名以上の外部委託医師と協力して開発を行っています。医療倫理観点からも特定の医師が判断を下すのではなく、可能な限り客観的な判断をできるように、MSEは活動しています。

新時代の医療に求められる倫理とは

「AIと倫理」というテーマは以前から議論はされてきましたが、近年AI技術が医療業界に浸透するとともに、「AIと医療倫理」というテーマも注目されてきています。

AIとシンギュラリティ

そもそもAI (Artificial Intelligence)は、膨大なデータから特徴、傾向、規則性を見出し、ある程度自律的な判断ができる技術です。この技術が将来爆発的に進化することで、人間の想像を超えた優秀な知能が生まれてしまう可能性があり、この時点を「シンギュラリティ(技術的特異点)」と呼んだりします。このシンギュラリティを超えた時点で予測されるAI倫理の課題は、それはそれで非常に興味深いテーマなのですが、あくまで仮説なのでここでは割愛します。(興味がある方はこちらの記事がわかりやすいと思います。)

余談ですが、今AI界隈ではOpenAIが開発したGPT-3 (Generative Pre-trained Transformer 3)やChatGPTが話題になっています。GPT-3に疾患の治療法などを質問すると、もっともらしい治療法や文献などを答えてくれて正確な情報もありますが、多くの場合でっち上げられた薬剤名や参考文献だったりします。現時点では、人間が主導権を持って「これは違う」と判断できますが、性能が大幅に向上しシンギュラリティーを超えた場合、どっちが正しいか判断できなくなる時代が来る可能性が出てくるかもしれません。(現時点でも非医療者が見たら一見「事実」と誤認してしまうリスクがあるぐらいの「完成度」ではあります。)今後のGPT-4のリリースや性能向上は指数関数的な加速が予測され、シンギュラリティの課題は別名「2045年問題」と呼ばれているぐらい、近い未来の避けては通れない話になります。

医療へのAIの活用を巡る議論

さて、シンギュラリティより前の現時点(つまりある程度人間がAIの挙動を想定でき、コントロール下にある世界)において、IT技術やAIと医療倫理の関係について少し考えてみましょう。

医療へのAIの活用を巡る議論は、①世界保健機関(WHO)による 2021 年のガイダンス、②2018年のアメリカ医師会(AMA)の声明、③2019年の世界医師会(WMA)の声明があります。

①に関しては、6つのコアプリンシプルが例示されました:

  1. 人間の自律性、個人の自律性の保護

  2. 人の 福利、人の安全、公共の利益

  3. 透明性、説明可能性、明瞭さ

  4. 説明責任、 実施上の責任

  5. 包摂性、公平さ

  6. ニーズへの対応、修理・更新も見据え た持続可能性

また、医療者に向けてはAIを使用、実践する場所を想定して取り組むべき事項が提案されています。

②③の特徴としては、AIの位置づけを「人工知能 (Artificial Intelligence)」としてではなく「拡張機能(Augmented Intelligence)」と捉えている点です。その説明として、「AI」が医療において求められること・可能なことは、「医療の自動化」ではなく、医師である人間の動作・判断の支援、人間の知能の拡張にこそ重点があるからだ、としています。シンギュラリティー以前の現段階ではAIを「拡張機能」として実装する事は非常に理にかなっており、合理化を優先する米国・欧米医療ならではの考え方だと思います。

これを踏まえて、AMAの声明では5つの提案が示されています:

  1. 医療に おけるデジタル技術の導入が患者にも医師にも利益が大きいものであること

  2. 医療AIの開発から実践までの諸段階はそれらを用いる医師の視点が組み込ま れるべきこと

  3. 医療 AI が「再現性」「説明可能性」を備え、また新たな「弱者」を生み出すものではないこと

  4. AI の可能性と限界に関する医師・医学生・ 患者への教育の充実

  5. AI 使用による諸問題の把握・監督体制の整備

エビデンス設計や透明性が重視されており、医師の裁量の独立性、使用における法的責任等についても言及されています。かなりプラクティカルな内容になっていることがわかります。

日常診療とAI技術

AI技術は既に日常診療に取り入れられている事はご存知でしょうか?AIの中核技術であるDNN (Deep Neural Network, 多層ニューラルネットワーク)に「教師あり学習」をさせたものは既に実臨床で活用されています。

乳房密度評価機器、成人手首骨折の診断支援、脳の容積変化と白質異常を定量化 する認知症診断補助、脳構造のセグメンテーションの定量化、心臓 CT の冠動脈 石灰化スコア算出、脳内血流解析支援、心エコーの左室駆出率推定、放射線治療 対象構造物の自動輪郭作成などがあります。これらは米国FDA (Food and Drug Administration)では Class 2医療機器(欠陥があれば患者に不利益が生じる機器)として分類されています。

さらに、研究開発領域で言えば、患者の話し方の音声データ分析からうつ傾向を診断補助する応用、悪性黒色種と良性母斑を識別するスマートフォン・アプリ、腎生検画像 の糸球体自動検出と所見分類、突発性難聴の機能回復予 後予測や、顔面神経麻痺の転帰予測などがあり、さらに増えていくものと予想されます。

これら「教師あり学習」DNNをベースとした技術の限界と懸念としては、①膨大な教師データが必要であり、希少疾患には不向きであること、②教師データの偏在化の懸念、③判断根拠のブラックボックス化などが挙げられます。特に③に関しては実際の臨床現場でジレンマとなるテーマです。

診療でAI技術を使う上でのジレンマ

「判断根拠のブラックボックス化」問題は、今後実際の診療でジレンマを生じてしまうかもしれません(すでに生じていてもおかしくない)。あなたが診断を行う医師として、以下2つのシステムを使えるとして、どちらを使いますか?

  • A. 十分な説明能力はあるものの精度 75%の診断システム

  • B. ブラックボックスで説明はできないが精度 95%の診断システム

結果として診断精度が高ければBを使いたいと考える人もいれば、なぜその様に診断されたのか論理性を求める人はAを求めるかもしれません。まさに、明確に答えが出せない、議論すべき倫理テーマです。

視点を変えてみると、例えば麻酔薬はどのようなメカニズムなのかはわかっていませんが(ブラックボックス)、麻酔科医は臨床的な薬理作用やエビデンスに基づいて患者に説明し、患者はその方針に身を委ねています。

つまり、複数の不確実性が交絡しうる医療現場においては、患者・医師両者の前提知識の共有を十分に行った上で判断を行う必要があります。現時点では、そもそも医療者がAIを使うかどうかの判断(AIの判断の責任は医療者が行う前提)を行い、その上でAIの不確実性や生じうる不利益について患者に十分に説明を行う必要があると考えます。臨床一般で言えることですが、いわゆるShared Decision Makingを行っていくわけです。

最後に

「AIと医療倫理」は、ここでは記載できないほど様々なテーマを包含しています。これらの課題は、プロダクト開発をするエンジニアから臨床現場の医師まで皆が共通認識=医療倫理観を持って対応すべきです。Ubieでは開発から臨床現場のフォローまで社内医師が関わっており、広い視点のもと医療安全・医療倫理のサーベイランス活動を行っています。これからもAIと医療倫理の動向を注視しながら、最新、最善の選択ができるような基盤を維持する必要があると考えています。


参考文献

  • 「医療 AI の加速度的な進展をふまえた 生命倫理の問題」について、日本医師会 生命倫理懇談会

  • 藤田広志他、医用画像ディープラーニング入門、オーム社、2019 年、p.138

  • US Food and Drug Administration. FDA permits marketing of artificial intelligence-based device to detect certain diabetes-related eye problems. https://www.fda.gov/newsevents/news room/pressannouncements/ucm604357.htm. Published 2018. Accessed November 19, 2018.

  • Koops S, Brederoo SG, de Boer JN, Nadema FG, Voppel AE, Sommer IE. Speech as a Biomarker for Depression. CNS Neurol Disord Drug Targets. 2021 Dec 13. doi: 10.2174/1871527320666211213125847. Epub ahead of print. PMID: 34961469.

  • Mikołajczyk M, Patrzyk S, Nieniewski M, Woźniacka A. Evaluation of a smartphone application for diagnosis of skin diseases. Postepy Dermatol Alergol. 2021 Oct;38(5):761-766. doi: 10.5114/ada.2020.101258. Epub 2021 Nov 5. PMID: 34849121; PMCID: PMC8610040.

  • Y Kawazoe, K Shimamoto, R Yamaguchi, Y Shintani-Domoto, H Uozaki, M Fukayama, K Ohe: Faster R-CNN-BasedGlomerular Detection inMultistainedHuman WholeSlideImages. J. Imaging 2018,4,91; doi:10.3390/imaging4070091

  • Bing D, Ying J, Miao J, et al. Predicting the hearing outcome in sudden sensorineural hearing loss via machine learning models. Clin Otolaryngol. 2018;43:868-874.

  • Dusseldorp JR, van Veen MM, Mohan S, Hadlock TA. Outcome tracking in facial palsy. Otolaryngol Clin North Am. 2018;51:1033-1050.

  • WHO : Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: World Health Organization; 2021. https://www.who.int/publications/i/item/9789240029200 (2023年1月14日アクセス)

  • AMA : “Augmented Intelligence in Health Care H-480.940”, 2018. https://policysearch.amaassn.org/policyfinder/detail/augmented%20intelligence?uri=%2FAMADoc %2FHOD.xml-H-480.940.xml (2023年1月14日アクセス)

  • WMA : “WMA Statement on Augmented Intelligence in Medical Care”, 2019. https://www.wma.net/policies-post/wma-statement-on-augmentedintelligence-in-medical-care/ (2023年1月14日アクセス)


筆者紹介

中高をフィンランド、米国で過ごす。そのまま米国シアトルにあるUniversity of Washington (理学部、分子細胞生物学) を2008年に卒業し、帰国。アップルジャパン株式会社で新規店舗開発事業の勤務を経て、琉球大学医学部に入学。卒後、沖縄県立中部病院で初期研修を行い、2年連続同院ベストレジデント受賞。2018年4月から亀田総合病院脳神経内科に入職。同年から亀田総合病院卒後研修センター長補佐も兼任し、臨床だけでなく研修医の医学教育にも注力。同院のBest Teacher賞受賞。2021年には国立循環器病研究センター脳血管内科で超急性期脳卒中診療に従事。日々脳卒中診療を行う中、来院前患者アプローチの重要性、問診とフィジカルのポテンシャルを実感し2022年5月に株式会社Ubieに入社。
日本神経学会神経内科専門医、日本内科学会内科専門医。亀田総合病院脳神経内科非常勤医師、沖縄県立中部病院総合内科非常勤医師。


この記事が気に入ったらサポートをしてみませんか?