生成AI/LLMが切り拓く新たな医療の可能性とPharmaXの挑戦
こんにちは。PharmaX共同創業者・エンジニアリング責任者の上野(@ueeeeniki)です。
ChatGPT3.5そして4が発表されて社会に衝撃を与えてからというもの、連日様々なプロダクトが発表されたり、大量の記事が公開されています。
スタートアップでも複数の企業が、特命チームを立ち上げるなど、大きな投資をしていくことを宣言しています。
私自身もLLMが医療にもたらすインパクトは非常に大きなものがあると考えており、この度PharmaXでも生成AI/LLM専任チームを立ち上げることとしました!
PharmaXが現在行っているオンライン薬局サービス周辺だけを見ても非常に大きなうねりがくると確信していますし、私たちPharmaXがその中心となって革新を起こしていく覚悟を持っています。
なぜLLMが医療に大きなインパクトをもたらすのか?
医療の意思決定における重要な情報は、ほとんどが非構造化データである
医療分野においては、患者のカルテや医学文献、研究論文など多くの非構造化データが存在します。
元々、医療のIT化が難しいと言われていたのは、その非構造化データの多さゆえです。
非構造化データを多少構造的な情報に変換して記録したり(例:会話した内容をカルテや薬歴に記載したり)、逆に構造的な情報を元に非構造的な方法で伝達したり(例:頭の中で構造化して判断した診断を口頭で患者に伝える)することは、人間が得意とするところでした。
しかし、LLM関連の劇的な技術革新により、非構造な情報からも有用な知識や見解をアウトプットすることが可能になりました。
そして、その知識や見解の精度や深さは、人間の専門家を凌ぐのではないかというレベルです。
ソフトウェアとは情報を変換する装置に過ぎない
本来、ITシステムなんてものは、入力されたデータを構造化して保存し、それをユーザーに有用な形で取り出しているに過ぎません。
だからこそ、我々エンジニアがITシステムの設計を考えるときには、常にデータ構造を意識しています。
AIが発展する以前の世界では、基本的には、入力データも出力データも構造化されていなければ非常に扱いづらく、プロダクトのあり方には制限がかかるのが常識でした。
たとえば、一般的なWeb問診システムは、与えられた選択肢の中から自分の今の状態を選ぶというUXを中心に設計されているかと思います。
ChatGPTに代表されるLLMが衝撃的だったのは、非構造化データのインプットから有用なアウトプットが出せるという人間にしかできなかったことが、簡単にかつ人間以上に上手くできるようになったことです。
その結果、下の図のようにこれまではほぼ不可能だったインプットからアウトプットへの変換のパスが増え、劇的にできることの幅が広がりました。
LLMは医療にどのような変革をもたらすのか?
では、LLMは医療にどのような変革をもたらし、今後どのようなアイディアが生まれてくるのでしょうか。
一般的な回答はChatGPTさんの得意とするところだとは思いますので、ChatGPTさんに聞いてみました(笑)
私の熱が伝わったのか、なんだかいつも以上に饒舌な気がします(笑)
ここからは、ChatGPTさんと対話しての、私なりの気付きを中心に記載したいと思います。
これまでは、医療のAI活用というと、どちらかといえば保存されている膨大な過去のビックデータをどのように研究開発に活かすか?ということにスポットライトがあたることが多かったかと思います。
しかし、PharmaXが行っているのは、チャットやビデオ通話を通じて、オンラインで医薬品が購入できるというサービスです。
過去の情報の活用ももちろん重要ですが、あえて言えば、私はこれまでの医療では取りこぼされていたような「生の情報」を上手く扱えるようになること興味があります。
今の日本の医療では、「日常」と「医療」の間には大きな隔たりがあります。
「医療」は、病気に罹ってどうしようもないほど辛くなって始めて受けるサービスであり、日常のモヤモヤした不調・不安まで汲み取ってもらえるサービスにはなっていません。
実際に病院や薬局に行った際でも、医療者に自分の気持や考えを上手く伝えられなかったという方は多いのではないでしょうか?
私たちのこれまでのインタビューの中でも、多くの患者さんが自分の本当の悩みを上手く汲み取ってもらなかった経験を口にします。
それは医療者に時間がなくて忙しいことや、悩みを汲み取ろうとしない姿勢、医師の専門性が分化していることなどが原因でしょう。
ですが、上手く言語化できないモヤモヤの中に、患者さんが本来は汲み取って解消して欲しい不安や重大な病気のヒントが隠れているのではないでしょうか。
そんな違和感に気がつけるかどうか、あるいは、違和感のもとになる情報を引き出せるかどうかは、医師や薬剤師個人のコミュニケーション能力に依存してしまっているというのが現状でしょう。
LLMを活用することで、患者個々人の身体や心の発する隠れたメッセージから、よりよい治療法や医療者が注意すべきポイントを提案することができれば、医療はもっと身近で個別性の高いものになっていくでしょう。
患者は、これまで以上に安心して曖昧な表現や非構造的なコミュニケーションをすることが可能になります。
医療者の見逃しによる重大なミスも防ぐことも可能です。
逆に、上手く考えを伝えられないのは、医師や薬剤師も同じです。
彼らの頭の中にある考えがコミュニケーションの中で伝わりきっているかといえばそんなことはありません。
LLMが彼ら専門家の考えを翻訳し、構造化して伝えることができれば、患者さんの不安を軽減し、行動変容を促すことなども可能になっていくことでしょう。
実際PoCしてみてどうだったか
PharmaXは、チャットやビデオ通話をすることでオンラインで医薬品が購入できるというサービスを展開しています。
直近は、特に、OTC医薬品(処方箋が必要ない薬)をEC販売する「YOJO」というサービスでLLM活用のPoCを行っています。
想像が付くかもしれませんが、患者さんの相談への回答を薬剤師に対してサジェストすることや、これまでの会話をサマリーして薬剤師が会話を遡らなくてもどういう経緯があったのかを理解できるようにすることなどが、すぐに思いつくLLMの活用方法でしょう。
実際のチャットデータに似せたデータを弊社内で作成してPoCをしてみたところ、初回ご購入いただくまでの会話はある程度パターンがあるため、それなりの精度で返答をサジェストすることが可能です。
また、長く使ってくださっている場合も、過去の会話の文脈も踏まえることが可能なため、かなり適切なメッセージをサジェストすることが可能です。
今後は、プロンプトエンジニアリングの工夫を積み重ねることや、私たちの保有している膨大な会話データを匿名加工情報にしてFine-tuningを行うことで、より精度高いサジェッションを行うことが可能だと考えています。
その他にも実現したいアイディはたくさんあります。
LLMを医療に活用するために乗り越えるべき課題
一方で、LLMを医療に応用するには乗り越えるべき課題も多くあります。
代表的な課題としては、「倫理問題」「責任問題」「個人情報保護・セキュリティ対策の問題」が挙げられます。
特に医療では、「倫理問題」と「責任問題」については、LLMの導き出した答えを医療者が専門性を持って正しく監査していくことが求められます。
具体的にはLLMがサジェストするのはあくまで医療者に対してであり、患者が直接LLMと対話をして自己判断してくというのは難しいでしょう。
仮にLLMが人間の専門家を超える知見を導き出せる様になったとしても、
医療者が責任主体であるという状況は世界的に続くでしょうし、そうであるべきだと私たちも考えています。
「個人情報保護・セキュリティ対策の問題」は、非常に重要であり、
私たちPharmaXもAI利用のガイドラインをより一層磨き上げ、高いセキュリティ基準やプライバシー保護機能を備えたプロダクト作りを推進していく必要があります。
我々が預かっているのは、患者さんの重要な健康データです。
現在PharmaXでは、ゼロトラストモデルへの移行を急速に行っていますが、これまで以上にデータセキュリティエンジニアリングへの投資、全社的なルール・インシデント対応フローの整備等も行っていく必要があります。
これからの医療者とAIの関係〜AIは医療者の伴走者になる
ここまでのことからお分かりいただけるように、AIは医療者にとっての伴走者になっていくでしょう。
まさにMicrosoftが掲げているようなCopilot(副操縦士)という考え方が医療分野でもしっくり来ます。
医療者が、AIと協働・対話しながら、医療を提供してくという世界が必ず来ます。
医療者に求められる能力は、AIに適切に問いかけ、その結果を正しく監査・検証するスキルとなっていくでしょう。
PharmaXは、自社独自のデータを大量に保有している企業として、そのような未来にフルベットしていきます。
私たち発信で生成AIの様々な活用例で生み出していきたいと考えています。
最後に
冒頭でも申し上げたとおり、PharmaXでは、生成AI/LLMの専任チームを立ち上げ、メンバーを募集します。
AIを専攻していたというようなご経験までは必ずしも必要ありません。
新しい技術に果敢に挑戦したいソフトウェアエンジニアの方、学生の方も大歓迎です。