JAMA雑誌:大規模言語モデル(LLM):プライバシー、デバイス規制、競争、知的財産権、サイバーセキュリティ、責任など

LLMが進化し、医療用途でより顕著になるにつれて、新たなリスクと利益が現れる

医療や薬物開発の設定でLLMアプリケーションを展開する前に、最低限のセキュリティ閾値を設定するべき
基礎となるオープンソースのAIツールは、ハッキングや操作のリスクを効果的に減らすプログラム的なコアに基づいているべき


The Challenges for Regulating Medical Use of ChatGPT and Other Large Language Models
Timo Minssen, LLD1,2; Effy Vayena, PhD3; I. Glenn Cohen, JD4
Author Affiliations Article Information
JAMA. Published online July 6, 2023. doi:10.1001/jama.2023.9651IF: 157.335


要約 written with ChatGPT4

AIの導入は医療機器、意思決定支援、臨床実践において新しいものではなく、過去10年間で投資と展開が特に増加しています。規制当局(例:米国食品医薬品局、欧州医薬品庁、国家医療製品管理局)、政府間組織(例:世界保健機関)、市民社会団体、病院の倫理審査委員会などは、AIアプリケーションの審査と承認を必要とする範囲を定義し、急速に変化する状況で規則を実施してきました。

変わったのは、OpenAIのChatGPTやGoogleのBardなどの大規模言語モデル(LLM)への公開利用と関心です。これらのLLMは大規模(GPT-4では1兆のパラメータ)、特定のタスクに訓練されたものではなく一般的(ただし微調整可能)、自己回帰的(過去のデータのみを使用して未来のデータを予測)、基礎的(多くのデバイスやアプリケーションの種となる可能性がある)。また、GoogleのMed-PaLM 2のような、よりカスタマイズされた医療訓練データを持つLLMの作成にも関心があります。

医療界はこれらのLLMを注目し、進行計画のドラフト生成からチャットボットを介した患者の質問への回答まで、幅広い用途で利用しています。しかし、LLMの医療利用によって引き起こされる法的および倫理的な課題については、世界中の規制当局がどのように対応すべきかが問われています。これにはプライバシー、デバイス規制、競争、知的財産権、サイバーセキュリティ、責任などが含まれます。

Privacy

大規模な言語モデルは、ウェブや他のデジタルソースから収集した大量のデータを訓練に使用しており、これには個人データが含まれる可能性があります。欧州連合では、一般データ保護規則により、特定の理由(例えば、明示的な同意や公共の利益)がない限り、健康データを含む個人データへのアクセスは許可されていません。現在、OpenAIのChatGPTは、一般データ保護規則との適合性を評価するために欧州の当局によって調査されています。また、医師が保護された患者データをLLMへのプロンプトに含める場合、1996年の健康保険移植可能性および説明責任法(HIPAA)または個々の州のプライバシー法により、アメリカで異なるプライバシー問題が発生する可能性があります。
規制当局が取り組むべき一般的な倫理的な問題は、ウェブや他のデータセットからの患者データのスクレイピングがいつ許されるべきか、患者はそのようなデータの使用からオプトアウトできるべきか、というものです。重要な最初のステップは、アメリカ、欧州連合、その他の地域のプライバシー規制当局が、LLMの開発と展開における許容可能な方法と許容不可能な方法について具体的な指導を発行することです。これらの規制当局間の調和も、可能な限り次の重要なステップです。

Device Regulation

米国や欧州連合の法律では、一般的な目的のために開発され、医療目的での使用を主張しないLLMソフトウェアは通常、医療機器とは認定されません。しかし、医療機器との相互作用や、医療従事者が医療判断を下し、患者とコミュニケーションを取るのを助けるなど、特定の医療目的に向けて開発、修正、または指向されたLLMは、医療機器として扱われる可能性があります。
意図された使用の線引きを監視するのは難しいでしょう。また、第三者がそれを医療機器のコンポーネントとして適応または使用する場合、特別なコンプライアンス基準を引き起こし、常にアクセス可能でない可能性のある十分な文書化を必要とするため、オープンソースのLLMについて特別な懸念があるかもしれません。デバイス規制者は、既存の規制に基づいてLLMを医療製品に組み込むときにそれが医療機器となるタイミングを明確にし、LLMの適応学習をどのように管理するかについての基本的な決定を下し、既存のリスク分類アプローチがLLMのデバイス内使用の特異な状況にどのように適用されるかを考慮する必要があります。

Competition Law

医療分野での大規模言語モデル(LLM)の使用が始まる今、2つの大きく異なる未来を想像することができます。一つは、異なるデータソースと設計に基づいて訓練された医療LLMの活気あるエコシステムが存在する未来、もう一つは、2~3の大企業がLLM市場を支配し、その製品を全ての医療ユーザーにライセンス供与する未来です。それぞれの未来には実際のトレードオフが存在します。多数の小企業がプライバシーやその他の倫理を設計に組み込むことが適切にできるでしょうか?消費者は混雑した市場で高品質と低品質のLLMを適切に区別できるでしょうか?少数のLLM開発者の支配はモデルの均一性をもたらすでしょうか?少数の開発者が患者や医療システムの価格を上昇させる形で市場力を行使するでしょうか?これら2つの大きく異なる未来の間で世界がどこに行き着くかを決定するには、反トラスト法規制者が重要な役割を果たします。さらに、市場参入のための医療規制者による要件設定や医療規制の柔軟性レベルも、競争環境に大きな影響を与えます。

Intellectual Property

競争政策の分析は、LLMに認識される知的財産権に依存します。LLM開発の計算、データ作成、基礎モデリングの段階で多くの知的財産権を認識すると、市場への参入障壁が高まる可能性があります。しかし、知的財産権をあまりにも少なく認識すると、開発終了時に独占製品を持つという主張に基づいて十分な資本を調達できないため、一部の市場参入者が抑止される可能性があります。LLMがしばしば膨大な量の不透明なデータソースで訓練されるという事実は、それ自体が既存の知的財産権を侵害する可能性を示唆しています。この懸念と現在のLLMの透明性の欠如は最近、欧州連合の提案された人工知能法の変更を引き起こし、現在では生成的AIツールを展開する企業に対して、システムの開発に使用された著作権付き素材を開示することが求められています。

Cybersecurity and Liability

大規模言語モデル(LLM)は、医療のサイバーセキュリティにとって善でも悪でもあり得ます。生成型AIは、デジタルログのスキャン、脆弱性の悪用パターンの発見、医療従事者がサイバーセキュリティシステムを改善するのを助けるなど、重要な役割を果たすことができます。しかし、LLMのセキュリティ脆弱性は、それらを操作し、誤情報の源、より洗練された自動化された詐欺攻撃の生成器、またはマルウェアの拡散者に変える可能性があります。したがって、医療や薬物開発の設定でLLMアプリケーションを展開する前に、最低限のセキュリティ閾値を設定するべきです。

基礎となるオープンソースのAIツールは、ハッキングや操作のリスクを効果的に減らすプログラム的なコアに基づいているべきです。規制者はまた、医師や他の医療スタッフがLLMの動作、その限界、そしてサイバーセキュリティリスクについて十分に訓練されていることを確認する必要があります。立法者は、開発者がそのような基準に適合しない場合に責任を問われ、責任を負う適切な構造を持っているかどうかを検討する必要があります。

これらの選択された領域すべてを規制することは微妙であり、これは始まりに過ぎません。なぜなら、LLMが進化し、医療用途でより顕著になるにつれて、新たなリスクと利益が現れるからです。一部の国々はLLMの使用を禁止しようとしていますが、開発者による変更を受けて、ほとんどが後退しました。また、欧州連合で提案された人工知能法への最近の変更は、過度に詳細で硬直的な法律は、新たな技術開発に関する重大な更新課題に直面することを示しています。

一方、業界の声は、政府に対してLLM産業による自己規制を許可するために規制を控えるように促しています。異なるアプローチは、LLMに焦点を当てた新しい法律を通過させようとするものです。しかし、そのような法律は医療AIを今日の技術基準に硬直的に結びつけるリスクがあり、それが明日の問題に対して不適切である可能性があります。私たちは、これらのガバナンス形態が重要であると信じていますが、同様に重要なのは、米国食品医薬品局や欧州医薬品庁などの行政機関への医療AI規制の権限をより開放的に委譲すること、および特に責任問題に関して、裁判所による一般法の意思決定です。


この記事が気に入ったらサポートをしてみませんか?