見出し画像

生成AI時代の規制とリスク管理:各国の最新動向と対応策

近年生成AIをはじめとするAI技術は急速に進化しており、ChatGPTのようなAIシステムはあらゆる質問に対して自然な返答を生成できるようになり、世界中で大きな注目を集めています。これに伴い、生成AIがもたらす多大な可能性だけでなく、誤情報の拡散や個人情報の悪用などのリスクも浮上しています。各国はこうした課題に対応するため、法整備や倫理規範の策定に動き出しています。本記事では、生成AIに対する各国の最新動向と取り組みについて詳しく紹介します。


日本

日本においてもEUや欧米と同様にAI規制に向けた検討が始まっていますが、現時点で生成AIの利活用自体を直接規制する法律は存在しません。ただし、生成AIによるコンテンツ生成において、既存の著作権法などの知的財産権を侵害するリスクがあると指摘されています。

この課題に対し、内閣府の「AI時代の知的財産権検討会」では、生成AIと知的財産権の関係について検討が重ねられてきました。2023年の中間とりまとめでは、AIによる学習段階は原則として知的財産権の対象外と整理されました。

2024年4月には、経済産業省より「AI事業者ガイドライン(第1.0版)」が発表されました。AI事業者ガイドラインは安全・安心なAI活用の促進を狙いとしたAIガバナンスの指針です。このガイドラインは、生成AIの普及を始めとする近年の技術の急激な変化等に対応すべく、従来の3つのガイドラインを統合、改定してとりまとめられました。

AIの開発者のみならず、提供者や利用者をも対象にしたガイドラインであるため、基本的には組織においてAIの開発・導入推進やその管理責任を担う組織の全ての方々が参考にすべきガイドラインであると言えます。

ちなみに世論調査(1534人)の結果としては、「規制を強化すべき」が61%、「今のままでよい」が8%でした。現状では、リスクを懸念する声が多数のようです。

アメリカ合衆国

バイデン政権は、国家AIイニシアチブ(National AI Initiative)や関連する政策文書を通じて、生成AIに関する政府指針や研究開発支援、人材育成などの施策を推進してきました。しかしながら、国を挙げての法的規制の導入については慎重な姿勢を示しています。

その理由の一つは、IT企業の自主的な取り組みへの期待があるためです。2023年、ホワイトハウスでは、Google、Microsoft、OpenAIなどの大手AI企業と会議が開かれ、「AI開発の信頼性と安全性確保に関する自主的コミットメント」が発表されました。

このコミットメントでは、AI安全性に関する情報開示の徹底、コントロール体制の整備、重要課題への活用推進など、企業が自主的に取り組む項目がまとめられています。ただし法的拘束力はなく、規制の暫定的な代替措置と位置づけられています。

欧州連合(EU)

欧州連合(EU)は世界に先駆けてAIシステムの利用に関する包括的な規制「AI Act」を整備しました。2024年3月に欧州議会で可決され、5月にEU理事会でも承認されたことにより、世界で初めての横断的なAI規制が誕生しました。

「AI Act」では、AIシステムのリスク度合いに応じて4段階に分類し、それぞれに異なる規制を課しています。

  • 許容できないリスク: AIシステムの開発および使用が原則禁止される。
    認知行動操作やソーシャルスコアリングなどのAIシステムは、EUにおいて使用が禁止されています。また、プロファイリングに基づく予測的な取り締まりや、人種、宗教、性的指向などの特定のカテゴリーに基づいて人々を分類するために生体データを使用するシステムに対するAIの使用も禁止されています。一方、行方不明者の捜索やテロ攻撃の防止など、事前の承認が必要な特定の状況においては許可される。

  • 高リスク: 事前・事後の厳しい規制が課される。
    法執行やヘルスケア、雇用、教育におけるAIの利用など、リスクが高いとみなされるアプリケーションには一定の条件が課されます。差別をしないようにし、プライバシーに関する規則を遵守しなければなりません。開発者は、システムの透明性、安全性、ユーザーへの説明可能性を示す必要があります。

  • 制限付きリスク: 透明性確保のための義務が課される。
    チャットボットなど、特定の影響を持つが低リスクと見なされるシステムが含まれます。ユーザー通知の義務や基本的な透明性要件が課されます。

  • 最小リスク: 特段の規制はない。
    このカテゴリには、上記に分類されないAIシステム(スパムフィルターやゲームAI、スケジュール管理など)が含まれます。開発者は、ユーザーがAIシステムとやり取りしていることを通知する義務があります​

生成AIは上記の特定のリスク分類に当てはまらないものの、高リスク用途で使用された場合や、音声・画像・動画・テキストを生成する汎用AIモデルについては、限定リスクとして一定の規制対象となる見通しです。具体的には、技術文書の整備や、システムへの情報開示、学習データの取り扱いなどが義務付けられる可能性があります。

最も強力な汎用AIモデルや生成AIモデル(10^25FLOPsを超える総計算能力を用いて学習されたもの)は、規則の下でシステミック・リスクがあるとみなされる。、OpenAIのGPT-4とDeepMindのGeminiがこのカテゴリーに入ると考えられています。このようなモデルのプロバイダーは、リスクの評価と軽減、重大インシデントの報告、システムのエネルギー消費の詳細の提供、サイバーセキュリティ基準への適合の確認、最先端のテストとモデル評価の実施が義務付けられます。

AI法はEU域内で活動するあらゆるモデルに適用されるため、米国を拠点とするAIプロバイダーは、少なくとも欧州ではこれを遵守する必要があります。OpenAIの生みの親であるOpenAIのサム・アルトマン最高経営責任者(CEO)は昨年5月、AI法が法制化された場合、同社がヨーロッパから撤退する可能性を示唆したが、後に同社にはその予定はないと述べました。

中国

中国政府は2023年7月、生成AIサービスの運用ルールを定めた「生成AIサービス管理暫定規則」の最終版を公表しました。この規則はEUの「AI Act」に比べると簡潔な内容ですが、レコメンデーションアルゴリズムなどの既存法規も参照しています。

この規則の特徴は、個人の権利保護と国家の利益を巧みに組み合わせている点にあります。個人情報の適切な取り扱いを求める一方で、「社会主義の核心的価値観の堅持」や「国家安全、公共秩序維持」も重視しており、AIの発展と中国の国家理念の一体化を図ろうとしています。

技術開発に関する規定では、データの品質向上や差別防止を求めることで、生成AIの精度と公平性を高める狙いがあります。この背景には、中国のAI技術を世界最高水準に引き上げようとする意図があると考えられます。

一方で、サービス提供者に対する要求は厳しく、利用者への適切な情報開示、苦情処理、サービスの継続的な提供保証など、多岐にわたる義務が課せられています。特に未成年者保護に重きを置いているのは、AIの影響力の大きさを認識した結果と思われます。

さらに、中国政府自身の役割も明確に定義されています。安全確保とイノベーション促進の両立を目指し、事業環境の整備や生成AIインフラの構築が政府の責務とされています。つまり、規制者であると同時に、産業の積極的な支援者としての立場も鮮明にしているのです。

各国の施策比較

AIに関する各国の取り組みは、柔軟なガイドラインから強制力のある規制まで様々です。しかし、共通しているのは「リスクベース」のアプローチを採用している点です。2023年4月、G7のデジタル・技術大臣会合でも、AIの政策と規制における「リスクベース」アプローチの重要性が確認されました。

リスクベースのアプローチでは、AIシステムの用途とそのリスク度合いに応じて、遵守すべき義務が課されます。このアプローチの主な利点は、早期に規制介入が可能になること、また潜在的な悪影響に見合ったコンプライアンス要件とコストを設定できる点にあります。

Ernst & Young(EY)が世界の AI 規制の状況について発表した報告書によると、AIガバナンスにおいて規制アプローチとガイドラインアプローチを採用する国々の相対的な位置を以下のように示しています。

AIの規則制定へのアプローチ

多くの国々がリスクベースのアプローチを採用しているものの、具体的な内容や規制の厳しさは国によって異なっています。AIの急速な発展に伴い、各国はリスクへの適切な対応を検討しつつ、産業発展への影響にも配慮する必要があります。そのバランスの取り方は課題となっています。

まとめ

各国は、生成AI時代の最適な対応を模索しています。生成AIは画期的な生産性向上や新しいビジネスチャンスをもたらすと同時に、重大な課題を我々に投げかけています。法制度、倫理規範、セキュリティーなど、あらゆる側面からの検討が必要とされ、各国の今後の動きに注目が高まります。

■「TDAI Labについて」
当社は2016年11月創業、東京大学大学院教授鳥海不二夫研究室(工学系研究科システム創成学専攻)発のAIベンチャーです。AIによる社会的リスクを扱うリーディングカンパニーとして、フェイクニュース対策や生成AIの安全な利用法について発信しています。