見出し画像

AIエンジニア必見!気を付けるべき国内・海外の規制

日本は他国と比較してAI規制が緩いといわれていますが、今後規制が強化されることが予想されます。このブログでは、今の日本の規制と今後の動向を海外の事例を踏まえながらわかりやすく解説します。


日本の規制

AIの規制には、AIの提供者側と使用者側に分けることができます。海外では、AIの提供者側の規制が問題になることが多いですが、日本では以下の理由からほぼ問題になることはありません。

  • 日本には基盤モデル(GPT4、PaLM規模のLLM)がない

  • 無断でデータを学習しても著作権違反にならない(著作権法30条の4の2)

日本には基盤モデルがない

日本にはGPT4、PaLM、DALL-Eのような基盤モデルがありません。そのため、学習データが著作権違反になっているかという問題にはなりづらいといえます。ファインチューニングや再学習については問題になりえますが、次に説明する著作権法第30条の4によって問題にならないと解釈されることが一般的です。

無断でデータを学習しても著作権違反にならない

日本には著作権法第30条の4という非常にAI提供者に優位な法律があります。著作権法第30条の4について簡単に説明をします。

まず著作権の保護対象は「思想又は感情を創作的に表現したものであって、文芸、学術、美術又は音楽の範囲に属するもの」です。第30条の4では、「著作物に表現された思想又は感情の享受を目的としない利用」が列挙されています。つまり著作権の例外規定です。著作権法30条の4の2には、著作権の具体的な例外として「情報解析」が記載されています。この「情報解析」という文言があることで、AIが著作物を学習しても著作権違反にはならないと一般的に解釈されています(議論はあるので今後どうなるかはわかりません)

情報解析(多数の著作物その他の大量の情報から、当該情報を構成する言語、音、影像その他の要素に係る情報を抽出し、比較、分類その他の解析を行うことをいう。

著作権法第30条4の2

情報解析とは、データから情報を抽出して解析する行為であるため、著作物に表現された思想又は感情の享受を目的には当たらないと解釈されます。ここは専門家でも意見が分かれるところであるため、改めてブログでまとめようと思いますが、一般的な解釈はこのようになっています。AIによる学習は情報解析であるため著作権違反にならないことが、日本がAI規制が緩いといわれる大きな理由です。

この状態は長く続かない可能性が高い

2023年9月7日総務省によって公表された「広島AIプロセス閣僚級会合の開催結果」には以下の文言があります。

  • AI開発者を対象とする国際的な行動規範の策定が国際社会の喫緊の課題の1つであるという共通認識の下、行動規範策定の基礎として、AI開発者を対象とする指針の骨子を策定。

  • 年内に、開発を含む全てのAI関係者向けの国際的な指針を策定。

つまり国際的な指針が策定されるため、海外の規制が日本の規制にも影響を与える可能性は高いです。最近では米国も規制の強化に動き始めました。海外のAI規制の潮流を知らずにAI開発をしてしまうと、大幅な設計変更を余儀なくされる可能性があります。

EUの規制

EUはAI規制に積極的(ハードロー)です。EUの動向を見ることで将来的な規制の上限を想定することができます。

重要なのは以下の2点です。

  • 提供するAIのカテゴリによって規制が異なるので自社のサービスがどのカテゴリに当てはまるかを確認することが大切

  • AI規則は2024年から施行される

AI規則の概要

AI規則はリスクベースで「許容できないリスク」「ハイリスク」「限定リスク」「最小リスク」の4つに分かれています。どのカテゴリに当てはまるかによって規制が変わります。

出典:PwC『生成AIを巡る米欧中の規制動向最前線 欧州「AI規則案」の解説』

リスクレベルを見てもイメージがわかないと思うので具体例を挙げます。

「許容できないリスク」

  • 潜在意識への操作

  • ソーシャルスコアリング

  • 不特定多数の顔認証データベース化

「ハイリスク」

  • 医療機器、玩具、産業機器などすでに第三者認証が必要な規制があるもの

  • 採用応募のスクリーニングやフィルタリング

  • 面接や試験での候補者評価といった採用選考

「限定リスク」

  • チャットボット

  • ディープフェイク

  • 感情推定や生体分類を行うAI

「最小リスク」

  • 上記のいずれにも該当しないAI

ほとんどのAIサービスが「限定リスク」か「最小リスク」に当てはまると思います。「限定リスク」に関しては、自身がAIであることを明示する必要があります。

たとえば、チャットボット構築サービスであるmiiboでは「AIによる自動生成」というメッセージが表示されます。これはEUのAI規則を意識した対応だと思われます。

違反した場合は、2,000万ユーロまたは全世界売上高の4%の高い方が罰金として科せられます。

AI開発者にとってはもっと具体的なガイドラインがほしいと思いますが、まだ具体的なガイドラインは出てきておらず、欧州委員会で検討がされています。

AI規則は2024年から施行される

完全施行は2024年後半以降とみられています。また、域外適用もありますので、日本にいてもEU所在者にサービスを提供すればAI規則は摘要されます。

なお、GPT4、PaLM、DALL-Eなどの基盤モデルには更なる規制がありますが、対象企業は少ないと思われますので今回は割愛します。

米国の規制

米国は日本と同様にAI規制には寛容な立場を取ってきました(ソフトロー)。一方、最近ではアマゾン、アンスロピック、グーグル、インフレクションAI、メタ、マイクロソフト、オープンAIの代表がAI規制を自ら訴えているという報道もされています。米国で主に議題になっているのは以下の2点です。

  • 著作権(フェアユース)

  • 責任あるAI

著作権(フェアユース)

先ほど日本ではAIが著作物を学習しても著作権違反にならないのが一般解釈であると説明しました。米国ではそこがかなりグレーであり、裁判によってどう転ぶかわからない状況です。

フェアユースというのは著作権の主張に対する抗弁事由(侵害してないよと主張できる理由)です。フェアユースが認められるかは以下の4つに基づいて、具体的な事例ごとに判断されます。

  1. 利用の目的と性格

  2. 著作権のある著作物の性質

  3. 著作物全体との関係における利用された部分の量及び重要性

  4. 著作権のある著作物の潜在的市場または価値に対する使用の影響

要は何もルールがない状態です。そのためたくさんの訴訟が起きています。基盤モデル事業者は莫大な損害賠償を請求されるリスクがあります。

※完全に私見ですが、IT大手のCEOがAI規制を訴えかけているのは、著作権のルールを早急に策定するためというのが本質だと思っています。明確なルールがないと常に事業リスクを抱えることになるからです。AIが人類を脅かすといったことも言っていますが主張に具体性はありません。

責任あるAI

米国では、具体的な法案に加えて、IT大手による暫定的な自主規制が注目されています。

審議中の法案としては、データプライバシー法案やAI法案があります。簡単にいうと、データの管理体制強化と学習プロセスの透明化です。まだ、具体的な情報はわかっていません。

IT大手による自主規制の内容はジェトロの記事を引用して説明と代えさせて頂きます。日本でのビジネスに直接関係するものではないので参考程度に見て頂ければと思います。

各社は安全性、セキュリティー、信頼性という3つの原則に基づいて、8つの取り組みを約束した。安全性に関しては、AIシステムを公開する前にバイアス(偏見)などに関わるテストを実施し、リスク管理に関する情報を産業界や政府、学会などと共有する。セキュリティーの確保では、サイバーセキュリティー対策やAI開発に関わる知的財産の保護などを行う。信頼性については、コンテンツがAIによって生成されたことを利用者が認識できるよう、電子透かし(注)などの仕組みを開発するほか、気候変動対策などに寄与するAIシステムの研究開発支援なども行われる。

出典:『2023年7月25日ジェトロ ビジネス短信』

結論

日本では、大手による国産LLMの検討が進んでいます。日本はAI規制が遅れていますが、学習データやデータの透明性はベンダーが自主的に担保する動きになっています。その他のAIベンダーにも海外を参考にした自主規制が求められていくように思います。

ためになったと思ったらシェアや「いいね」を頂けると励みになります!

この記事が気に入ったらサポートをしてみませんか?