見出し画像

世界初の包括的なAI規制法、EUが最終法案で大筋合意…2026年にも施行見通し

EUがAI法案の最終版で大筋合意しました。これは、AI技術の適切な運用に向けた重要な一歩です。これを読めば、世界初の包括的なAI規制法がどのように影響を与えるのか、そして2026年に施行されることでどのような変化が訪れるのかに興味を持つことでしょう。

概要

- 欧州委員会は、欧州市場に投入される AI システムの安全性と基本的権利の尊重を目的とした世界初の AI 規制草案を提案しました。
- この提案は、AI システムのリスクに応じて規制の強度を調整する「リスクベース」のアプローチを採用しています。
- 高リスク AI システムには、一連の要件と義務が課せられ、市場に投入される前に適合性評価を受ける必要があります。
- 一方、低リスク AI システムには、透明性の義務のみが課せられます。
- また、社会に害を及ぼす可能性のある AI の用途は、EU から禁止されます。
- 法執行目的での AI システムの使用には、特別な例外と保護措置が設けられています。
- 汎用 AI システムや基礎モデルと呼ばれる大規模な AI システムには、特別なルールが適用されます。
- AI システムの監督と施行のために、欧州委員会内に AI オフィスが設立され、加盟国の代表で構成される AI 理事会や科学委員会などの統治機関が設けられます。
- AI 法違反に対する罰金は、違反企業の前会計年度の世界年間売上高の割合またはあらかじめ定められた額のいずれか高い方として設定されます。中小企業や新興企業には、より比例した上限が規定されます。

(1) AIの法律上の注意点は?|責任は誰がとるのか・著作権はあるの .... https://ainow.ai/2022/01/20/261796/.
(2) 弁護士によるAI(人工知能)に関する法律の解説記事まとめ | IT .... https://it-bengosi.com/blog/ai-matome/.
(3) AIの規制や法整備について、EUおよび日本のAI戦略を解説|IT .... https://go.orixrentec.jp/rentecinsight/it/article-304.
(4) 欧州AI規則案の概要 - Business & Law(ビジネスアンドロー). https://businessandlaw.jp/articles/a20220101-1/.
(5) 世界初のAI包括的ルール「広島AIプロセス」関連文書の解説 .... https://www.pwc.com/jp/ja/knowledge/column/awareness-cyber-security/generative-ai-regulation08.html.


このプレスリリースは2024年2月2日に更新され、合意に向けた最終的な妥協文が追加されました。

3日間の「マラソン」協議を経て、理事会議長国と欧州議会の交渉担当者は、人工知能(AI)に関する調和ルールに関する提案、いわゆる人工知能法に関して暫定合意に達した。この規制草案は、欧州市場に投入され、EU 内で使用される AI システムの安全性を確保し、基本的権利と EU の価値観を尊重することを目的としています。この画期的な提案は、ヨーロッパにおける AI への投資とイノベーションを促進することも目的としています。

これは歴史的な偉業であり、未来に向けた大きなマイルストーンです。本日の合意は、社会と経済の将来にとって重要な分野で、急速に進化する技術環境における世界的な課題に効果的に対処するものです。そしてこの取り組みにおいて、私たちは国民の基本的権利を完全に尊重しながら、ヨーロッパ全土でイノベーションと人工知能の普及を促進するという、非常に微妙なバランスを保つことに成功しました。

カルメ・アルティガス、スペイン国務長官(デジタル化と人工知能担当)
カルメ・アルティガス、スペイン国務長官(デジタル化と人工知能担当)
AI 法は、EU の単一市場全体で民間および公共の関係者による安全で信頼できる AI の開発と導入を促進する可能性を備えた主要な立法イニシアチブです。主なアイデアは「リスクベース」のアプローチに従って、社会に害を及ぼす AI の能力に基づいて AI を規制することです。リスクが高いほど、ルールは厳しくなります。この種の法案としては世界初であり、GDPR と同様に、他の法域における AI 規制の世界標準を設定することができ、世界の舞台で技術規制に対する欧州のアプローチを促進することができます。

暫定合意の主な要素

当初の委員会提案と比較して、暫定合意の主な新しい要素は次のように要約できます。

将来的にシステミックリスクを引き起こす可能性のある影響の大きい汎用AIモデルおよび高リスクAIシステムに対するルール
EUレベルでの強制力を伴う改訂された統治システム
禁止事項のリストは拡大されますが、安全措置の対象となり、公共の場で法執行機関による遠隔生体認証の使用が可能になります。
高リスク AI システムの導入者に対し、AI システムを使用する前に基本的権利影響評価を実施する義務を設けることで、権利の保護を強化します。
より具体的に言えば、暫定合意には以下の側面が含まれます。

定義と範囲

AI システムの定義が、 AI をより単純なソフトウェア システムから区別するための十分に明確な基準を提供することを保証するために、妥協協定では定義を OECD が提案するアプローチと一致させています。

暫定協定はまた、この規制はEU法の範囲外の分野には適用されず、いかなる場合においても国家安全保障における加盟国の能力やこの分野の任務を委託されたいかなる組織にも影響を与えてはならないことも明確にしている。さらに、AI法は軍事または防衛目的のみに使用されるシステムには適用されません。同様に、この協定は、研究とイノベーションのみを目的として使用される AI システム、または専門的目的以外で AI を使用する人々には規制が適用されないことを規定しています。

AI システムを高リスクおよび禁止された AI 実践として分類する

この妥協案では、深刻な基本的権利侵害やその他の重大なリスクを引き起こす可能性が低い AI システムが捕捉されないように、高リスク分類を含む水平的な保護層が規定されています。限られたリスクしか提示しない AI システムには、ユーザーが今後の使用について十分な情報に基づいた決定を下せるように、コンテンツが AI によって生成されたものであることを開示するなど、非常に軽い透明性義務が課されることになります。

幅広い高リスクAI システムが認可されることになるが、EU 市場へのアクセスを得るには一連の要件と義務が課せられることになる。これらの要件は、例えばデータの品質や、遵守すべき技術文書に関連して、より技術的に実現可能で、利害関係者が遵守する負担が軽減されるような方法で、共同立法者によって明確化および調整されています。中小企業が自社の高リスク AI システムが要件に準拠していることを証明するために作成されたものです。

AI システムは複雑なバリュー チェーンを通じて開発および配布されるため、妥協案には、それらのチェーンにおけるさまざまな関係者、特に AI システムのプロバイダーとユーザーの責任と役割の割り当てを明確にする変更が含まれています。また、AI 法に基づく責任と、関連する EU データ保護法や分野別法などの他の法律にすでに存在する責任との関係も明確にしています。

AI の用途によっては、リスクが許容できないとみなされるため、これらのシステムは EU から禁止されます。この暫定合意では、例えば、認知行動操作、インターネットや監視カメラ映像からの顔画像の対象外のスクレイピング、職場や教育機関での感情認識、社会的スコアリング、性的指向や宗教などの機密データを推測するための生体認証の分類などが禁止されている。信念、そして個人に対する予測的な取り締まりのいくつかのケース。

法執行の例外

法執行機関の特殊性と、その重要な業務において AI を使用する能力を維持する必要性を考慮し、法執行目的での AI システムの使用に関して委員会提案に対するいくつかの変更が合意されました。適切な保護措置を条件として、これらの変更は、活動に関連する機密の運用データの機密性を尊重する必要性を反映することを目的としています。たとえば、法執行機関が緊急の場合に適合性評価手順に合格していない高リスク AI ツールを導入できるようにする緊急手順が導入されました。ただし、AI システムの潜在的な悪用に対して基本的権利が十分に保護されることを保証するための特定のメカニズムも導入されています。

さらに、公共のアクセス可能な空間におけるリアルタイム遠隔生体認証システムの使用に関して、暫定協定は、そのような使用が法執行の目的で厳密に必要である場合、およびそのため法執行当局がそのようなシステムの使用を例外的に許可されるべき目的を明確にしている。 。この妥協案は追加の安全措置を規定しており、これらの例外は特定の犯罪の被害者の場合、テロ攻撃などの本物の脅威、現在の脅威、または予見可能な脅威の防止、最も重大な犯罪の容疑者の捜索などに限定されている。

汎用 AI システムと基盤モデル

AI システムがさまざまな目的に使用される状況 (汎用 AI )、および汎用 AI テクノロジーがその後別の高リスク システムに統合される状況を考慮するために、新しい規定が追加されました。暫定合意では、汎用AI(GPAI)システムの特定のケースについても言及している。

基礎モデル、つまりビデオ、テキスト、画像の生成、横言語での会話、コンピューティング、またはコンピュータコードの生成など、幅広い特有のタスクを有能に実行できる大規模システムについても、特定のルールが合意されています。暫定合意では、基礎モデルは市場に投入される前に特定の透明性義務を遵守しなければならないと規定されている。「影響の大きい」基礎モデルには、より厳格な制度が導入されました。これらは、大量のデータを使用してトレーニングされた基礎モデルであり、平均をはるかに上回る高度な複雑さ、機能、パフォーマンスを備えており、バリュー チェーンに沿ってシステミック リスクを分散させることができます。

新しいガバナンスアーキテクチャ

GPAI モデルに関する新しい規則と EU レベルでの施行の明らかな必要性を受けて、これらの最先端の AI モデルを監督し、基準とテスト慣行の促進に貢献し、共通規則を施行する任務を負う欧州委員会内に AIオフィスが設立されました。すべての加盟国。独立した専門家からなる科学委員会は、基礎モデルの機能を評価するための方法論の開発に貢献し、影響の大きい基礎モデルの指定と出現について助言し、関連する可能性のある材料安全リスクを監視することにより、GPAI モデルについて AI オフィスに助言します。基礎モデルまで。

加盟国の代表で構成されるAI理事会は、欧州委員会の調整プラットフォームおよび諮問機関として残り、財団の実施基準の設計を含む規制の実施に関して加盟国に重要な役割を与えることになる。モデル。最後に、AI理事会に技術的な専門知識を提供するために、業界の代表者、中小企業、新興企業、市民社会、学界などの利害関係者のための諮問フォーラムが設立されます。

罰則

AI法違反に対する罰金は、違反企業の前会計年度の世界年間売上高の割合またはあらかじめ定められた額のいずれか高い方として設定された。これは、禁止された AI アプリケーションの違反に対しては 3,500 万ユーロまたは 7%、AI 法の義務の違反に対しては 1,500 万ユーロまたは 3%、不正確な情報の提供に対しては 750 万ユーロまたは 1.5% となります。ただし、暫定協定では、AI法の規定に違反した場合の中小企業および新興企業に対する行政罰金のより比例した上限を規定している。

また、妥協合意では、自然人または法人が AI 法の違反に関して関連する市場監視当局に苦情を申し立てることができ、そのような苦情が当局の専用手順に従って処理されることを期待できることも明確にしています。

透明性と基本的権利の保護

この暫定合意では、リスクの高い AI システムが導入者によって市場に投入される前に、基本的権利への影響評価が規定されています。この暫定協定では、高リスク AI システムの使用に関する透明性の向上も規定されています。特に、欧州委員会提案の一部の条項は、公的機関である高リスク AI システムの特定のユーザーも、高リスク AI システム用のEU データベースに登録する義務があることを示すために修正されました。さらに、新たに追加された規定では、感情認識システムのユーザーが、自然人がそのようなシステムにさらされている場合にその旨を通知する義務が強調されています。

イノベーションを支援する措置

よりイノベーションに適した法的枠組みを構築し、証拠に基づく規制学習を促進することを目的として、イノベーションを支援する措置に関する規定は、委員会の提案と比べて大幅に変更された。

特に、革新的な AI システムの開発、テスト、検証のための制御された環境を確立することになっている AI規制サンドボックスは、現実世界の状況で革新的な AI システムのテストも可能にする必要があることが明らかになりました。さらに、特定の条件と安全措置の下で、現実世界の状況で AI システムをテストできるようにする新しい規定が追加されました。中小企業の管理負担を軽減するため、暫定協定にはこうした事業者を支援するために講じるべき措置のリストが含まれており、限定的かつ明確に規定されたいくつかの免除規定が設けられている。

発効

暫定合意では、AI法は特定の条項を除き、発効から2年後に適用されると規定されている。

次のステップ

本日の暫定合意を受けて、新規制の詳細を最終決定するために今後数週間技術レベルでの作業が続けられる。この作業が完了したら、議長国は承認を得るために妥協案を加盟国の代表者(Coreper)に提出する予定である。

全文は両機関によって確認され、共同立法者によって正式に採択される前に法的言語の修正を受ける必要がある。

背景情報

2021年4月に提出された欧州委員会の提案は、基本的権利を尊重する安全で合法なAIの単一市場全体での開発と普及を促進するというEUの政策の重要な要素である。

この提案はリスクベースのアプローチに従い、法的確実性を確保することを目的とした AI のための統一的で水平的な法的枠組みを定めています。規制草案は、AIへの投資とイノベーションを促進し、ガバナンスと基本的権利と安全に関する現行法の効果的な施行を強化し、AIアプリケーションの単一市場の発展を促進することを目的としている。これは、ヨーロッパでの AI への投資を加速することを目的とした人工知能に関する調整計画など、他の取り組みとも連携しています。2022年12月6日、理事会はこのファイルに関する一般的なアプローチ(交渉任務)について合意に達し、2023年6月中旬に欧州議会との機関間協議(「三者協議」)に入った。

この記事が参加している募集

今週の振り返り

この記事が気に入ったらサポートをしてみませんか?