見出し画像

AIとオープンソース:EUの新法案とその影響

EUのAI法案とは何か?

Artificial Intelligence Act(AI法案)は、欧州連合(EU)が提案した規制で、2021年4月21日に欧州委員会によって提案されました。欧州評議会は、2022年12月6日にAI法案についての一般的なアプローチを採択しました。

そして、その結果、2023年6月14日にこの法案は欧州議会で可決され、ヨーロッパ人工知能委員会が設立されました。

この法案は、人工知能に対する共通の規制と法的枠組みを導入することを目指しています。その範囲はすべてのセクター(軍事を除く)とすべての種類の人工知能を包含しています。製品規制としての性質を持つこの法案は、個々の権利を付与するものではなく、人工知能システムの提供者と、それを専門的に利用するエンティティを規制します。人々の安全とプライバシーに対するリスクをもたらす可能性のあるアプリケーションを禁止する世界初の法律とされています。
EUの一般データ保護規則(GDPR)と同様に全世界の標準となる可能性があります。

2021年9月にはブラジルの議会がすでに人工知能の法的枠組みを作成する法案を可決されています。

高リスクAIシステムとその評価要件

高リスクシステムとは、人々の健康、安全、または基本的な権利に重大な脅威をもたらす可能性があるものを指します。これらは市場に投入する前に、提供者による自己評価という形で必須の適合性評価を要求します。特に重要なアプリケーション、例えば医療機器については、AI法案の要件に基づく提供者の自己評価を、既存のEU規制(例えば医療機器規制)に基づく評価を行う通知機関が考慮する必要があります。

その他のAIシステムと規制の範囲

上記のカテゴリーに含まれないAIシステムは、規制の対象とはならず、最大限の調和により、メンバー国はこれらをさらに規制することが大幅に制限されます。既存の国内法は、このようなシステムの設計や使用に関連して無効化されます。ただし、このようなシステムに対する自発的な行動規範が視野に入れられていますが、これは初期からは実施されません。

Hugging Face、GitHubなどがEUのAI法制におけるオープンソースを守るために結束

Hugging Face、GitHub、EleutherAI、Creative Commons、LAION、Open Futureなど、半ダース以上のオープンソースAIステークホルダーが連携し、EUのAI法制を最終化する際に、オープンソースの革新を保護するようEUの政策立案者に呼びかけていました。

オープンAI開発の課題

オープンAI開発が、実質的に遵守が不可能な義務や逆効果となる義務に直面しないようにすることが目指されています。しかし、オープンAIとプロプライエタリAI開発(OpenAI、Anthropic、GoogleなどのトップAI企業のモデル)を優遇する「過度に広範な義務」は、「オープンAIエコシステムを不利にする」脅威となっています。

Microsoft、Anthropic、Google、OpenAIが共同でAI開発のためのフロンティアモデルフォーラムを計画

「Frontier Model Forum」は現在形成中の新たな業界団体で、Anthropic、Google、Microsoft、OpenAIの4社が共同で立ち上げています。このフォーラムは、フロンティアAIモデルの安全で責任ある開発を確保することを目指しています。

具体的には、AI安全性研究の進展、フロンティアモデルの安全性ベストプラクティスの特定、政策立案者や学術関係者、市民社会などとの知識共有、そして社会課題に対処するためのAI活用の取り組みの支援を目指しています。

また、フォーラムはアドバイザリーボードを設立し、その戦略と優先順位をガイドする予定です。そして、フロンティアAIモデルの安全な進展に協力する意志がある他の組織からの参加も歓迎しています。

「Frontier Model Forum」は、安全で責任あるAI開発に向けた業界団体とされ、その主な取り組みは、フロンティアモデルの責任ある開発を促進し、潜在的なリスクを最小化するAI安全性研究の促進、フロンティアモデルの安全性ベストプラクティスの特定、責任あるAI開発のための政策立案者、学術関係者、市民社会などとの知識の共有、そして社会課題に対処するためのAI活用の取り組みの支援となっています。


この記事が気に入ったらサポートをしてみませんか?