イーロン・マスクがAI規制を主張する理由、わかりますか?
こんにちは、パトルです。
前文
イーロン・マスクを始め、米国の大手IT企業のCEOたちが議会にAI規制を訴えています。なぜIT企業側がAI規制を訴えるのでしょうか。何を規制すべきだと主張しているのでしょうか。そんなに重大な問題なのでしょうか。
「AIが人類を絶滅させる」など強烈なワードが飛び交う一方、実は抽象的なリスクしか公開情報には出てきません。確かにAIが虚偽の情報を流すリスクはありますし、ディープフェイクが人間になりすます可能性もあるでしょう。でもその程度であれば通常通りに法制化すれば良いのではないでしょうか。
もともと米国はAIに対してソフトロー(寛容)路線を取ってきました。それにも関わらず、米国連邦議会上院トップのチャック・シューマーの調整により、バイデン大統領と、アマゾン、グーグル、メタ、マイクロソフト、オープンAI、アンソロピック、インフレクションAIの最高経営責任者(CEO)が会談する、という緊急事態とも思われる流れになりました。
今回のブログでは、前半で、IT大手企業がAI規制を主張した経緯を整理します。後半では、米国とEUのAI法案を整理することでIT大手企業の狙いを読み解きます。こういう形で情報を整理しているメディアは見たことがないので最後までご覧ください。
AI規制の主張の背景
経緯
要点だけ時系列で整理します。
<2023年3月>
イーロン・マスクやスタビリティAIのCEOを含む1,000名がAIシステムの開発を6カ月間停止呼びかけたのが話題になりました。ちなみに、オープンAIのサム・アルトマンCEOやアルファベットのスンダー・ピチャイCEO、マイクロソフトのサティア・ナデラCEOはこの時、書簡に署名はしていません。
<2023年5年16日>
サム・アルトマンが、米上院の小委員会で、AIに対する規制の必要性を訴えました。25日には、マイクロソフトが約40ページの報告書を公開し、人工知能(AI)業界の規制強化を求める呼びかけに参加しました。
同時期、公聴会ではIBMで最高プライバシー責任者を務めるクリスティーナ・モンゴメリー氏が精緻な規制の導入を呼び掛けました。この頃にIT大手の足並みを揃えてAI規制を訴え始めるようになりました。
もっとも、グーグルのピチャイはイーロン・マスクの書簡には応じませんでしたが、4月16日のCBS番組でAI規制を訴えていました。Metaも以前からAI規制に前向きな発言をしていることもあったので各社個別には規制の必要性を理解していたとは思われます。
<2023年7月21日>
アマゾン、グーグル、メタ、マイクロソフト、オープンAI、アンソロピック、インフレクションAIの最高経営責任者(CEO)がバイデン大統領と会談をしました。
(豆知識)バイデン大統領は同じ7/21にコロナ陽性を発表しました。朝の検査で発覚したようなので、感染を知っていたはずですがみんなノーマスクですね。
<2023年9月13日>
ワシントンでAI規制に関する非公開の会議が開催され、イーロン・マスク、メタのマーク・ザッカーバーグ最高経営責任者(CEO)、グーグルのスンダルサンダー・ピチャイCEO、マイクロソフトのビル・ゲイツ元CEOとサティア・ナデラCEOが出席しました。
OpenAIやAmazon BedrockなどAIサービスを充実させ始めているアマゾンは参加しなかったようです。温度差があるのでしょうか。
合意事項
2023年7月21日の大統領会談では、各社が自主的に安全・安心・信頼の3つを基本原則として、技術を世に送り出す前にシステムの稼働テストを行い、リスク評価して公表することや、サイバーセキュリティの脅威から保護しリスク管理を行うとともに、国家安全保障上のセキュリティ対策のための情報共有を行うことなどが盛り込まれました。
加えて、AIが生成した文章や映像、音声などのコンテンツには、AI製であることが分かるようラベル付けを行う、透かしを入れるルールも設定。それにより、ユーザーが生成AIによるコンテンツであると判断できるようにし、偏見や差別の排除と、プライバシー保護を強化することになりました。但し、法的拘束力や罰則はありません。今後、法規制がされるまでこの自主規制は継続させるようです。
2023年9月13日の会議は非公開でしたが、ザッカーバーグがAIの安全性とアクセスに関する基準の必要性を強調したことと、イーロンマスクがAIが我々を皆殺しにする可能性は低いがそのリスクはゼロではないと語ったと言われています。ほぼ何を話し合ったかはわかりません。
ここまでメディアやその他の公開情報をまとめました。どうですか?基本的に当たり前のことをいっているだけですし、大騒ぎしていた割に、具体的に合意されたのはコンテンツに透かしを入れることくらいです。しかも罰則がない自主規制です。
ちなみにコンテンツの透明性はEUのAI法案(詳細は後述)にも含まれているので、それであればEUのAI法案を米国に取り込めば良いだけのように思います。それこそIT企業が自主的に対応するだけであればどうぞ、というレベルのものです。
ちなみにサム・アルトマンは2023年5月24日にAI法案を過剰規制だと主張、EU撤退を示唆したため、批判の声が上がり、26日撤回したことがあります。規制を訴えているのにEUのAI規制には肯定的ではないようにみえます。
米国のAI規制の現状
ここで簡単に米国のAI規制の現状について記載します。それによってAI規制がないことで、IT大手企業が困っていることを理解できます。
AI権利憲章
2022年10月バイデン政権は、「AIに係る権利の章典」にて、5つの原則、つまり、安全で効果的なシステム、アルゴリズム由来の差別からの保護、データのプライバシー、ユーザーへの通知と説明、人による代替手段、配慮、フォールバック、を発表しました。法的拘束力を伴うものではありません。
その後も色々な動きがありますが、2023年1月に米国国立標準技術研究所(NIST)が「AIリスクマネジメント枠組み(Artificial Intelligence Risk Management Framework)」を発表しました。これは、「統治(Govern)」「マップ(Map)」「測定(Measure)」「管理(Manage)」に分けて自組織のAIリスク管理の成熟度をアセスメント(評価)する際に使うことができます。より具体的なガイドラインでありこれを元に世界の標準化を狙っているといわれていますが、あくまで自主管理をするためのものであり規制ではありません。
2023年7月21日の大統領会談での内容を見る限り、これらのガイドラインを元にIT大手各社が具体的な対応をする意気込みを見せた程度の会談だったように思います。
著作権(フェアユース)
米国では著作権者が自身の著作物を勝手に学習に使われたとしてLLM(基盤モデル)業者に対して数々の訴訟を起こしています。訴訟のポイントはLLM業者にフェアユースの主張が認められるかがキーになっています。
フェアユースというのは著作権の主張に対する抗弁事由(侵害してないよと主張できる理由)です。フェアユースが認められるかは以下の4つに基づいて、具体的な事例ごとに判断されます。
利用の目的と性格
著作権のある著作物の性質
著作物全体との関係における利用された部分の量及び重要性
著作権のある著作物の潜在的市場または価値に対する使用の影響
要は何もルールがない状態です。そのため裁判が起きてみないとわからないというのが現状です。基盤モデル事業者は莫大な損害賠償を請求されるリスクがあります。
すでに多くの訴訟が進行しており、IT大手企業にとっては重要な経営課題になっていると思われます。
EUのAI規則(AI法案)
EUの状況についても簡単に説明します。これを理解することで米国のIT大手にとって都合が悪い規制を理解できます。
EUのAI法案はEU域内でビジネスするAI業者を具体的に規制するものです(ハードロー)。2023年年6月に欧州議会が可決したので、2025年後半から2026年に施行されます。
AI法案には域外適用があります。これはEU在住者にサービスを提供する場合、EU外の業者に対してもAI法案が適用されるというものです。つまり、米国IT大手のLLM業者もAI法案の影響を受けます。
EUのAI規則に関しては別のブログでより詳しく解説していますので、ここでは基盤モデル事業者に対する規制のみを取り上げます。※基盤モデルとはGPT4、PaLM、DALL-Eなどを指します。
基盤モデル業者に対するEUの規制は以下の通りです。
ほとんどがガイドラインに近いのですが、以下の2点がきついと思います。
2b 基礎モデルの適切なデータガバナンス対策、特にデータソースの適切性、起こりうる偏り、適切な緩和策を検討する対策の対象となるデータセットのみを処理し、組み入れること
4c 著作権に関する国内法または連合法を害することなく、著作権法で保護されているトレーニングデータの使用に関する十分に詳細な概要を文書化し、一般に利用可能にすること
どちらも学習データについてです。すでに構築したモデルに関してはどうしようもないでしょうし、これを理由に罰金や損害賠償を請求されるかもしれません。抽象度も高いので当局に政治的に利用される可能性もあります。
AI法案は、2023年6月に欧州議会が可決したため、これから欧州委員会によって法制度が具体化されていきます。学習データに関する規約を巡って米国が干渉していく可能性は高いでしょう。総務省の資料では、EU米国貿易技術評議会(TTC)にて米国とEUがAI規制についてディスカッションを深めているという記載もあります。
日本への影響
日本は米国以上のソフトロー路線です。AIの学習に関しては、著作物を無断で学習させても著作権侵害にならないと解釈されています。(詳細はこちらのブログで解説)
日本には基盤モデル事業者がないため、AI法案によって大きなダメージを受ける会社は少ないかもしれませんが、米国とEUが作るルールに従う流れになりそうな気がします。GDPRのようにブリュッセル効果も起きるでしょう。
ブリュッセル効果・・・グローバルな市場を規制するEUの影響力で他国も規制が拡がること。
※補足すると、日本がAIのルール作りを主導してきたのは事実です。2016年にG7情報通信相会合でAIの議論を提起、その後総務省や内閣府のAI原則案を国際的に提示したことが、2019年5月のOECDの「人工知能に関する理事会勧告」に繋がりました。
まとめ
LLM業者は米国では学習データについて訴えられており、EU規制でも学習データに対して厳しい規制が盛り込まれています。これをどうにかしてほしいので、代わりに権利憲章は積極的に順守します!、というのが本音なのではないでしょうか。と、私は思っています。
面白いと思った方はいいね!やフォローをお願いします。
この記事が気に入ったらサポートをしてみませんか?