見出し画像

AI の最適なガバナンスの方法とは(2023/06/02、ニュースリリース)

※米マイクロソフトからブログ更新のお知らせがニュースリリースで来ました!

+++++
AI の最適なガバナンスの方法とは
+++++

※本ブログは、米国時間 2023年 5 月 25 日に公開された
"How do we best govern AI?"の抄訳を基に掲載しています。
https://blogs.microsoft.com/on-the-issues/2023/05/25/how-do-we-best-govern-ai/

ブラッド スミス (Brad Smith)
https://news.microsoft.com/ja-jp/?s=Brad+Smith
副会長 兼 プレジデント

この記事は、ブラッド スミス (Brad Smith) が Governing AI: A Blueprint for the Future https://aka.ms/May25WhitePaper (AIのガバナンス:未来に向けた青写真) というマイクロソフトのレポートの序文として執筆したものです。
レポートの第 1 章では、政府が AI に関する政策や法律、規制を検討する際に考慮すべき 5 つの方法について詳しく解説しています。
第 2 章では、マイクロソフトの倫理的 AI に対する社内での取り組みに焦点を当て、どのように責任ある AI の文化を運用し構築しているかを紹介しています。

_________________________________________________________________________

「コンピュータに何ができるかを問いかけてはいけない。何をすべきかを問いかけるのだ」

これは、私が 2019 年に共著で執筆した本の中で、AI と倫理に関する章のタイトルとなっています。
当時、その著書にて「これは、この世代を定義するような問いかけとなるかもしれない」と書きました。
あれから 4 年、この疑問は世界各国の首都だけでなく、夕食時の食卓でも大きな話題となっています。

OpenAI の GPT-4 基盤モデルを利用した人や、その能力について耳にした人は、多くが驚き、中には驚愕してしまうこともあるほどで、熱狂的になったり興奮したりする人も多く存在します。
また、一部で懸念を示す人や恐怖を感じる人もいます。4 年前に私たちが著書で指摘したことが、ほぼすべての人にとっても明らかになりました。つまり、私たちの世代は人類の歴史の中で、これまで人間にしかできなかった意思決定が行える機械を作った最初の世代となったのです。

世界中の国々で、共通の疑問が湧き上がっています。
この新しいテクノロジを使ってどのように問題を解決すればいいのだろうか。
このテクノロジが引き起こすかもしれない新たな問題をどのように回避し、管理すればいいのだろうか。
これほど強力なテクノロジをいかにして制御すればいいのだろうか、といった疑問です。

こうした疑問に対しては、幅広く思慮深い対話が必要なのはもちろん、断固とした効果的な行動も求められます。
このレポートでは、マイクロソフトが企業として示すアイデアや提案の一部をご紹介します。

ここで挙げる提案は、マイクロソフトが何年もかけて取り組んできたことから学んだ教訓がベースとなっています。
マイクロソフトの最高経営責任者であるサティア ナデラ (Satya Nadella) は 2016 年、「私たちができる最も生産的な議論は、おそらく善悪の議論ではないでしょう。
議論すべきなのは、このテクノロジを生み出す人や組織に植え付けられた価値観についてです」と執筆 https://slate.com/technology/2016/06/microsoft-ceo-satya-nadella-humans-and-a-i-can-work-together-to-solve-societys-challenges.html し、明確な道筋を示しました。

以来マイクロソフトでは、取り組みの指針となる倫理原則を定義し、公開して実践してきました。
また、その原則を実践するにあたり、エンジニアリングとガバナンスのシステムを構築し、継続的に改善してきました。
現在マイクロソフトでは、350 人近くの担当者が責任ある AI に取り組んでおり、社会に役立つよう設計された安全、安心、そして透明な AI システムを構築するにあたってベストプラクティスが実践できるようサポートしています。

■人間の状態改善に向けた新たな機会

こうしたアプローチが進化した結果、当社では AI が人々の生活を改善する方法が拡大していく様子が見えるようになり、その状況に確信が持てるようになりました。
AI が個人の視力の助けになったり、がんの新しい治療法を進化させたり、タンパク質に関する新たな知見を生み出したり、危機的天候から人を守る予測を提供したりする様子も目の当たりにしてきました。
このほかにも、サイバー攻撃を回避したり、外国からの侵略や内戦に苦しむ国々において基本的人権を保護したりすることにもイノベーションが役立っています。

日々の生活でも役立つことがあります。
GPT-4 のような基礎モデルの力が、生活の中で副操縦士として機能することで、検索がより強力な調査ツールとなり、仕事の生産性を向上させています。
また、13 歳の子どもを持つ親が、代数の宿題をどうやって教えたらいいのか思い出せない時にも、AI ベースのアシスタントが便利な家庭教師になってくれます。

AI は非常に多くの点で、おそらくこれまでのどの発明よりも人類の利益につながる可能性を秘めています。
1400 年代に活版印刷機が発明されて以来、人類は加速度的に繁栄してきました。
蒸気機関、電気、自動車、飛行機、コンピュータ、インターネットなどの発明は、現代文明の構成要素の多くを提供しています。
そして AI は、印刷機のように、学習と思考の進歩を真に支える新たなツールとなっているのです。

■未来に向けた安全対策

もうひとつの結論も同じく重要なことです。
それは、AI を使って生活を改善するさまざまな機会に焦点を当てるだけでは十分ではないということです。
これは、おそらくソーシャルメディアの役割から得た教訓の中でも特に重要なことだと言えるでしょう。
十数年前、技術者や政治評論家たちは、「アラブの春」で民主主義を広めるにあたってソーシャルメディアが果たした役割を熱く語っていました。
しかしそれから 5 年後、ソーシャルメディアはこれまでに登場した多くのテクノロジと同様、武器にも道具にもなるということを私たちは学びました。
この時は、民主主義そのものがターゲットとなったのです。

あれから 10 年を経て私たちは歳を重ね、より賢明になりました。
その知恵をうまく活用しなくてはならず、この先起こりうる問題について早い段階から明確に考える必要があります。
テクノロジが進歩する中で AI を適切に制御することは、その利点の追求に匹敵するほど重要なことなのです。
マイクロソフトは企業として、AI を安全かつ責任ある方法で開発し、展開することにコミットしており、決意を持って取り組んでいます。
ただし、AI に必要な安全対策は、広範囲で責任を共有する必要があり、テクノロジ企業だけに任せるべきことではないことも認識しています。

マイクロソフトでは、2018 年に AI に関する 6 つの倫理原則を採用しました。
その際、説明責任というひとつの原則が、他のすべての原則の基盤になると記しています。
これは、今後も機械が人間の効果的な監視対象であり続けるようにすることや、機械を設計し運用する人が他の全員に対して説明責任を果たすことが、根本的に必要だからです。
つまり、AI が常に人間の管理下にあることを保証しなくてはならないのです。
これは、テクノロジ企業にとっても政府にとっても最優先事項でなくてはなりません。

このことは、もうひとつの重要な概念とも直結しています。
民主主義社会における基本原則のひとつに、「法の上に立つ者はなし」というものがあります。
政府も法の上に立つ存在ではありませんし、いかなる企業も、製品も、テクノロジも、法を超えるものであってはなりません。
これは重要な結論につながります。
つまり、AI システムを設計し運用する人が説明責任を果たすには、その意思決定や行動が法律に基づいていなくてはならないということです。

これはさまざまな意味で、現在展開されている AI の政策や規制に関する議論の中心となっています。
AI が確実に法の支配に従うよう、政府が保証するにはどうすればいいのでしょうか。
言い換えると、新しい法律や規制、政策は、どのような形をとるべきなのかということです。

■AI の公共ガバナンスに関する5つの青写真

このレポートの第 1 章では、公共政策や法律、規制を通じて、現在そして今後の AI の課題に対応する 5 つの青写真を提示しています。
この青写真は、あらゆる部分がより幅広い議論によって改善の余地があること、そしてより深く発展させる必要があることを、当社でも認識しています。
それでもこの青写真を提供することによって、今後の取り組みに建設的に貢献できればと考えています。

まず 1 点目は、政府主導の AI 安全フレームワークを新たに実装し、それを基盤として発展させることです。
成功への最善の道は、多くのケースで他の成功や良いアイデアをベースにすることで、特に迅速に進めたい場合はそれが近道です。
今回は、米国国立標準技術研究所 (NIST) がわずか 4 か月前に完成させた取り組みを基盤とする重要な機会があります。
商務省の一部門である NIST が、新しい AI リスク管理フレームワークを完成させ、発表したのです。

マイクロソフトは、このフレームワークの実装と発展に向け、4 つの具体的な提案を行っています。
その中には、最近のホワイトハウスでの主要 AI 企業との会合を受け、マイクロソフトがコミットメントを表明したことも含まれています。
また、政権や他の政府団体も、このフレームワークに基づいた調達ルールによって勢いを加速できると考えています。

2 点目は、重要なインフラを制御する AI システムには、効果的な安全ブレーキを求めるべきだということです。
AI がより強力になる中、一部では思慮深い人たちが AI を満足に制御できるかどうか疑問を抱くことも増えています。
AI が送電網や水道システム、都市交通の流れなどの重要なインフラを制御することについて、懸念が示されることも出てきています。

今こそこの問題について議論する適切な時期といえるでしょう。
この青写真では、指定された重要インフラの運用を制御する AI システムに実質的な安全ブレーキを設ける新たな安全要件を提案しています。
このようなフェイルセーフシステムは、人間による効果的な監視や、レジリエンスと堅牢性を最優先としたシステムの安全性に対する包括的なアプローチの一部となるでしょう。
その精神は、エンジニアが長きにわたってエレベーターやスクールバス、高速列車など他のテクノロジに組み込んできたブレーキシステムに似たもので、日々の状況だけでなく、緊急時でも安全に管理できるようにするものです。

このアプローチでは、政府が重要インフラを制御する AI システムのリスクの高さを定義し、システム管理への包括的アプローチの一環としてそのような安全対策を保証します。
新たな法律では、こうしたシステムの事業者が高リスクの AI システムに安全ブレーキを設計上組み込むよう義務付けられるでしょう。
これにより政府は、事業者が高リスクのシステムを定期的にテストし、システムの安全対策が効果的であることを確認していると保証することになります。
また、指定された重要インフラの運用を制御する AI システムは、認可された AI データセンターにのみ導入されることになります。
そこでは、こうした安全ブレーキを適用する機能によって第二の保護レイヤーが確保されており、それが人間による効果的な制御を保証することになるのです。

3 点目は、AI のテクノロジアーキテクチャに基づいた広範な法的および規制の枠組みを構築することです。
マイクロソフトでは、AI そのもののテクノロジアーキテクチャを反映した、AI の法的および規制の枠組みが必要になると考えています。
つまり法律は、AI テクノロジの多様な側面を管理する役割に基づいて、さまざまな関係者に対し、多岐にわたる規制責任を課す必要があるということです。

そのためこの青写真には、新しい生成 AI モデルの構築と利用に必要となる重要な部分に関する情報が含まれています。
これを前提として、青写真ではテクノロジスタックの 3 つのレイヤーであるアプリケーション層、モデル層、インフラ層において特定の責任を果たす組織に対し、さまざまな法律によって特定の規制責任を課すよう提案しています。

まずは、アプリケーション層における既存の法的保護を AI の利用に適用する必要があります。
アプリケーション層は、人の安全と権利に最も影響が及ぶ層で、
特にさまざまなテクノロジの状況によって AI の影響が大きく異なる可能性があるためです。
多くの分野では、新しい法律や規制が必要となることはありません。
それよりも、既存の法律や規制を適用して施行し、政府機関や裁判所が新たな AI のシナリオに対応するにあたって必要となる専門知識を身につけられるよう支援する必要があるでしょう。

その場合、高度な機能を備えた AI 基盤モデルに対する新たな法律と規制の開発が必要で、それは新しい政府機関によって実装されることが最も適切だと考えられます。
これは、テクノロジスタックの 2 つの層に影響を与えるものです。
1 つ目の層では、こうしたモデル自体に対する新しい規制とライセンスが必要になるでしょう。
そして 2 つ目の層では、これらのモデルが開発・展開される AI インフラ事業者に対する義務が関係してきます。
次に示す青写真では、それぞれの層に対する目標とアプローチを提案しています。

この青写真は、マネーロンダリングや犯罪者・テロリストによる金融サービスの悪用を防ぐためにここ数十年で銀行業界にて開発された原則に一部基づいています。
「Know Your Customer (KYC: 顧客について知ること)」の原則では、金融機関が顧客の身元を確認し、リスクプロファイルを確立し、不審な行為を検出できるよう取引を監視することが求められます。
この原則をベースに、AI の文脈では自社のクラウド (Cloud)、顧客 (Customer)、そしてコンテンツ (Content) の 3 つの C を知るという一定の義務を定めた KY3C アプローチを適用することは理にかなっているといえるでしょう。

まずは、指定された強力な AI モデルの開発者は、そのモデルが開発され展開されている「クラウドについて知る」ことから始まります。
また、機密性の高い用途が含まれるシナリオの場合、顧客と直接関係を持つ企業が、そのモデルにアクセスしている「顧客を知る」必要があります。
その企業がモデルを開発する企業であっても、アプリケーションプロバイダであっても、モデルが稼働しているクラウド事業者であってもです。

また一般市民も、動画や音声ファイルなどが人間ではなく AI モデルによって作成されている場合、ラベルやマークなどによって AI が作成している「コンテンツを知る」ことができるようにするべきでしょう。
この表示義務は、オリジナルコンテンツの改ざんや「ディープフェイク」の作成から一般市民を保護するものでもあります。
これには新たな法律の策定が必要で、対処すべき重要な課題や詳細も数多く存在します。
それでも民主主義の健全性と民間の議論の将来は、新たなテクノロジを利用して一般市民に詐欺を働いたり欺いたりすることを阻止するよう熟考された措置により、恩恵を受けることができるでしょう。

4 点目は、透明性を促進し、学術界や非営利団体が AI を利用できるようにすることです。
マイクロソフトでは、AI リソースへのアクセスを拡大することが重要な公共目標であると考えています。
透明性とセキュリティの必要性との間には重要な緊張感がありますが、責任ある形で AI システムの透明性を高める機会も数多く存在しています。
だからこそマイクロソフトでは、AI の透明性に関する年次レポートの作成や、AI サービスの透明性を高めるさまざまな手法に取り組んでいるのです。

また、学術研究や非営利コミュニティに向け AI リソースへのアクセスを拡大することも重要だと考えています。
1940 年代以降、特に大学での研究を中心に基礎研究が米国の経済的・戦略的成功にとって基本的に重要なものとなっていました。
しかし、学術研究者がより多くのコンピューティングリソースにアクセスできないようでは、AI そのものに関する調査も含め、科学技術的な調査が難しくなるという現実的なリスクが存在するのです。
当社の提案する青写真では、マイクロソフト全社で取り組む措置も含め、こうした優先課題に対処する新たな措置を求めています。

5 点目は、AIを効果的なツールとして活用し、新たなテクノロジに伴う避けられない社会的課題に対処するにあたり、新しい官民パートナーシップを追求することです。
ここ数年で、民主主義社会がテクノロジの力を活用し、官民で連携することにより、さまざまなことが達成できることがわかってきました。
この学びを基に、AI が社会に与える影響に対処していく必要があります。

私たちは皆、明確な楽観主義を強固に貫くことで恩恵を受けることができます。
AI はすばらしいツールですが、他のテクノロジと同様強力な武器となる可能性もあり、そのような使い方を模索する人も世界中に現れるでしょう。
それでも、サイバー戦線や過去 1 年半のウクライナ戦争を考えてみてください。
官民が協力し、同様の考え持つ同盟国が集結し、テクノロジを開発してそれを盾として活用すれば、地球上のどんな剣よりも強力だということが明らかになったではないですか。

AI を活用して民主主義と基本的権利を保護し、包括的な成長を促進する AI スキルに幅広くアクセスできるようにしAI の力を駆使して地球上の持続可能性に対するニーズを推進するには、重要な取り組みが今求められています。
おそらく何よりも重要なのは、新しい AI テクノロジの波によって大胆な考えや行動ができるようになるということです。
いずれにしても成功の鍵となるのは、具体的な構想を用意し、政府や評判の高い企業、そして精力的な NGO が集結してその構想を発展させることです。
このレポートでは初歩的なアイデアを提供していますが、今後数か月から数年の間により多くのことに取り組みたいと思っています。

■マイクロソフト社内での AI のガバナンス

高度な AI システムを構築し利用するすべての組織は、最終的に独自のガバナンスシステムを開発し、実装することが求められるでしょう。
このレポートの第 2 章では、マイクロソフト社内での AI のガバナンスシステムについて解説しています。
ここでは、当社がどこから始めたのか、現在どこにいるのか、そしてどのように未来に向かっているのかを示しています。

この章では、新しいテクノロジのために新しいガバナンスシステムを開発することは、それ自体が旅のようなものだということがわかると思います。
10 年前にはこのような分野はほぼ存在していませんでした。
それが現在では、この分野を専門とする従業員がマイクロソフトに 350 人近く在籍しており、さらなる成長に向けて来年度への投資も行っているのです。

この章に書かれているように、マイクロソフトはこの 6 年間、社内全体でより包括的な AI のガバナンス構造とシステムを構築してきました。
ゼロから始めたわけではなく、サイバーセキュリティやプライバシー、デジタルセーフティーなどを保護するベストプラクティスを取り入れたのです。
これはすべて当社の包括的なエンタープライズリスク管理 (ERM) システムの一環となっています。
ERM は、現在では世界中の企業や多くの組織のマネジメントにおいて重要な要素となっています。

AI に関する当社の取り組みでは、まず倫理原則を策定し、その原則をより具体的な企業ポリシーに置き換える必要がありました。
現在はこの原則を具体化し、エンジニアリングチームが従うべきより正確な実践内容を定義する企業標準のバージョン 2 へと移行しています。
この標準の実装にあたっては、急速に成熟し続けるトレーニングシステムやツールシステム、テストシステムを活用しています。
またこの標準は、監視、監査、コンプライアンス対策など、追加のガバナンスプロセスによっても支えられています。

人生のあらゆることに言えますが、人は経験から学ぶものです。
AI ガバナンスに関して特に重要な学びを得たのは、ある機密性の高い AI のユースケースをレビューする際に必要となった詳細な作業からでした。
2019 年、マイクロソフトは社内でも最も機密性の高い斬新な AI ユースケースを対象とした機密使用レビュープログラムを立ち上げ、厳密で専門的なレビューを実施、カスタマイズされたガイダンスが得られるようにしました。
以来、当社では機密性の高いユースケースのレビューを約 600 件実施しています。
この活動のペースは、AI の進歩に匹敵する速度で加速しており、ここ 11 か月で実施したレビューの数は約 150 件にものぼっています。

こうしたことはすべて、企業文化を通じて責任ある AI を推進しようと当社が行ってきた取り組みに基づいており、これからもこの取り組みは続きます。
つまり、今後も新しく多様な人材を採用し、責任ある AI のエコシステムを成長させるとともに、すでに当社に在籍する人材に投資してスキルを高めてもらい、AI システムが個人や社会に与える潜在的影響についてより幅広い考えができるようになってもらうということです。
また、テクノロジの最前線には、これまで以上に優れたエンジニアと多彩な教養分野の才能ある専門家を組み合わせた学術的なアプローチが必要だということです。

こうした内容がすべてこのレポートに書かれています。
このレポートを公開するのは、人工知能の責任ある未来を築くために集団的な旅をしているという精神によるものです。
私たちは皆、お互いに学び合うことができます。そして、今ここにすばらしいものがあると思ったとしても、さらにすばらしいものを目指し続けなくてはならないのです。

テクノロジの変化が加速する中、責任ある AI ガバナンスへの取り組みもその変化の速度に合わせなくてはなりません。
適切なコミットメントと投資を行えば、それが実現できると信じています。

●本ブログの詳細につきましては、日本マイクロソフト広報資料サイトをご覧ください。
https://news.microsoft.com/ja-jp/2023/06/02/230602-how-do-we-best-govern-ai/

この記事が気に入ったらサポートをしてみませんか?