AI倫理の現状と人工知能学会の取り組み

本稿は日本技術士会の発行する月刊「技術士」へ寄稿予定の原稿の草稿です。寄稿版はこの2/3のショートバージョンになる予定。

PDF版を https://doi.org/10.6084/m9.figshare.14515935.v1 としておきました。

---

1 はじめに

昨今、ニュース等で人工知能(Artificial Intelligence、AI)という言葉が聞かない日がないくらい、AIに関する情報が溢れている。こんな驚くべきことをAIが達成しましたという研究に関わる情報から、どこかの企業がAIをつかったサービスをはじめましたという経済ニュースまで多岐にわたる。このような急速な技術発展の一方、技術がもたらす負の側面も強調されることが多く、AIにおいてもシンギュラリティ(特異点)といったキーワードでAIが人類の脅威となるといった言説も論じられている。
このような状況下で人工知能に関する倫理(以下、AI倫理と呼称)に関する議論は急速に高まってきた。本稿ではこのような現在議論が進むAI倫理のあらましを筆者の理解の範囲で紹介する。また、筆者の属する人工知能学会でのAI倫理に関する取り組みも同時に紹介する。


2 人工知能という学問分野

2.1 学問としての人工知能の立ち位置


計算機科学(コンピュータ・サイエンス、Computer Science)は科学が名称に含まれているが、いわゆる科学とはずいぶん趣が異なる。いわゆる(自然)科学は自然/地球/宇宙を対象にその原理を求める学問ある。一方、計算機科学では情報の原理といった自然の原理の探究もあるものの、主たる対象は計算機という人工物であり、その人工物の原理から分析、設計までを取り扱う。この点からみる科学と工学の両方の性質があることがわかる。
人工知能(Artificial Intelligence, AI)とはそのような人工物の名称であると同時に研究分野の名称である。研究分野としての人工知能は計算機科学の一分野であり、人工知能という人工物の原理から分析、設計まで取り扱う学問である。この点では計算機科学と同じく、科学と工学の両方の性質がある。
人工知能の倫理(以下、AI倫理と呼称)を考える上ではこの学問としての性質に留意する必要がある。すなわち、AI倫理はある面では科学倫理的であり、ある面では技術論理的である。ことにあとに述べるようにAIの社会適用が焦眉である今日、より技術論理的色彩が強くなる。

2.2 社会との関わりの構造


研究倫理を考える上では社会との関わりが重要である。上でみたように、人工知能は科学的アプローチから工学的アプローチまで幅広いため、社会との関わりも多様である。これを以下の5点にまとめる。(1)(2)(3)は科学的アプローチよりで, (4)(5)は工学的アプローチよりであるが、全体として科学的アプローチから工学的アプローチに広く跨っている。
(1) 人の知という根源的問題に関与:人工知能は人の知能の定義といった社会の存立を揺るがす問題に関与している。また人の知を超えるスーパー知能といった社会的インパクトを与えうる人工知能も射程にはいっている。
(2) 社会影響型の研究:どのような知を探求するかという研究の方向性や探究の仕方において、人工知能の研究は既存の社会の影響を受けている。さらに近年の機械学習では、社会のデータ(Wikipediaの文章、Webのデータ、IoTデータなど)を直接使うので、より直接的な影響を受けている。
(3) 発展途上の研究/技術:人工知能の研究は現在も進行中である。今ある研究/技術をみているだけでは不十分で、新たな研究/技術が生まれうるという前提で考える必要がある。
(4) 汎用技術: 知能の原理を研究対象とする人工知能の研究/技術は本質的に汎用的な研究/技術である。一つの研究/技術がさまざまな対象に適用可能となる。これは適用対象を明示して規制するといった方法が難しいことを意味する。
(5) 社会に入り込む技術:人工知能は人の知能の補完や代替で使われることが想定される。人の知能の補完であれば人と密接に結びつく。人の代替であれば人工知能は人と同じ立ち位置で社会に参画する。すなわち、人が織りなす社会のさまざまなところに入り込む。人々に直接関与するため、社会におけるインパクトは大きい。


3  AI倫理に関する国内外の取り組み

3.1 AI倫理の全体の流れ


 2016年ごろからAI倫理に関する議論が始まり、2017年から2019年にわたって、多様なステークホルダーから様々な指針やガイドラインが発行されるようになった。その主だったところを表1にしめす1) 。発行者の主体は学術団体/民間団体、政府、企業に仕分けている。当初、学会など学術団体(人工知能学会、IEEE)や研究者の集まり (Asilomar AI Principlesは研究者などの任意の集まりでつくられた)が目立っていた。ついで、国やEU、あるいはOECDといった政府自体や政府をメンバーとする組織が関与するようになってきている。また、IT企業も積極的に自らのスタンスを示す文書を公表するになった。学術団体/民間団体の指針においては前述の(1)のような科学倫理と技術倫理がはいっていることが多い。政府系の指針は主に技術の社会適用に興味があり、技術論理的項目が多い。企業の指針においては、一部の企業(Google)は(1)のような点を言及するが、ほとんどは技術倫理的トピックスである。
国際的な動向については倫理委員会副委員長でもある江間有沙氏が学会誌に特集を編んでいるのでご参照されたい[江間2021]。

画像1

3.2 指針の内容の分布


中川[中川2020]は、これらの指針から共通する項目を抜き出して、比較考量している。項目としては、(a)AI 制御、(b)人権、(c)公平性・非差別、(d)透明性、(e)アカウンタビリティ、(f)トラスト、(g)悪用・誤用、(h)プライバシー、(i)AI エージェント、(j)安全性、(k)SDGs、(l)教育、(m)独占禁止・協調・政策、(n)軍事利用、(o)法律的位置づけ、(p)幸福をあげている。それぞれの説明と各指針との対応関係は[中川2020]を参照されたい。ここでは、その一部をとりあげ、筆者の観点で説明する。





3.2.1 AIの脅威に対する対応
AI倫理の初期の大きなテーマは(a)AIの脅威である。ならば、その制御をしなければならないという点である。カーツワイルの著書[カーツワイル2007]等において指摘された、AIの人類の知能を凌駕するシンギュラリティ(特異点)は社会にAIが普及するにあたって人類社会が前もって考えておかねばいけないということを認識させた。しかし、このような指摘の前提となる汎用人工知能(Artificial General Intelligence, AGI)はまだその原理は発見•発明されてなく、当面、社会に適用されることはないことが理解され、徐々にAI倫理の中での比重は減ってきた。例えば、科学者のコミュニティからの提言であるアシロマ宣言では強く指摘しているが、最近発行されたEUのTrustworthy AIにおいては特に言及されない。
AGIでなくても人類の脅威となるAIとしては(n)軍事利用がある。アシロマ宣言では自律型致死兵器を明確に否定しているが、他の指針では言及されないか、例として述べるに留まる(Trustworthy AI)。


3.2.2 人間の尊厳
ほぼ全ての指針に含まれているが、(b)人権あるいは人間の尊厳の尊重である。これは、AI研究が人間の尊厳を犯さないようにすべきという科学倫理的立場からAIを適用するときに人権を配慮しなければならないという技術論理的立場の両方を含んでいる。(c)公平性•非差別もこの点からも強調される。また、ほぼ全ての指針において、AI研究あるいはAIの社会適用の究極の目的は(p)幸福であるとされるが、これも人間の尊厳の尊重と軌を同じくしている。


3.2.3 公平性•非差別
公平性および非差別性はAIの社会適用においては重要な点であることはほとんどの指針が触れていることからもわかる。とくに大規模に人に関わるデータが入手でき、そのような大規模なデータをAIを使って処理することが可能となった今、そのデータ処理においての公平的、非差別的であることは強く求められる。実際、すでにAIシステム適用における差別的事象は少なからず報告されており、すでに社会問題となっている。
人工知能の分野では主にバイアスの問題と取られられる。バイアスといってもデータ自身にそのような性質を内在したデータバイアス、その処理過程におけるアルゴリズムバイアスに分けられる。さらには研究や開発における多様性の欠如からくるバイアスも指摘されている。


3.2.4 透明性、アカウンタビリティ
(d)透明性と(e)アカウンタビリティはAIの社会適用で重要なトピックスであり、ほぼ全部の指針に含まれている。とくに企業の指針には必ず含まれている。
AIシステム、とくに深層学習等の機械学習をつかったシステムの振る舞いは人間にとって理解が難しい。機械学習では人間とは異なる方法で情報を処理しており、本質的に理解困難であることが多い。とはいえ、AIシステムが社会でなんらかの役割を果たす場合、なぜこのような振る舞いをしたかを一定程度、システムの利用者に示す必要があると考えられている。これが透明性(transparency)である。
透明性は説明可能性(explicability, explainability)、追跡可能性(traceability)、解釈可能性(interpretability)も似た概念である。とくにAIの説明可能性については説明可能AI(Explainable AI, XAI)として盛んに研究されている。
アカウンタビリティはシステムの透明性だけでなく、説明をする責任、結果に対する責任、補償といった責任の概念を含んでいる。


3.2.5 トラスト
いま見てきたように、複雑なAIシステムに透明性を厳しく求めることは難しいので、アカウンタビリティが強調されすぎると、AIの社会適用の妨げになる。
視点を変え、むしろAIシステムに対する信頼性を確保することがAIシステムを社会の一員として受け入れやすくなると考えられる。EUの「信頼できるAI(Trustworthy AI)」では信頼性をAIの最も重要な要素としている。


3.2.6 プライバシー
近年の多くのAIシステムはデータ駆動型であり、社会から取得したデータをつかって駆動している。
このため、元になったデータがプラバシーを侵害するデータかどうかは重要な視点となる。これは他のデータ駆動型のシステムと本質的に変わらないが、AIシステムはよりユーザに近いところで使われるケースが想定されるため、きちんと考慮にいれるべきだと考えられている。


3.2.7 SDGs、幸福
(k)SDGsといった持続可能な社会への貢献、(p)人の幸福への貢献といった項目も多くの指針に含まれている。前書きとかではなく、指針の項目として記述されている。前章で述べたようにAIは発展途上の研究/技術であり、今後どのように発展していきどのように社会適用されていくかは予想がつかないところが多い。このため、これらの項目は、研究開発や社会適用の方向性の指針として機能することが期待される。Googleは2004年までは”Don’t be evil”とモットーとして掲げていた 。現在進行中の研究/技術ではこういう方向性の共有は重要であると考えれる。


3.2.8 教育
企業の指針を中心に、人材育成に関わる(l)教育も指針に含まれていることが多い。AI研究/技術や適用分野の多様性や発展途上性から一律の規制やルール化が難しい。このため、教育を通じてAIに対するリテラシーをもった人間を育成することが重要だと認識されている。


3.3 今後の方向
欧州、とくにEUにおいては指針から強制力のある規制を向かう動きが顕著である。2021年4月21日はEUの欧州委員会は規制案を公表している(2) 。この中では、リスクの観点からAIシステムを4段階に分け、最もリスクの高いシステム(政府によるスコアリングなど)は禁止、社会インフラや人に強い影響を与える高リスクのシステムは各国での事前審査といったような規制を提案している。

画像2


4 人工知能学会での取り組み

4.1 倫理委員会


人工知能学会では2014年から倫理委員会を設置して活動を行っている。先に紹介した人工知能学会倫理指針もその委員会で議論、提案されたものである。
人工知能学会倫理委員会はまず第1期として松尾豊氏を委員長として組織化した。その際、人工知能学会会員あるいは人工知能関係者を半数程度とし、それ以外の分野(SF・ファンタジー作家、経営者、科学ライター、科学技術社会論研究者)多様な経歴の方に委員となってもらった。多様性を重視する姿勢は現在にいたっても同様である。第2期としては2018年より筆者を委員長として活動をしている。一連の活動については[松尾2015][松尾2016][武田2019]を参照されたい。


4.2 倫理指針の制定

まず、行ったのは3章のリストにもある倫理指針の制定である(2017年2月) 。当初は、倫理綱領をしていたが、理事会との話し合いを通じて名称を倫理指針とした。この倫理指針においては、現在のAI研究/技術においては完全自己生成型AIの誕生は当面ないという理解のもとに、むしろAI研究/技術の当事者(研究者/技術者)がどうあるべきかついて記述している。その内容は3章で紹介した範囲の中で特段大きく変わるわけではない。ただし、最終9条だけAIシステムに対する規則を述べている。


4.3 全国大会での企画

その倫理指針を制定する前から倫理委員会では、毎年の人工知能学会全国大会において倫理に関する企画セッションを開催して、会員および一般の方々への問題提起と対話を行なってきた(表2参照)。倫理指針制定前後は倫理指針に関わる話題、その後はAI倫理に関する様々なトピックスを取り上げている。詳細はリンク先を参照されたい。


4 AI ELSI賞の創設

また、2019年からはAI ELSI賞を制定し、選定及び表彰を行なっている。AI ELSI賞の狙いは、研究開発の中でのAIではなく、社会との関係やAIの倫理的側面について活動を広めることである。このため、論文に限らず、社会活動、作品など広く対象にしている 。
第1回は、Perspective(展望)賞として神嶌敏弘氏(国立研究開発法人産業技術総合研究所)の「AIの公平性に関する⼀連の研究」を、Practice(実践)賞としてはSF漫画「AIの遺電子」(秋田書店)の著者である山田胡瓜氏が受賞した。受賞内容とうについては報告 を参照されたい。
AI ELSI賞は隔年募集としており、本年度募集予定である。募集は自薦他薦を問わず可能である。ぜひ、ご検討いただけると幸いである。


4.5 最近の話題1 公平性問題


AIの公平性に関する懸念は社会的に大きくなっている。社会の様々な分野でAIが使われるようになると、そこで人が公平に扱われているかが問題になる。AI以外であっても当然問われる問題であるが、システムが自動的に実行するという点で社会的な懸念が生じている。
このような懸念に対して、機械学習におけて公平性の問題がどのように扱われているかを正しく理解してもらうことを目的として、人工知能学会 倫理委員会、日本ソフトウェア科学会 機械学習工学研究会と電子情報通信学会 情報論的学習理論と機械学習研究会は「機械学習と公平性に関する声明」を2019年12月10日に公開した。また、機械学習と公平性に関するシンポジウムも2020年1月9日に実施している。


4.5 最近の話題2 多様性とインクルージョン

AIの公平性問題は、機械学習の公平性問題はもちろん関係しているが、さらにそもそも研究開発に関わる人々の多様性の欠如から生じているという指摘がなされている[Snow2018]。
人工知能学会では学会活動としてもこの点を改善することが必要であると考え、学会特集「ダイバーシティとAI 研究コミュニティ」の編纂[伊藤2020]および公開シンポジウムを開催した 。
また、


5 おわりに

AI倫理に関わる全体的な状況から筆者が関わる人工知能学会の活動までを概観した。AI倫理は研究者や技術者にとっての日常的問題である一方、いまやグローバルな政治課題となっている。とくに後者の状況はかなり流動的であり、この数年で大きく動くことは予想される。AIがこのように多面的に社会に関わるのは汎用技術であるが故であるが、それだけに研究者・技術者も関心を持ち続ける必要がある。


参考文献

[中川2020] 中川 裕志: AI倫理指針の動向とパーソナルAIエージェント, 情報通信政策研究, Vol.3, No.2, pp. 1-24, 2020, https://doi.org/10.24798/jicp.3.2_1
[江間2021] 江間有沙,小特集「AI 原則から実践へ:国際的な活動紹介」にあたって,人工知能, Vol.36, No.2, 2021, http://id.nii.ac.jp/1004/00010912/
[カーツワイル2007] レイ・カーツワイル: ポスト・ヒューマン誕生 コンピュータが人類の知性を超えるとき, NHK出版、2007
[松尾2015] 松尾 豊, 西田 豊明, 堀 浩一, 武田 英明, 長谷 敏司, 塩野 誠, 服部 宏充: 人工知能学会 倫理委員会の取組み, 人工知能, Vol. 30 No. 3, pp. 258-364, 2015
[松尾2016] 松尾 豊, 西田 豊明, 堀 浩一, 武田 英明, 長谷 敏司, 塩野, 誠, 服部 宏充,江間 有沙, 長倉 克枝: 人工知能と倫理, 人工知能, Vol. 31 No. 5, pp. 635-641, 2016
[武田2019] 武田英明:人工知能の倫理をめぐる活動と関わる学会の役割, ヒューマンインタフェース学会誌, Vol. 21, No. 2, pp. 53-57 (2019).
[Snow2018] Jackie Snow, バイアスなきAIのためにいま何をするべきか?, MIT Technology Review (日本語版), 2018年2月20日,  https://www.technologyreview.jp/s/75001/were-in-a-diversity-crisis-black-in-ais-founder-on-whats-poisoning-the-algorithms-in-our-lives/
[伊藤2020] 伊藤貴之,大澤博隆,清田陽司 and 坊農真弓: 特集「ダイバーシティとAI 研究コミュニティ」にあたって, 人工知能, Vol.35, No. 5, 2020. http://id.nii.ac.jp/1004/00010699/




この記事が気に入ったらサポートをしてみませんか?