見出し画像

連載:「哲学ディベート――人生の論点」【第8回】AIに倫理を組み込めるのか?

2021年6月22日より、「noteNHK出版 本がひらく」で連載を開始した。その目的は、次のようなものである。

●「哲学ディベート」は、相手を論破し説得するための競技ディベートとは異なり、多彩な論点を浮かび上がらせて、自分が何に価値を置いているのかを見極める思考方法です。
●本連載では「哲学ディベート」を発案した哲学者・高橋昌一郎が、実際に誰もが遭遇する可能性のあるさまざまな「人生の論点」に迫ります。
●舞台は大学の研究室。もし読者が大学生だったら、発表者のどの論点に賛成しますか、あるいは反対しますか? これまで気付かなかった新たな発想を発見するためにも、ぜひ視界を広げて、一緒に考えてください!

「人生」は無数の選択で成り立っている。どの学校に進学すべきか? どんな相手と、いつ結婚すべきか? 生きるべきか、死すべきか? しっかりと自分の頭で考えて、自力で決断するために大きなサポートとなる「人生の論点」の「哲学ディベート」を紹介していくつもりである。乞うご期待!

理学部D 僕は、AIに自動運転を任せてよいのかという問題を提起しましたが、内心では、いずれ科学技術が進歩すれば解決される問題だろうと楽観視していました。しかし、皆さんのディスカッションを聞いているうちに、それ以前に議論すべき問題が多々あることを再認識しました。とくに、倫理的および法的な問題は、容易には解決できないのではないかとさえ思えてきました。
 AIの倫理問題について検索したところ、ドイツを代表する自動車メーカーのメルセデス・ベンツの技術者が、自動運転車は「搭乗者の安全性を最優先する」という見解を発表したため物議を醸したという記事が出てきました。
 この記事の出所を追跡していくと、2016年10月に開催されたパリのモーターショーの会場で、メルセデス・ベンツの運転支援・予防安全システムの技術責任者クリストフ・フォン・フーゴーが受けたインタビューが初出だとわかりました。
 彼は、メルセデス・ベンツの自動運転車が避けられない衝突事故に対してどのように対処するのかという質問に対して、「少なくとも1人を救えるとわかったら、少なくともその1人を助ける。車の搭乗者を助ける。(“If you know you can save at least one person, at least save that one. Save the one in the car.”)」と答えています。
 ここで想定されているのは、ブレーキの故障した自動運転車が、歩行者に衝突するか、歩行者を避けて障害物に衝突して搭乗者が被害を受けるか迫られる「トロッコ問題」の状況です。要するに、歩行者か搭乗者のどちらかを選択する二者択一の局面では、どれだけのダメージを与えるか予測できない歩行者よりも、確実に救うことのできる搭乗者の方を優先すべきだと彼は答えたわけです。
 ただしフーゴーは、その種の二者択一は科学技術によって99%防ぐことができるものであり、未来社会では、そのような場面に遭遇する可能性は非常に低くなるはずだとも述べています。
 しかし、彼の「搭乗者優先」発言はマスコミに大きく取り上げられ、とくにドイツ国内で大きな議論が巻き起こりました。この議論を総括する形で、2017年6月、ドイツ連邦デジタル・交通省(BMVI: Bundesministerium für Digitales und Verkehr)が「自動運転車およびコネクテッドカーに関する倫理規定」として、20のルールを公表しました。
 この中でとくに注目されるのは、第9ルールに「避けられない事故の状況下では、いかなる個人的特性(年齢、性別、身体あるいは精神状態)に基づく差別も厳重に禁止する。犠牲者を比較するようなことも禁止する。(In the event of unavoidable accident situations, any distinction based on personal features (age, gender, physical or mental constitution) is strictly prohibited. It is also prohibited to offset victims against one another.)」と明記してあることです。
 つまり、犠牲者を個人的特性によって差別してはならず、また犠牲者が搭乗者か歩行者かで比較してもならないと述べているわけです。おそらくドイツ連邦デジタル・交通省は、メルセデス・ベンツの「搭乗者優先」発言を打ち消す意図もあって、すべての人間を完全に「平等」に扱うというルールを設定したのでしょうが、このルールはあまりにも非現実的ではないでしょうか?
 そう思って、さらにネットで調べてみたところ、「モラル・マシン(Moral Machine)」という興味深いクイズ形式アンケートのあることがわかりました。このアンケートは、すべて「Aを犠牲にしなければBが助からない」という二者択一状況で、どちらを選ぶかを答えていく形式になっています。
 たとえば、自動運転車のブレーキが故障して、直進すると「3人の老人が轢かれて死亡」し、避けて右の道路に進むと「大人2人と子ども1人が死亡」する状況になっています。このどちらかの画像を選んでクリックするわけです。
 さらに、歩行者が「交通ルール」を守って青信号で渡っているか、赤信号なのに無視して渡っているか、衝突した影響も「死亡・ケガ・未確定」の段階に分かれていて、その解説を見ながら回答する形式になっています。
 1回あたり13種類のシナリオの質問に答えていくと、結果的に自分が「男性・女性」、「高齢者・乳幼児」、「経営者・犯罪者」、「犬・猫」などの組み合わせで、何を優先して助けてきたのかがわかります。
 僕もやってみたのですが、たった13種類のシナリオでも、かなり考えさせられて、非常に疲れました。現実世界は、この「モラル・マシン」よりもさらに複雑ですから、AIに倫理を組み込むことができるのか、わからなくなってきました。

教授 D君、メルセデス・ベンツの技術責任者の「搭乗者優先」発言から、ドイツ連邦・デジタル交通省の「平等主義」、そして「モラル・マシン」まで、よく調べたね。
 少し補足しておくと、「モラル・マシン」は、2016年にマサチューセッツ工科大学のコンピュータ科学者エドモンド・アワッドの研究チームが立ち上げたプラットフォームでね。
 彼らは、世界中の動向を研究するために、「モラル・マシン」の英語・アラビア語・中国語・フランス語・ドイツ語・日本語・韓国語・ポルトガル語・ロシア語・スペイン語の10言語バージョンを発表した。すると、ネット上で大きな反響が巻き起こり、18カ月の間に世界233の国と地域から約4,000万件もの回答を得ることができた。
 アワッドらは、それらの回答を統計的に分析して『Nature』2018年11月号に発表した。比較文化論的に非常に興味深いのは、この論文が、世界の人々が何を優先して生存者と犠牲者を決めているのかを詳細に分析している点だ。
 具体的には、アワッドらは、次の9つの基準となる指標を設定している。
 (1) 生存者と犠牲者の数
 (2) 性別
 (3) 年齢(乳幼児/子供/大人/高齢者)
 (4) 種(人間/犬/猫)
 (5) 健康状態(アスリート体型/肥満体型)
 (6) 社会的地位(会社経営者/医師/ホームレス/犯罪者)
 (7) 搭乗者/歩行者
 (8) 交通規則の順守
 (9) 介入傾向(車の進路を変更する/しない)
 その結果、世界の人々は、ほぼ共通して次の3つの根本的な傾向を示すことがわかった。
 (1) 動物よりも人間を優先すること
 (2) 少人数よりも多人数を優先すること
 (3) 年齢が高い者よりも低い者を優先すること
 しかし、それ以外の傾向については、国々で大きく分かれていた。この論文では、それらの回答の傾向が世界で大きく3つのパターンに分かれると分析している。
 (1) 西側諸国(アメリカやヨーロッパ諸国、キリスト教の影響が大)
 (2) 東側諸国(日本や東アジア諸国、儒教・イスラム教の影響が大)
 (3) 南側諸国(フランスや中南米諸国、ラテン系の旧フランス植民地)
 たとえば、西側諸国は、多人数を優先し現状維持して車の進路を変更しない傾向が強い。東側諸国は、歩行者・交通ルールを守る人を優先する傾向が強い。南側諸国は、女性・若年層・高い地位の人を優先する傾向が強い。
 日本に特化して言えることは、世界で最も「助ける人の数」を重視せず、「歩行者」を優先する傾向が強かったことだ。つまり、日本人は人数よりも弱者、そして交通ルールを優先する。一方、世界で最も「助ける人の数」を重視するのはフランスで、高齢者よりも若年者を助ける傾向も強い。
 論文執筆者の1人で、現在はマックス・プランク人間発達研究所のコンピュータ科学者イヤード・ラフワンは、「この結果は、自動運転車のための完全で普遍的なルールは存在しないことを示している」と述べている。

文学部A 私は、今伺った「自動運転車のための完全で普遍的なルールは存在しない」という結論に賛同します。
 そもそも人間の世界でさえ、普遍的な倫理観が確立されていないのですから、それをAIに組み込むことなど不可能ではないでしょうか。
 倫理観と言えば、以前の「哲学ディベート」で、「人にせられんと欲することは、人にもまたその如くせよ」という聖書の『マタイによる福音書』(第7章第12節)に登場する「黄金律」を議論したことがありました。
「あなたが人からしてほしいと思うことを、あなたも人にしなさい」という教えで、当初私は、これはとてもよい教えだと思っていました。もし世界中の人々がこの教えに従って生きていたら、お互いがお互いを思いやって、全員が助け合うことになり、紛争のない平和な社会が実現するのではないかと思ったからです。
 しかし、よく考えてみると、この考え方には大きな欠陥のあることがわかります。というのは、「あなたが人からしてほしいと思うこと」を決めるのは「あなた」ですから、それを「あなた」が人にするとなると、必ずしもされた人が愉快になるとは限りません。
 人に愛されたいから自分も人を愛するとか、人に優しくしてほしいから自分も人に優しくするといった行動ならばうまくいくかもしれませんが、自分が人に構ってほしいから、自分も人に構うとなると「おせっかい」になる可能性もあるでしょう?
 もっと突き詰めると、「あなたが人からしてほしいと思うこと」という部分は、「あなた」がよいと思うことであれば、何でもよいことになります。そうなると、黄金律というのは、結局は「何でもいいから、あなたがよいと思うことを人にしなさい」と同じ意味になる可能性もあると思います。
「モラル・マシン」の論文で分析された「西側諸国」の多くの人々は、キリスト教の影響で「黄金律」を信じている可能性が高いかもしれません。そのような倫理観で設計されたAI自動運転車が「東側諸国」や「南側諸国」に輸出されて何らかの事故が生じたら、その判断は、それらの国々では受け入れられないのではないかと思います。

法学部B 僕もA子さんの話を聞いて「哲学ディベート」の議論を思い出しました。
 ここ数年、自殺願望があるのに自分ではその勇気がなくて、死刑にしてほしいからと、まったく罪のない赤の他人を殺傷するような犯罪者が増えています。この犯罪者は、自分が人に殺してほしいから、人を殺したわけですから、その意味では、完全に「黄金律」の論理に当てはまっていることになります。
 僕が共感するのは、キリストの「黄金律」と似ているのですが、孔子の『論語』に登場する「己の欲せざるところ人に施すことなかれ」(顔淵第12巻・衛霊公第15巻)の方ですね。つまり、「あなたが人からしてほしくないことは、あなたも人にしてはいけません」という教えです。
「黄金律」の「人にしなさい」というのは、どうも押し付けがましいけれども、自分が人にされて嫌なことは人にもするなというのは、現代社会にとっての一般常識でもあると考えます。
 とはいえ、「あなたが人からしてほしくないこと」を決めるのも「あなた」なので、結局「あなた」がしてほしくないと思うことであれば、何でもいいわけですよね。そうなると、孔子の教えも「何でもいいから、あなたがよくないと思うことを人にしてはならない」と同じことになってしまう。
 もし自分は人から何もしてほしくないと思う人がいたら、その人は人に何もしないことになります。さらにこの教えを厳密に守ろうと思えば、他者に対しては、いっさい何もできなくなるかもしれない。
 論理的に考えてみると、キリストの「黄金律」にしても孔子の「論語」にしても、実は暗黙の前提があるわけです。それは「あなたが他人からしてほしいこと」と「他人があなたからしてほしいこと」が一致し、「あなたが他人からしてほしくないこと」と「他人があなたからしてほしくないこと」が一致するということです。
 したがって、これらの教えは、文化的に共通点の多い均質な社会集団では受け入れられるかもしれませんが、個人的な判断基準の相違や極限状況などでは、必ずしも成立しないわけです。
「モラル・マシン」の実験から明らかなように、世界各国の宗教的あるいは文化的背景や、政治や経済状況などの要因が倫理感に深く影響しています。世界の人間同士でさえ倫理観は異質なのですから、これを「自動運転車」に組み込むことは不可能だと思います。

経済学部C 私は、「自動運転車のための完全で普遍的なルールは存在しない」という結論は、少し極端すぎると思います。
 そもそも「モラル・マシン」のアンケートに応じた4,000万件という回答数は、たしかに膨大だとは思いますが、回答者はネットに繫がる余裕と能力があって、匿名の人ばかりですよね? もしかすると、大部分は若者で、男性が中心かもしれないし、どちらかというと金銭的余裕がある人ばかりかもしれません。つまり、データ自体が偏っている可能性があるということです。
 しかも、このアンケートでは、現実世界で起こりえないような極端な二者択一を13種類ものシナリオで選択させるわけですから、D君のように真面目で一生懸命な人は疲れると言っていたけど、途中から適当に答えるような人も多いのではないかしら? もし「モラル・マシン」のデータに意味がなければ、それを分析した論文は、いくら『Nature』に掲載されたといっても、世界各国の倫理観を明確に測っているとは断定できないと思います。
 私は、「自動運転車」の「完全で普遍的なルール」というのは、何もそれほど難しいものではなく、単純に人間のドライバーと同じルールだと思います。要するに、交通ルールを遵守し、無事故・無違反を心掛け、もし避けられない事故になったとしても被害を最小限に抑えること。ですから、A子とB君の話に出てきた「黄金律」や「論語」まで話を広げる必要はないと思います。
 私の父は30年以上の運転歴があって、ゴールド免許保持者ですが、これまで一度も「トロッコ問題」のように難解な選択を迫られたことはないそうです。たまに狭い道や繁華街で自転車やバイクが飛び出てきてヒヤッとすることはあるそうですが、周囲をよく注意して、信号を守り、車間距離を取って運転していれば、大きな問題は起きないと断言しています。
 以前にも話しましたが、自動車専用道路と歩行者専用道路を分けるとか、歩行者用の歩道橋や地下通路を増やすとか、そもそも事故が起こりにくい都市の交通環境を整備できれば、自動運転車に複雑な倫理観を組み込む必要はないと思います。

医学部E 僕も、どちらかというとC子さんの意見に賛成ですね。
 2013年、オックスフォード大学の経済学者カール・フレイとマイケル・オズボーンが「雇用の未来――いかに職業はコンピュータ化の影響を受けるか」という論文を発表しました。この論文は、アメリカ合衆国の労働省が定めた702の職種をクリエイティビティ、社会性、知覚、細かい動きといった項目ごとに分析し、米国の雇用者の47%が10~20年後には職を失うと結論づけています。つまり、20年後までに人類の仕事の約50%がAIないしは機械によって代替され消滅すると予測しているわけです。
 前回、発明家レイ・カーツワイルの「収穫加速の法則」に触れました。ある重要な発明が行われると、それは他の発明と結び付き、次の重要な発明の登場までの時間を短縮させます。したがって、科学技術が指数関数的に進歩すると、収穫までの時間も指数関数的に速くなるわけです。
 そこからカーツワイルは、「21世紀には2万年分の進歩が生じる」と予測しています。信じられないような数字ですが、もし「収穫加速の法則」が正しく、このまま科学技術が指数関数的に進歩すると、ある時点で限りなく「無限」に接近することになります。この「技術的特異点」は「シンギュラリティ」と呼ばれます。
 驚くべきことに、カーツワイルは、2045年にシンギュラリティに到達すると予測しています。なぜなら、その頃に1,000ドル程度で販売されるコンピュータの演算能力が、人間の脳の100億倍になると想定されているからです。つまり、10万円程度のコンピュータが、全人類100億人の計算能力に匹敵する能力を持ってしまうわけです。
 そうなると、AIは、もはや人間には理解できない思考回路で相互に通信を開始してネットワークを構築し、自ら改善しながら増殖するようになり、それ以降の科学技術の進歩は、人類ではなく機械に制御されるようになるそうです。いわば「超越的知性」が出現するわけですが、その先は、カーツワイルにさえ予測できないということです。
 生命進化の過程を機械に組み込む「遺伝的アルゴリズム」の先駆的研究で知られるヒューゴ・デ・ガリスによれば、今世紀中に、人工知能の能力はヒトの「1兆倍の1兆倍(10の24乗倍)」になるそうです。ここまでくると、「超越的知性」というよりは、もはや「神に近い機械(Godlike machine)」ということになります。
 一方、「シンギュラリティ」など生じないという反論もあります。そもそも「コンピュータの演算能力が人間の脳の100億倍」になったとしても、それは単に「演算の数」が増えただけではないかと考えるわけです。
 囲碁や将棋やチェスのようなボードゲームでは、あらゆる手の組み合わせを検証する「演算の数」が非常に重要ですから、人間がAIに勝てなくなることは明らかでしょう。しかし、いくら演算能力が高くても、AIには「意思」や「感情」がありません。
 ハーバード大学の認知科学者スティーブン・ピンカーは、AIやロボットが、あくまで「人工物」であることを忘れてはならないと述べています。「人工物」は、人類が長い進化の過程で取得した繁殖欲求や闘争意欲、快楽欲や権力欲といった本能を持ちません。ですから、仮に人間を全面的に超えるAIが出現したとしても、それが自己改善と自己複製を繰り返して「超越的知性」に達するようなことはないと主張しているわけです。
 さて、話を元に戻しますが、もし「超越的知性」が生じたら、世界の人間の倫理観などもアルゴリズムにして簡単に組み込むことができるでしょう。もしそこまでの進化がないとしても、「自動運転車」のルールは「超越的知性」などよりも遥かに原始的な交通ルールです。青信号は進む、黄色信号は注意、赤信号は停止といったアルゴリズムは、むしろボードゲームのルールに近い感覚でプログラムできると思います。
 したがって、いずれにしてもAIに倫理を組み込むことのできる日は近いというのが僕の感覚です。

教授 「AIに倫理を組み込めるのか?」という問題から「平等主義」や「モラル・マシン」や「超越的知性」に関する哲学的議論が抽出されました。本当に難しい問題だと思いますが、このディベートを契機として、改めて自分自身で考えてみてください。

参考文献
Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-François Bonnefon and Iyad Rahwan, “The Moral Machine Experiment,” Nature: 563, 59-64 (2018).
https://www.nature.com/articles/s41586-018-0637-6.epdf?referrer_access_token=1UI2-571eCV3tBNjca75n9RgN0jAjWel9jnR3ZoTv0OR8PKa5Kws8ZzsJ9c7-2Qp8nbIwouAM66OQiCFCUYXQRFBcD903wux5GWjYtW-Qg0VsMn3IwcqIheAW9orF7HAHTuj2dGO9w6_6FqjM0JGEzqxeISMxLQ6LRIiQHcu8fV1gvDg6iRBbbuLNSjraQVARRN4K-lrJ0D-t4L3kk5gadlkepjvOsXJVXpJGmTejmRGX4eDPm9nTquMYEWwPeSVJlmb1JrUtoW_sTESGDaCIpglQkktlkjmIkcowPTKSEshtkViD9YmB3GTXpQZC3T2&tracking_referrer=www.technologyreview.com
Federal Ministry for Digital and Transport, “Ethics Commission Automated and Connected Driving”
https://www.bmvi.de/SharedDocs/EN/Documents/G/ethic-commission-report.pdf?__blob=publicationFile
Carl Frey and Michael Osborne, “The Future of Employment: How Susceptible are Jobs to Computerisation?” https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf
Michael Taylor, “Mercedes Autonomous Cars Will Protect Occupants before Pedestrians”
https://www.autoexpress.co.uk/mercedes/97345/mercedes-autonomous-cars-will-protect-occupants-before-pedestrians
高橋昌一郎『20世紀論争史』光文社新書、2021
「モラル・マシン(日本語版)」https://www.moralmachine.net/hl/ja

#エッセイ #コラム #読書 #推薦図書 #哲学ディベート #思考方法 #高橋昌一郎 #NHK出版 #NHKブックス #人生の論点 #AI #倫理

この記事が参加している募集

Thank you very much for your understanding and cooperation !!!