見出し画像

試し読み:『人工知能のための哲学塾 未来社会篇』 あとがきに代えて

2020年7月に刊行した書籍『人工知能のための哲学塾  未来社会篇:響きあう社会、他者、自己』から、巻末の「あとがきに代えて」をご紹介します。人工知能研究者と哲学研究者の著者2人による、本書の議論を振り返っての総括的対話です。ぜひ読んでみてください。

------------------------------------------------------------

「他者としての人工知能」に関する考察─あとがきに代えて 三宅陽一郎 × 大山匠

あとがきに代えて、三宅と大山の対談を掲載します。三宅と大山は同じ問いをめぐり、哲学を展開しましたが、読者に対して2つの哲学の相対的な関係を示すために、お互いがお互いの思索に対し何を感じ、考えたかを記しておきます。

クロスする領域の対話の試み

三宅陽一郎(以下、三宅):本書の特徴は、僕と大山さんの立脚点が人工知能と哲学と異なりながらも、お互いにクロスする領域があるのでキャッチボールができるというところだと思います。ただ今回、未来社会篇としてどういうことをやるのかという最初の段階で、企画から大山さんに入ってもらってはいたのですが、1回1回のセミナーではお互いの内容に対して議論する余裕がなかった。本の最後になりましたが、お互いの哲学に対して意見を投げあう話ができればと思います。
 実は、今回の大山さんが提示してくれた知識をもっと貪欲に吸収しないといけないというのが、ようやくセミナーの第5回目でわかった。僕と大山さんの議論というのはなかなか交わらないけど、第5回の大山さんの発表を聞いてようやくつかんだ感じですね。

大山匠(以下、大山):確かに、イベント中は深くディスカッションをする時間がなかったですね。セミナー中から感じていたのですが、私と三宅さんの全体的なアプローチの違いというのはおもしろいところかと思います。全体の印象として、三宅さんのほうはポジティブな回答が多い。第四夜の愛では「人と人工知能は愛しあえるか」という問いに対しても冒頭でイエスと答えているのが印象的です。エンジニアリング(工学)と哲学のアプローチの違いでもあるとは思いますが、三宅さんのエンジニアリングとしての観点に立脚したものなのではないか。つまり「愛とは何か」の問いを掘り下げるよりも、「愛のような現象に近いもの」をいかに実装できるのかという、方法的なところに注目しているのかなと思います。私のほうは、あまりはっきりとした答えを出せていないものが多い。むしろ回答の不可能性に接近することもあります。少し斜に構えたアプローチと言いますか。そういうところが全体的な違いとしてあるのかなと思いました。

三宅:そうですね。一般的に、エンジニアリングはとりあえず可能だと思って作ってみるというところがあります。数学は解が存在するかどうか、哲学と同じようなアプローチをとりますが、エンジニアリングはできるかできないかはやってみないとわからない、という立場で世界と向き合う。それは哲学と相反するところですね。つまり、エンジニアリングは、人間のロジカルな思考、観念的思考と言ってもいいかもしれませんが、それはある程度正しいんだろう、だけれどもそれを100%信じてはいない、というところがある。とりあえず、作ってみて、できたらそれはできる証明になるでしょ、という。実は数学の中でも解を構成的に形成できないと証明にならない、と考える流派があります。それはちょうど人工知能そのものをめぐる問いでもあって、「自律的な人工知能は可能か」という根底の議論に対し、一方では哲学者の議論があって、一方ではエンジニアリングでとりあえず作ってみながら考えようという方向がある。それが今回の僕と大山さんの間でも起こっているのではないかという気がしますね。

大山:そうした工学的なアプローチは三宅さんの強みですよね。私は、哲学というアプローチもそうなんですが、全体的に数理的な説明が可能なのか、そういったモデルを作ることは可能なのかということを考えています。哲学的にも背景づけられるようなもの。
 三宅さんの原稿を読んでいて、なんと言いますか、非常にストリートファイト感があるというイメージです。それが解として正解かどうかよりもこんなやり方をしたらこんなものができるんじゃないか。やってみて、その中から少しずつ、よりよいものを発見していく。その方法自体はたくさん手数があって、いろいろな観点から使ってみるという、そんな印象がすごくありますね。

三宅:それはやはり、知能というものが現象だというある程度の理念があるからだと思います。哲学をやっている人からは怒られるかもしれませんが、少なくとも人工知能にかかわる哲学については、人工知能を生み出す土台、足場が哲学だと思っている。つまり、建築のほうが主であって、足場は組み方によっていろいろ変わるし、建築ができたらあとは足場を外してもいい、みたいなところがあるわけです。その中で、哲学的な足場からしか届かない現象があって、現象がいったんできれば、それは言葉や思考を超えたものとなる。この世界の中に本当に実在する何かを生み出したということになる。たぶん、それは僕がデジタルゲームAIを専門としているからでもあると思います。ゲームの中のAIは、人間と同じリアルタイムで動き出すものなので、僕がやっているのは知能という現象を生み出すことなんです。ロジックとか普通にアルゴリズムをやっている人は、そのフレームの中で、哲学についてそう考えることはないかもしれません。僕はどちらかというと、本当に動くものを作り出すので、逆に言えば、哲学を受け入れる余地があるというところなのかなと思います。哲学を足の裏の感触として確かに感じながら、手を動かして人工知能を開発するというのが、僕にとって人工知能と哲学の関係を示しています。

大山:そのあたりは、違った意味での三宅さんと私のアプローチの違いでもあるのかなと思います。三宅さんの「足場がある」という表現に何かしらのそこに対する信頼感を感じます。たとえば、人間と人工知能をつなぐ共通の何かを探そうとする。その共通点に注目するところがあるように感じます。コミュニケーションについてのテーマでも、たとえば共通のコモングラウンドのようなものを作ってからコミュニケーションが多層的に展開されていく、とする。全体として、その共通性みたいなものに注目されている印象があります。逆に、私のほうはそういった共通性への信頼があまりないかもしれません。むしろ差異から考えるということが多い。

三宅:そうですね。それとはまた別の観点のことになりますが、エンジニアリングもサイエンス(理学)も、言葉(自然言語)をあまり信頼していないところがあります。哲学はどうしても自然言語でやってしまうので、言葉の持つ曖昧性が入り込む。たとえば「共通の社会基盤」と言うと、文章の中ではなんとなく流れてしまう。ですが、エンジニアリングではその曖昧性を正確に作っていくことで掘り進めることができる。正確とまでは言わなくともある程度限定していかないと、実体を捉え損ねてしまうのではないかと思います。「この辺に何かありますよ」と見つけるのはおそらく哲学だと思います。哲学は存在と可能性を示唆する。ただ、そこに具体的な形状を構成しようとすることで、最後に分解能を上げていくのはやはりエンジニアリングなのかなと思います。実は人工知能も、コンピュータができる以前から、それが可能なはずだ、という哲学から出発しているのです。そして、エンジニアリングが見つけたものをさらに哲学が語ることで言葉の精度が上がっていく、といった哲学とエンジニアリングの相互作用の場が人工知能なのではないかと考えます。エンジニアリングと哲学が相互作用するというのは、なかなか他の分野ではない。お互いが相乗的な効果を持つというのが理想的な人工知能の場だと思います。

画像1

目の前に広がっているものをどう解釈するか

三宅:今回のテーマ、理解や社会、文化、愛、幸福が非常に大きすぎて、哲学的な精度に対しエンジニアリングが負けているなという感じが全体的にあります。つまり、哲学のほうで探求されてきている議論が、いまの人工知能から見ると、それをまだうまくエンジニアリングに持ってこれていない気がします。たとえば、文化の議論にしても、文化はみんなが知っているあの文化だろうと、エンジニアというか僕は短絡的に捉えるところがある。でも、大山さんが書いているように、文化を相対的に観る見方、日常が文化により構成されていくというような議論、こうした観点はおそらく未だにエンジニアリングへ接続されていないところかなと思います。
 僕のしている議論はある意味で、ある場所では哲学よりも精度がいいと思います。でも、あるところでは哲学のほうに負けていて、逆に言うと、そこは哲学がこれからの可能性を示唆しているところでもある。そういった未開拓の分野を哲学とともに始められるのが哲学塾のよいところだと思います。ここはアカデミックの場でもないし、産業の場でもない、自由に議論を展開する不思議な第三空間なので。この本がその起点になるのが理想だなと思います。

大山:哲学側からの反省としてもいくつかあって、今回、私は哲学を直接的には扱っていないシーンが多く、特に文化人類学、社会学、心理学、経済学などのいわゆる社会科学を中心的に使っています。その間をつなぐ糊として哲学を使っているみたいな感じで考えています。というのは、哲学から人工知能の話をするときに不可能性の話ばかりが出てきます。すると、哲学側からはきれいな解が与えられないので全面的にNGとなるわけです。そういう立場は確かに1つの重要なあり方であるとは思いますが、社会科学ではきれいな解と泥臭い近似とのはざまでなんとか間を埋めようとしているという印象がすごくあります。
 もちろん哲学との影響関係はあるので、こうした問題の難しいところは認識しつつ、できないと言って止まっていても仕方がないから、その中でいろいろなディスカッションをする。たとえばフィールドに出てみたり実験をしてみてデータを集めてきて近似的なものでも見つけていこうとする。先ほども話にあったような哲学とエンジニアリングの差異の間をつないでくれるような役割が、ちょうど社会科学のディスカッションの中で出てくるというのはすごくおもしろかったですね。哲学は哲学で、領域にこだわりすぎて中に閉じこもっていると、いろいろな弊害が出てくるように思いますね。

三宅:やはり哲学が対象としているものというのが、ある意味では観念、概念であるのに対し、社会学には具体的な、目の前に広がっているものをどう解釈するかという難しさがある。しかし、その「見方を変える」というのは哲学の力だと思います。大山さんが現象学的社会学を取り上げていたと思いますが、あれで社会学の見方が大きく変わった。たとえば、それまでフィールドワークをしていなかったのが、戦争で帰国できなくなってフィールドワークを始めて、それが転換点となった、というように、哲学の力というのは見方を一度外して別のところに視点を持っていく。案外これは哲学なしにはできないことなのではないか。それが哲学の大きな力で、社会学はそういう哲学の力を借りながら、社会現象の見方をどんどん変えていったと思います。つまり、泥臭いものをいろいろな場所から見ることで、現象について語る立場を獲得してきた。
 現象学的社会学という観点で見ると、日常空間がいろいろな、グローバルなものからローカルなものが絡みあい、フラクタルみたいな、極大なものが局所の個人というものにどんどん反映する構造になっている。それは、すごくおもしろいですね。そこがエンジニアリングが負けているところで、そういう哲学、社会学が展開してきた理論をどんどん取り入れて、マルチエージェントや社会シミュレーションを発展させていける可能性があります。ほとんどのマルチエージェントでは個々のエージェントに明確な役割を割り当て、組み合わせのインタラクションを定義します。この人は法律家、この人は一般市民で、この人は40代の主婦、というように。そしてマルチエージェント全体が引き起こす現象を研究する。すると、結局それ以上個々のエージェントを変化させるものは出てこないわけです。結果的に、全体としてのマルチエージェントを制限してしまっている。マルチエージェント、AIの集合を、いったん混沌のるつぼに戻すという意味で、大山さんが言われるような泥臭い部分、間をつなぐものが必要ですね。

大山:マルチエージェントにしても個の定義から始まるという、これはたぶん前提があって、個人主義的というか、個という単位が最も固い存在であるというような、ある種のデカルト的な発想からだと思います。そこから始めて、自然に、何らかの仕方で演繹されていって社会ができる。西洋哲学篇、東洋哲学篇で個の内面を扱ってそこからひっくり返したいという三宅さんの思いみたいなものは、おそらくその辺もあるのではないかと思います。むしろ、この演繹で全体ができないというところで、今回の関係性を扱うもの、社会とか文化とか、そういうものがようやく問われるというか。その辺の「ひっくり返す」あり方、おそらくそこが、現在の状況などいろいろなものを含めて、人工知能を考える上で入ってくるのだろうと思います。もちろん、人間についても同様ですが。

三宅:2020年の世界の状況下では、国の全体の形が個に影響するというのがダイレクトに見える。本来、それはそうなのですが、政府が何をやるかで個人の状況が大きく変わる。それが毎日のようにわかる。普段は無視できていることが、極限状態に拡大され感じやすい形になっています。
 マルチエージェントは分子シミュレーションのように相互作用だけを考える描像に似ています。それぞれのエージェントの内面に深くは踏み入らない。マルチエージェントは、個は相互作用の元で変化する変数があるだけであるという暗黙的な了解があって、相互作用だけを扱う。それは、社会学がかつてそうであった状況をそのまま反映しているのだと思いますが、社会学は、およそ100年前にはもうそこから一歩進んでいます。哲学の力を借りて現象学まで踏み入って、個の内面から再び社会学を再構築しようという動きが、アルフレッド・シュッツ(1899~1959年)など、1920~1930年代から始まったわけです。その段階にまだ人工知能は追いついていないように見えます。今回、未来社会篇全6回を終えて、やはり一番大きな気づきはそこです。社会学が現象学で変わったように、「人工知能の個というローカルな内部構造」と「社会の大局構造」がどのよ うに循環するか。よりダイナミックなモデルに移行するには、人工知能にもやはり哲学の示唆が必要になると思います。そうなったときに、西洋哲学篇、東洋哲学篇は、どちらかというと人間の内面を捉えるための現象学として提案したわけですが、未来社会篇は社会全体のシミュレーションを現象学的に人工知能上に乗せましょうという試みです。そこが、まるまる人工知能のエンジニアリングには残っています。この可能性を提示しようというのが、僕の本書のパートの役割だったのかと思います。僕自身の提案したモデルはあくまでモデルの1つに過ぎませんが、個の内面の構成と社会の極大な構造の循環的相互作用を人工知能の社会に持ち込むこと、最大の特徴としてはそこです。グローバルなものとローカルなものが循環的につながっているという動的な複雑系を人工知能社会へ持ち込むことです。

画像2

場の歪みを人工知能にどう持たせるか

大山:今回、三宅さんの論考の中ではいろいろなところで「場」という言葉がよく出てきたと思います。環境とか、あるいは個と全体の循環関係を作るときにその場になるような、いろいろな意味で。文化人類学を見ると、文化に対するある種の反省があります。それは場の単一性というものに対する批判です。たとえば、誰かが他文化を観察しようとするとき、それを透明な態度で見ることはできない。なぜかというと、それは場が違うから、です。誰か西洋の人が別の民族のところに入っていって、そこで現地を観察しようとしても、観察というその行為自体が歪んでいる。この場の歪み、場の複数性みたいなものについてどう考えていくかというのが大きな課題としてあると思っています。アーキテクチャとして考えなければいけないのと同時に、場合によっては倫理的な問題も含まれてくる。いろいろなバイアス、歪みというものにいかに気づくか。人工知能の領域でも最近は話題になっているとは思いますが、社会科学の中ではずっと昔からそういった場の歪み、複数性に対する吟味というか、反省がすごくあったのだろうなと思います。特に、フィールドに出て行って、そこに存在する差異から始めていくような、コミュニケーションの差異の中で研究しているような人たちの視点は非常に重要だと思います。

三宅:人工知能は空間を一般的に認識するというところに力を注いできて、ものをどう扱うかとか、この三次元空間をどう知能が認識するかということを人間の知能を模して把握してきたところがあります。認知心理学のアフォーダンスもそうだし、知識表現・世界表現もそうです。ただ、そのときに考える「人間」というのは、要するに普遍的な人間、汎化された人間です。「どのような人間も三次元をこう認識する」というところで。文化とか固有性みたいなものは全部削ぎ落として探求して来ました。ところが、そういった「汎用的な空間認識・空間利用」だけでない、「文化的意味を持つ空間」というものがあります。これは、大山さんが先ほど指摘したことだと思いますが、たとえば村のある場所は村長しか入ることができない神聖な場所だとしたとき、理屈ではない社会の持っている、ちょっとした歪み、あるいは神話が生み出す伝承が村という空間に投影されていて、その歪みが空間に表現されているのです。おそらく、デジタルゲームの村でもそれが重要なのだろうと思います。今のゲームの村というのは、勇者が入ってきてどこでも行ける。そういう歪みが全然ない。どこにでも行ける、歪みのない平坦な3Dマップです。でも本当は、文化的な歪みというものがあったほうがおもしろい。昔から文化人類学とRPGは関係がある、という予感みたいなものはあるけど、誰もそこを接続してこなかった。文化人類学が探求してきた歪みをデジタルゲームの村に反映するのはこれからの仕事です。
 空間に何が反映されているか、歪みと一緒にシミュレーションしないと見えてこない。物理的なオブジェクトは物理的なオブジェクト以上の意味を持つというのは、社会学や文化人類学が教えるところです。人工知能の領域では昔からデカルト的なユニバーサルなものが尊いというイデオロギーがあって、そこが、今回の未来社会篇のような文化とか社会を考える上ではとても稚拙に見えるところです。逆転して見ないといけない。

大山:そうですね。その辺もおもしろいですね。本書のテクストからは落としてしまったんですが、第三夜の文化の回で現象学的地理学とか建築の話をしました。三宅さんがいま言われたところと接続するとすごくおもしろい観点になる気がしますね。
 経験する主体の側からのいろいろなパースペクティブの中で、空間的なもの、地理的なものにいろいろ意味合いがすべて重なって見えている。私たちの経験は、X軸があってY軸があってというような一般化された多次元の空間の中にマッピングするような仕方ではあり得ない。主観の経験、ある個体の経験の中の、それとの関係の中で意味づけられている。ある種、歪んでいる空間なわけですよね。

三宅:そういうものをシミュレーション空間に持ち込むのは、よく考えるとそこまで難しい話ではないのかなと思います。たとえば、この領域は神聖な空間なのでいろいろなことが禁じられている場所だと。たとえば、町中でキスするのはかまわないけど、神社の境内の中でやるのはダメ。境内は神聖なもので、町中とは違うんだと。そういう感覚を実現するのは、特定の場所に「神聖さ」というパラメータを埋め込むことで十分可能です。普通の場ではアフォードされている行動を削ぎ落としていけばいいので。そういう場の持つ力みたいなものを場のほうに埋め込むというのは、ゲームではむしろやりやすいはずです。

大山:欲をいえば、フラットに選択肢があってそれが増えたり減ったりするのではなくて、「ここではこうしないことが自然に選ばれる」というか、そういう経験として描かれると非常に近い気はしますね。プレイヤーの側にそういう緊張感を作るというか。それがアフォーダンスを作るということなのだと思います。

三宅:そういうものというのは、一人では生まれない空間のはずで、ある意味、「共同幻想」なわけですよね。村長しか入ってはいけない場所というのは、村中のコンセンサスがあるからリアリティがある。つまり、ある程度の集団の中から生まれるものです。個としての知能だけを見ていたら見えない。そこに暮らす人たちの中で、ここは神聖な場所だからとか、こちらの方角は行ってはいけないとか、そういうことが生まれてくるということなんですね。

大山:それこそ個から全体という流れではなくて、私のパートで社会についての章で書いたデュルケム的な、むしろ社会が個を規定しているという。いろいろなもの、たとえば、私たちが人を急になぐったりしないというのも、明示的な法律による抑止だけではなく、その裏側で全体的な大きな力、緊張関係のようなものによって自然とそうなっている。全体の個に対する圧みたいなものが存在しているからなんだろうという気はしますね。
 以前三宅さんとご一緒した対談の中で、ゲームの中でモンスターをケアするプレイがあってもいいと言われていたのを思い出しました。まさにそう。モンスターでも、ほかのプレイヤーでも、単純なオブジェクトではなくて、そうした存在が別の他者として浮かび上がってきて、たとえば何かケアしなければならないというような存在になったときにはじめて、世界全体に緊張感が出てくる。自分だけがあらゆる選択肢をフラットに選択できるのではなく、何かそこに別の存在がいて、場合によっては何かしなければならない存在だったりする。そういうものが自分を取り囲んでいる、そういう緊張感が出てくるのではないかと思います。

三宅:そういう意味では、シングルゲームでは生まれようがないですが、オンラインゲームであれば、プレイヤーの中から、たとえば、前の戦闘でたくさんの人が戦闘不能になったからここを神聖な場所にしよう、みたいなことが生まれてくる可能性はあると思います。何十キロ四方くらいの大きさがあって、森があって、樹があって、城があって、オンライン空間がどんどんリッチなものになっています。プレイヤー間の取り決めみたいなものの中から、社会的な空間が出てきてもおかしくない。人が集まればそういうものができるのではないかと思います。
 先日、ニュースでも取り上げられましたが、新型コロナウイルスで亡くなられたプレイヤーの死を悼んだ葬列がオンラインゲームの中で起きたんです。街から神聖な大樹まで、黒い服を着て傘を差した数百名ものプレイヤーが歩いた。こういう行為は文化人類学的に非常に興味深いことではないかなと思います。そういうことをやろうと思うだけのキャパシティがいまのオンライン空間にはあるということ。「大樹に行く」という行為をみんなが意味づけたということ。プレイヤーたちは亡くなったプレイヤーを追悼したかったわけですが、現実空間の死というものに対して追悼するという機能はゲームにはありません。だから、なんとかゲーム内で表現しようと、黒い服で傘を差してみんなで歩きましょうと。そうすることで喪に服することを示しましょうと。そういうコンセンサスが成ったわけです。これは、文化が作られたというのと等しいかなと思っていて、それを見た人は自分たちの周りにもそういうことが起こったら同じようなことをすると思います。今度は別の木かもしれない。でも、そうやって文化が生まれていくというものなのではないかなと思います。

大山:最初の世代とその次の世代ではまた意味合いは変わってくるのでしょうね。たとえば、それが10回、20回と繰り返されたあとにはそのパターンを繰り返すことになると思います。

三宅:そうですね、それが文化だと思います。いったんどこかに保存されて、それが次の世代に影響を及ぼすという。文字で書かれるのか、絵で描かれるのか、村長の伝承によるものなのかわからないけれど、個を超えてコミュニティに対して影響を及ぼす遠隔装置みたいなものが「文化」なわけです。

大山:そのときには、ただ単純にパターンを引き継いでいるというよりも、同じ行為をするということによって、たとえば喪に服するという行為が過去の喪に服する行為と重なっていて、それによってそのときの当該の個人、そのときの対象になる人だけではなく、もう少し違った大きなモノに対しての何か、祖先であったり、社会であったり、そうした単なる個を超えた何かに対して喪に服することになるのかもしれませんね。

いかに、個と集団の関係を人工知能に持ち込むか

三宅:やはり、集団というものが場所に意味を与えていくのだろうと思います。トム・ハンクス主演の映画『キャスト・アウェイ』(2001年)では、主人公はトラブル解決にマレーシアに向かう途中、貨物機が太平洋上で墜落し、一人で無人島に流れ着く。そこで何年か過ごすわけですが、だんだんものに意味を与え始めるんです。この人形はなんとかさん、この場所は自分にとって大切な場所、というように意味づける。人間には自分の内面、何かを外に反映する力があって、個だとその人がいなくなればそれで終わりですが、集団となるとそれが重なりあうわけです。そして、この場所はこういうことにしておこうとか、ここはトイレ、ここは貝を捨てる場所、ここはお祈りをする場所、そうやって人数と歴史が重なっていくと、次の世代も従わざるを得ない。そうやって、その村の文化が次第に強固に形成されていくということなのではないかと思います。

大山:そのあたり、三宅さんも本文で触れていたと思いますが、継承の仕方とか、ある種のモデル化という動きは確かに非常におもしろいなと思う分、どこまで実装できるのかというのは気になりますね。

三宅:できるかできないかは、やはり身体性に依存しているのかなと思います。ある村の文化をマルチエージェントで再現することはそれほど難しくはない。「ここはこういう場所です」と定義すればできます。ところが、難しいのはそれを生み出すに至った人間の背景です。というのは、文化の最初の段階では、「食べる」「死ぬ」「上下関係がある」「身体を守らなければならない」とか、そういう理屈ではない、身体に依存した文化の形成過程が強いと思います。文化は極めて、人間の身体性に依存しているわけです。
 先ほどの葬列もそうですが、文化というものが生まれる起源には死というものに向き合う態度があります。僕はそれを中沢新一さんの『アースダイバー』(講談社、2005年)から学びました。場というものには、そういう身体のいろいろな特徴が色濃く反映されている。人工知能がそれをやろうと思っても、世界との結びつきである身体性が弱いから、文化が生まれないのです。身体がない人工知能は世界との結びつきが非常に弱い。単に動けます、移動しますということはできますが、トイレに行かなければならないとか、食べなければならない、など生理的なものがない。模倣はできても、文化の根底となる身体性が弱くて、文化を生み出すことができない。

大山:先ほどの問題に戻りますが、身体もある種の場ではないかと思います。何らかのものごとが身体を通して、そういった文化だったり、社会だったりというものを生み出している。となると、人間の問題としても、対人工知能としても、先ほどの場の複数性という問題を考えていかなければならないと思います。たとえば、人間には身体があって人工知能には身体がないから、としてしまうと、問題はそこで終わってしまうわけですが、人工知能が人間とは違う身体、違う場を持っているといったん仮置きしてみて、文化人類学がするように、違う文化、違う身体に対して、いかにかかわれるのか。違う場、歪んでいて、そもそもの見え方が違うものに対していかに何かを述べたり、触れたりできるのかというのは、大きな問いだと思います。そうなったときに、いかに場の複数性を超えてモデル化できるのかという話をするべきなのか、それとも、その複数性を超えて一般化しようとする暴力性に対して常に反省をし続けなければいけないのか、と。

三宅:いま、街そのものがスマートシティという形で、人工知能化されようとしています。これには少し時間がかかりますが、GPSなどでデジタル空間とリアル空間をつなぐことはできていて、物理的身体はないけれど物理的な移動は実現できる。それをうまく利用しているのが位置情報を使ったゲーム(以下、位置ゲーム)で、たとえば「Ingress」(ナイアンティック、2012年)はポータルという特別な場所によって、逆に歪みを作っているわけです。ポータルの周りにプレイヤーがやって来て取りあう。ある意味、均等に歪んだ世界を作っている。残念ながら、いまは人工知能ではなく人間だけでやっていますが、技術的には、エージェントという形で人間の代わりにポータルを取る動きをプログラミングすることによって、そこに人工知能を放つことは可能です。
 将来の位置ゲームは、人間も人工知能も一緒にプレイするという形になると思います。人間は端末からデジタル空間に入っていきますが、エンタメの空間のおもしろいところはわざと変な歪み方がされていて、歪み方を共有することでゲーム性を生んでいます。そうすると、人工知能も人間も同じ歪みを見ながら同じプレイができるわけです。そういう場であれば、人と人工知能のコミュニケーションも可能になります。同じルールで同じ場なので、「次はここを取るぞ」といったゲーム内の会話による意思疎通は容易です。ただ、いろいろな場が混在していると、どのレイヤーの話をしているか混じってきて、ゲームとしてはバッドデザインということになってしまいますが。
 現実は、やはりいろいろな空間があって、社会の中でもここは偉い人の土地とか、こちらは下々のいる場所というように、そういう歪みが蓄積されていったのが、いまの都市とか、街、村ということになるんだろうと思います。

大山:歪み、複数性とか、そのあたりが先ほどの共通性をどう考えるかということだと思っていて、それをまったく考えなさすぎると手がかりがないということになる。場が複数であったとしたら、なんらかのごくわずかな共通性でも見出しつつ、何か他の文脈について語ろうとすることはできると思います。合理的に語り尽くすことはできないような気もしますが。

三宅:やはり、これまで人工知能研究がやってきたのは、合理性エージェントでフラットな場でコミュニケーションを考えましょうということで、その技術は分散コンピューティングのような、コンピュータがたくさんあって連携するときに役立ちます。しかし、それでは人工知能を発展させようとするとき、まず合理的な人工知能を作って、それを高めて連携させるという道しかない。合理性エージェントは、多様な人工知能の1つの方向に過ぎない。デカルト的なフレームの中でエージェントに対する合理性にバイアスがかかっている。先ほどの議論で、歪みというものがあると、その歪みが個としての人工知能をある意味発展させるファクターにもなると思います。全体から個が影響を受けるということは、全体がある種のダイバーシティ(多様性)を持っていないとおもしろくないわけです。フラットな空間で合理的なものが通るだけなら、いまの人工知能で十分ですが。
 歪みがあることで個としての人工知能のほうにフィードバックされて、そこに個としての人工知能の変容が現れる。それがまたインタラクションによって全個体と場に還元される。これは新しい人工知能の作り方かなと思います。大山さんが言われたように、いまはみんな個としての人工知能を先に作ってしまう。それで、作って会話をさせようとすれば場なんていらないわけです。個と個があればいいので。むしろ、ある程度作った上で場をリッチにする。そこに個が変わっていくというフィードバックが起こり、さらにその人工知能が場を変えて、それがまた個にフィードバックされる、という循環を作ることで、新しい人工知能の作り方の可能性が拓けます。ただ、そのフィードバックをどう作ればいいか。
 文化というのは1つのフィードバックだと思います。1つ前の世代が残していった何かに従わなければいけないと伝承されることで、次の世代の個をある程度規定してしまうということが起こっている。文化という層もそうだし、社会的な場もそうです。たとえば、霞ヶ関が特別な場所というのも、前の世代があの場所にああいうものを作ってしまったから、そう思わざるを得ないみたいなことになっているわけです。人間の場合は、そういうフィードバックが多重に吹き込まれていて、だからはじめて会う人でもある程度の会話が成り立つ。人工知能もそういうふうに、場のほうに行ったものがいろいろな経路で返ってくるみたいな成長の仕方を始めるべきなのだと思います。そこがたぶんマルチエージェントに欠けていたところで、これから新しい可能性があるところです。

大山:その歪みというものは、単純にフィードバックで作られていく側面と、あともう1つ、純粋な偶然性みたいなものによって形成される側面があると思います。たまたまこの親から生まれて、ここに生まれてしまった、というような。ほかの可能性は理論的には考えられますが、現実的には越えられない断絶がある。ここでの純粋な偶然性というのは、単純にランダムに生成した変数を用いてエージェントを生み出すとかそういう話ではなく、受け入れるしかないような絶対的な偶然性です。そういう偶然性があることによって、むしろ、運命のようなものを共同体で引き受け、共有するということが生じ、そこで文化だったり、社会だったり、というのができると思います。純粋な偶然性を一緒に引き受ける共同体として。

人工知能と未来の私たち

三宅:人工知能がこれから人間と人間の間を変えていく一つのファクターであることは間違いない。アイザック・アシモフ(1920~1992年)は『はだかの太陽』(1957年)で人間同士が直接に接しない世界を描いていますが、それでも社会が機能するのは間を人工知能が取り持っているからです。これから、むしろ技術の中で人間関係を変えられるのは人工知能だけだと僕は思っています。メディア(伝達媒体)はどんどん変わっていく、最初は直接話していたけど、手紙になり、電話となり、そしてインターネットになった。ただ、メディアは変わったけど、結局は人間同士の関係はそんなに変わっていないですよね。
 でも、人工知能は人と人の間を変えることができます。メディアに溶け込み、人の関係を変化させることができます。たとえば、言葉を和らげたり、自分の代わりに自動返答させたり、相手の意図を解析したり、自分の意図を明確にしてくれたり、自動翻訳してくれたりするわけです。いま新型コロナウイルスが外してしまった人間関係というものを、人工知能が再構築していくのではないかなと思います。人という個がインタラクションする場そのものが人工知能となるのです。
 人工知能によって人間と人間の距離が変化していく。インターネットもいまは人間が張りついていますが、人工知能に任せておけばいい。TwitterなどのSNSは特にそうですが、ネットの中にみんなが参加するというのは、原始的なインターネットの時代で、もうそこは人工知能に任せればいい。人工知能によってインターネットから人間を引き剥がすのです。逆の言い方をすれば、人間の存在の中心を自分自身に引き戻す作用が人工知能にはあって、人間拡張の形で人工知能たちが個人の機能を増幅すれば、みんながある意味王様で、世界との間に人工知能たちを使役する空間ができてくる。

大山:三宅さんのいまの話と重なるところですが、特に愛とか社会、幸福という話において、結局は人間のことを考えなければならないと思います。三宅さんの言う「人間と人間の間の人工知能」のように、私たち人間の社会、文化、コミュニケーションの間にインフラとして人工知能が入ってきていて、それについてどう考えるかというのが、非常に切迫した課題のように思います。「人間と人工知能」の前に。
 現代の政治哲学の中でもよく議論されていることですが、自由主義の結果として個の力が強くなっていって同時に個が孤立してしまい、その結果、直接個が他者と接することがなくなってしまったということが問題にされています。個の周りに緩衝材のようなものがついて拡大し、そうしたバッファーを通してしか他者と触れないというあり方です。人工知能は私たちの知らないうちにコミュニケーションの間にいろいろな形で入り込んできていますが、それについてもっと自覚的になるべきではないかと思います。対人間の間がさらに間接的になっていくという、現在の新型コロナウィルスのパンデミックを合わせて考えると象徴的な意味がありますね。

三宅:インターネットのせいで、人間同士が過剰にインタラクションをしています。つまり、人間同士が自家中毒になっていて、本来、地球の裏側の話は事象としては、ゆっくりとしか関係してこないはずですが、インターネットでは、地球の裏側で起きた事件の動画があふれるように流れ込んで来る。そういうふうにインターネットの情報伝達によって加熱してしまった人間同士がインタラクションする状態を、僕は人工知能によって冷ましたいと思っている。冷ますことでいろいろな争いがなくなるのではないかと思っているんです。極論すると、人間と人間の距離が遠ければ争いあう必要は本来ないわけです。いくら持っているポリシーが違うとしても、干渉しないわけだから。その冷却を人工知能にさせたかった。ところが、予期せぬ形でそれを新型コロナウイルスがやってしまったという。

大山:いろいろなもののクールダウンみたいな兆候はありますね。思考だけでなく経済も含め、いままで追い求めていた発展とかそういったものはなんだったんだろうという。進歩的な思想はもちろん人間の側にもあったと思いますが、人工知能についてもそういったものがもしかしたらあるかもしれません。シンギュラリティのような連続的に発展する思想だけではなくて、いろいろな使われ方があるというような。さまざまな面で、もう少しクールダウンが必要なのかもしれません。とはいえ、このクールダウンが同時に静かに人間を切断していくのではないかという危機感も感じています。

三宅:ある意味、個としての冷却状態がかりそめにも実現しているわけですよね。一番衝撃なのは、世界を見るといまいくつかの内戦が停戦していること。内戦がなくなったこと自体はすごくよいことで、そこがチャンスだなと思う。これは、人類の変化の可能性を示しているのではないかと。
 僕としては、この未来社会篇での一番の大きな成果というのは、「個の内面と社会が結びあっている関係から人工知能を作り直す」、という地平が開けたことだと思っています。西洋哲学篇、東洋哲学篇では個としての人工知能を探求してきたわけですが、それだけでは十分ではない。それが今回の最大の成果で、それ自体の内容がまだ固まっていないのですが、これから人工知能が進むべき道、場と個が相互作用しながら発展していくというのが見えたのが一番大きいです。

大山:基本的には三宅さんの言われたことと近いですが、もう1つ思ったのが、西洋哲学篇、東洋哲学篇で個の中の話をしてきて、今回他者としての人工知能、関係性を考えていくことになると「何を問うべきなのか」という視点が必要になるなという点です。無邪気にいろいろな問いを立てることはもちろん可能ですが、人工知能に対して考えること、たとえば人工知能の愛とか幸福を考える、そのことの不誠実さとか、そういったものが他者としての人工知能を考えることで出てくるのはすごくおもしろいなと思います。何を実装すべきか、我々が人工知能に何を求めるべきか、どういう関係を築くべきか、といったところも含めての問うことの難しさ、について。世の中的にもそういうフェーズに来ているのかなという気はします。今回の未来社会篇で、そういうテーマをたくさん込められたのではないかなと思います。
(2020年4月25日収録/構成・大内孝子)

※写真は「人工知能のための哲学塾 未来社会篇」第五夜より(撮影 犬飼博士)

この記事が気に入ったらサポートをしてみませんか?