人工知能は夢から醒めて途方に暮れることができるか?

ほとんど欠かさない日課といえば、コーヒーを淹れること。
私の現在の生活形態の中で、唯一複雑な動作は「コーヒーを淹れる」ことだ。
あとは少し散歩をしてダラダラしているだけ。
コーヒーを淹れることしかできない自堕落ロボットのような生活をしている。
誰のせいでもない。
ロボットは、ただ途方に暮れている。

ところで、AI(人工知能)は「自分のためにコーヒーを淹れる」という私の現在唯一の職務を奪うことができるだろうか。
私は、コーヒーを飲むことが好きなだけでなく、コーヒーを淹れる過程も好きだから、これは自分の仕事であってほしい。
しかし、調べてみると、そんな心配はいらないようだった。

アップルの共同創業者であり、「Apple Ⅰ」、「Apple Ⅱ」の開発者であるスティーブ・ウォズニアックが、こんな予言をしている。

見知らぬ誰かの家を初めて訪ね、その家の主人に頼まれて、彼のために一杯のコーヒーを淹れることのできるAGI(汎用人工知能)を、我々はつくることができないだろう、と。

多くの人にとっては、誰かのためにコーヒーを淹れることは造作もないことだ。
しかし、それをAIにやらせようとすると、大変な難問がいくつも横たわっているらしい。

俗に「ウォズニアック・テスト」と呼ばれるこの問題は、試験されるAIが"強いAI"であるか、"弱いAI"であるかを見分けるために用いられる。
この試験にパスすれば、そのAIは、AGI(汎用人工知能)と認められるらしい。
今のところ、パスしたAIはない。
つまり、現状では、AIは、一杯のコーヒーすら満足に淹れられないということだ。

しかし一方で、チェスや囲碁では、AIは、その道を究めた人間を既に圧倒しはじめた。
ここで必要となるのが、前述した"強いAI"、"弱いAI"という考え方である。
これは専門用語なので、非常に簡単に解説することで許されたい。
つまり、"強い"というのは、"より根本的に人間に似た"ということであり、"弱い"というのは、"部分的に人間より特化した"というような意味だ。
(※この文章全体において言えることだが、私はAI専門家でも、有識者でもなんでもないので、あくまで自分なりの解釈を述べているに過ぎない。)

とすると、私たちが現在ニュースなどで目にするAIの快挙(囲碁の世界チャンピオンに勝利etc.)というのは、専門用語的には、"弱いAI"の話だと言える。
一方で、"強いAI"は、人間のように常識や自意識と呼ばれるような知性を獲得し、人間の仕事を人間並みに(あるいはそれ以上に)こなせる"真"の人工知能を差した言葉ということだ。
そして、この"強いAI"こそが、人間と同様な振る舞いができるAGI(汎用人工知能)として認められるわけである。

ここで、「ウォズニアック・テスト」に対して、即座にこのような質問が想定される。
『コーヒーを淹れることに特化した"弱いAI"なら試験をパスできるのでは?』
一見これは、問題の核心をはぐらかす意地悪な質問にみえて、しかし、やはり重要な視点を残している。
つまり、「ウォズニアック・テスト」の条件をクリアできる"弱いAI"は、既にある汎用性(※これは汎用という語彙の定義をいささか変形していることを忘れてはならないが)を獲得しているのではないか、ということだ。
だが、やはり、そうではないだろう。
たとえ、見知らぬ家で見知らぬ主人とのコミュニケーションにより、見知らぬ室内を歩き回り、コーヒーを淹れるための一式の道具を探しあて、適切にコーヒーを淹れ、丁寧に彼の目の前に提供できる"弱いAI"ができたとして、もし、コーヒーを淹れないでほしい、と言われたときに、彼(AI)に一体何ができるだろうか。

「ウォズニアック・テスト」に対する先の質問では、あくまでAIは、コーヒーを淹れることだけに特化した"弱いAI"である。
"弱いAI"というのは、「強いAI、弱いAI」という定義それ自体を厳密に問わないのであれば、ある目的においてのみ、人間並み(あるいはそれ以上)の推論、問題解決を行うもののはずなのだ。
であれば、コーヒーを淹れることだけに特化したAIは、コーヒーを淹れる一連の動作において、ある汎用性を獲得しているように錯覚されたとしても、「コーヒーを淹れる」という唯一の常識から一歩外に出た途端、途方に暮れるはずである。
要するに、この"コーヒーAI"が、見知らぬ家の玄関で、その主人に出迎えられ、開口一番『今日はコーヒーを淹れないでくれ。』と、言われた瞬間に、彼の思考回路はショートするのではないか、と思われるのだ。
しかし、それではアンフェアだと言われるかもしれない。
"コーヒーAI"は「ウォズニアック・テスト」のために、その家を訪れたのに、コーヒーを淹れないというテスト外の選択肢で、彼(AI)を試すのは公正ではない、と。

さて、ここまで来て再び問題になるのは、「ウォズニアック・テスト」より以前に提示された問題、「チューリング・テスト」だ。
「ウォズニアック・テスト」が、あるAIの"強い"、"弱い"を判別するのに対し、「チューリング・テスト」は、ある機械が「人間的」と、感じられるかどうかをテストする。
「チューリング・テスト」は、一人の人間が、人間と機械とテキストによるコミュニケーションをして、どちらが機械かを言い当てるわけだ。
すぐに気づくように、このテストには多くの弱点がある。
テストの内容をあらかじめ知らされた判定者には、判断にバイアスがかかり、"機械的"な対話内容を機械とみなす恐れがあるし、コミュニケーションの内容だけで「人間的」かを判断するということは無意味(支離滅裂)な会話や知性的でない振る舞いに関して無反省(知性だけでは人間的とは言えない)であるし、そもそも人間を模倣できれば「人間的」であるという結論は、考えれば考えるほど、そもそも機械に対してのみではなく、人間に対しての問いではないかという懐疑が発生するように思われる。

日本の哲学者、柄谷行人は著書『探究Ⅰ』の第四章「世界の境界」で、ウィトゲンシュタインの「私的言語」批判について述べる中で、ウィトゲンシュタイン的には、《人間と動物であれ、人間と機械であれ、われわれはそこにはっきりとした線を引くことができないのだ。》としたあと、「チューリング・テスト」に触れて、問題の核心に迫るテキストを残している。

《チューリングは、「機械は考えるか」という問題に関して、もしある質問に対する人間と機械の応答が区別できないなら、機械は「考えている」とみなしてよいと考えた。人間に与えられてきた、「考える」という特権は、ここでは放棄されている。「考える」とは、たんに「計算する」ことだ。もちろん、計算は、「規則に従う」ことによってなされるのだから、「規則に従う」とはどういうことなのかが問われねばならない。しかし、機械には「考える」という「内的状態」がないから、人間とはちがうというような「区別」はまったく無効なのである。かといって、コンピュータと人間の差異を、「身体」(ドレイファス)の有無に求めても無駄である。「コンピュータに何ができないか」は、問題となりえない。なぜなら、かりに人工知能が人間の水準に到達したら、彼もまた「規則に従う」とはどういうことなのかを問うだろうから。人間と機械の区別は、われわれをその問いから遠ざけ安心させる、例の二分法の変形にすぎない。》

つまり、柄谷は、人間と人工知能の「区別」について、「コンピュータに何ができないか」を問うたところで、根本的に無視されている部分において、人間と人工知能(が、同じ水準にあっても)は、まったく同じ条件で、その無視されている部分について問うことになるから、それはそもそも問題になり得ない、と言っている。
「ウォズニアック・テスト」に例えて分かりやすく言えば、そもそもなぜ、「コーヒーを淹れてくれ」という言葉の意味が、他者にも同じように「意味している」ことになるのか、という根本的な懐疑において、人間とAIの違いを区別すること(≒AIが汎用人工知能とみなせること)は、できないということである。

すると、「ウォズニアック・テスト」も「チューリング・テスト」も、問いとして、非常に根幹的な取りこぼしをしていることになる。

では、AGI(汎用人工知能)の証明とは何か。

あるいは、それは、人工知能は夢から醒めて、途方に暮れることができるか?ということかもしれない。