見出し画像

「なぜ何もないのではなく、何かがあるのか?」への決定的な答え〜AIに「存在」という語をどのように学ばせることができるか〜

私はこの問いに興味をもって哲学をやったといっても過言ではない。

先日、これについての議論を聞く機会があったが、どれも正直全く前に進まないような答えばかりであった。(何かしらの領域では意義あることだったと思うが、この問いへの回答としてはダメだった)

まず、考え方のルールを決めなくてはならない。

私は、これを哲学の現象学のアプローチで考えれば完全解決とは言わないまでも、かなり視界がクリアになると考えている。

しかし、現象学でこれを説明すると、かなり沢山の概念を学び複雑な説明が必要になるので、私は別の方法で回答したい。

一言で、いうと、

AIに「存在」という語をどのように学ばせることができるか

を考えるアプローチである。

そもそも「なぜ何もないのではなく、何かがあるのか?」とは、一つの疑問文という言語である。

「なぜ」「何」「ある」「ない」などの語を使った言語行為である。

では、そもそも、「ある」とはなんだろうか?「何」とは何か、「なぜ」とは何か、というところから出発しなくてはならない。

ここでは、一番キーワードとなりそうな「ある」について考えたい。

また、哲学的問題なので、ここでは「ある」を「存在」という語で考えてみたい。

つまり、まず検討すべきは「存在」とは何か、である。

では、先に結論を言っていたが、この「存在」という語をAIに学ばせるにはどうすればいいか?

言語を獲得するAIとはどのようなものか

これは東大の松尾先生の著書『人工知能は人間を超えるか ディープラーニングの先にあるもの』 (角川EpuB選書、2015)の考えを参考にする。

(1)それは人間と同じようなインプット情報(視覚、聴覚、嗅覚の情報など)を”獲得”でき、

(2)自分で特徴量を”見出し”概念(ソシュールでいうシニフィエ)を”獲得”できる

(3)さらに、人間に近い”身体”も必要

人工知能を専門にする日本の工学者 松尾豊氏のインタビュー記事から言語理解が可能なAIまでのロードマップを見てみる。

松尾 まず今は画像の特徴の抽象化が可能になったというステージです。次に画像以外のデータ。音声などもそうですが、そうしたデータの抽象化が可能になるでしょう。視覚や聴覚などの五感や,体性感覚(平衡感覚,空間感覚など)といった複数の感覚、いわゆるマルチモーダルなデータの抽象化のステージになっていきます。
そしてその次のステージは、自分の行動のデータと観察データを含めた抽象化です。赤ちゃんは0歳から1歳の頃に、手でものを触ったり、叩いて音を出したりできることに気づきます。自分が動くことで、モノが変化することを理解する。行動計画につながっていく。そういうステージです。同様にこの段階では、ロボットに搭載された人工知能は、回りのものを触ったり、叩いたりすることで、自分の行動データと観察データの抽象化ができるようになります。
――赤ちゃんが手足を使い始めるステージですか。
松尾 そうです。そして、その次のステージは、行為を介しての抽象化です。ガラスを認識するには、ガラスは割れやすいという認識が必要。自分が動くことで、モノが変化するということを利用して、モノを理解していくステージ。これによって壊れやすいものをやさしく触る、などということができるようになるのです。
――赤ちゃんは手当たり次第に、身の回りのモノを叩いたり、口の中に入れますよね。そうすることで、身の回りのモノがどういうものなのか理解していく。口の中に入れることで、食べることができるものか、おもちゃかを判断していく。そういうステージということですね。
松尾 そうです。そうして概念を抽象化できるようになると、その次のステージは、概念に言語をマッピングしていくステージになります。
――もう既に概念を理解しているので、その概念に「まんま」「ぶーぶー」「ワンワン」と名前をつけていくステージだということですか。
松尾 そして最後のステージは言語を理解したので、次にウェブや書籍から情報を取り込み、理解していくことで、どんどん賢くなるステージです。
――言葉を覚えた子どもが本を読んだり、学校へ行って、知識を習得し、その知識に基づいて行動するステージというわけですね。

引用元:https://www.mugendai-web.jp/archives/2630

いかがでしょうか。人間と同じ概念を習得するには、

①「概念を獲得する仕組み」

②「それを人間と同じような身体に対応させて獲得する仕組み」が必要

であり、現段階では①について画像情報からその画像の特徴を自分で見つけて獲得することに成功している程度だという。例えば、ネット上の猫の画像を沢山プログラムに見せて、そこから猫の本質的な特徴を引き出す、という感じ。

②についてはまだ実現していないようだがが、翻訳するのに「人間と同じような身体」がなぜ必要か分かりますか?

松尾氏は以下のように述べる。

“たとえば、コップというものをきちんと理解するためには、コップを触ってみる必要がある。ガラスや陶器のコップは強く握ると割れてしまうし、そういうことも含めて「コップ」という概念がつくらている。「外界と相互作用できる身体がないと概念はとらえきれない」というのが、身体性というアプローチの考え方である。”

“人間が生活する環境で、人間並みの「身体」を持てば、人間がつくり上げる概念にある程度近いものは獲得できるはずだ。”

人間と同じ程度の概念を持つには人間と同じような身体を持ち、同じような環境で時間を過ごし「一般的な人間が日常生活で形成してきた概念」を学ばなくてはならないのです。もちろん、それらをすべて人間が何らかの形で記述しインプットしてもいいのですが、それを一つ記述していくのも大変であるのに、天文学的な数になってしまい、そもそも人間は自分がどんな概念を持っているかなど把握していません。

引用元:https://www.mugendai-web.jp/archives/2630

松尾氏は、人工知能の発展を六段階に分けています。第一段階が画像認識レベル、最終の六段階目に秘書として働けるレベルを設定していますが「言語の理解」を第五段階とかなり最終段階に近くに置いています。こうしたことから、絵本を子供に対してノンバーバルな要素を含み発語することは人工知能やロボットの発展段階の最終局面に近いほど難易度の高いことがうかがえます。

今のところ「猫の概念を獲得」以降あまりいいニュースを聞いていない。動画から視覚概念を獲得したり、音声や味覚、嗅覚などから特徴を抽出したりすることもできていないよう。さらに、それらを統合して一つの概念を獲得するような仕組みも必要。

こう考えると、AIはどの段階で「存在」という語を学びうるか?

私の仮説だが、

AIは外部環境(対象化されるという意味で内的なものも含まれる)にさらされ、獲得した概念と同定できる何かを見出しているときに、それを「存在」を感じるのではないか。つまり、猫の動画から猫の概念を生成し、次にその猫を見たときに「猫」だと同定できるときに、感じるもの、それが反復されると「存在」ということになるのではないか。

一つ疑問が残るのは、

「生命」的な生きるベクトルをどのように擬似的に埋め込むのか、という話。

身体、酸素、栄養など有限なリソースを使い、生き延びるという目的をセットした上で、このような認識装置をつけることで人間に近い概念の獲得が可能になると思われるが、この「生命」の部分はどうなるのか。

今回、言語とはどのようなものか?についてかなり理解が深まったのではないか。ただ、本当にわれわれの言語がこのようなものなのかは正直わからない。

しかし、冒頭で書いた通り、哲学的に現象学のアプローチで考えてもこれに近い結論になる。現象学で考えるなら、「存在とは何か」と問われたら、「存在」という語で直観する意味や経験、イメージを言語化して人々の中で共通了解を作っていく、という方向性となる。

この記事が気に入ったらサポートをしてみませんか?