見出し画像

ジェネレーティブAIは"知能"なのか?

はじめに

この記事は個人的な雑記です。何かの解説記事ではありません。AIは単なる道具でありそれ自体に善悪はなく全て使う人次第だろうという価値観で書いていますので礼賛でも批判でもありません。仲良くやろうぜ。

ディープラーニングは"AI"ではなかった

こんにち「AI」という語が指すのはほとんどがChatGPTをはじめとする大規模言語モデルか、StableDiffusionをベースとするいわゆるお絵描きAIのどちらかだろう。この文と絵という一見異なる技術には一つの共通した理論が使われており、それがディープラーニングだ。ディープラーニングは簡単に言うと学習対象の特徴を"重み"と呼ばれる数値に変換して捉えようという技術で、人工知能の研究者の間ではよく知られ応用も進んでいる普遍的な手法だった。

さて、実を言うと、Stable Diffusionが出てくる2022年8月前後らへんまで、ディープラーニングを使ったものを「AI」と呼ぶと技術者には結構バカにされたものだった。AIとはArtificial Intelligence(人口知能)の略であり、一方で単なる数値の塊に過ぎないディープラーニングのモデルは理論的には"知的ではない"からだ。知能が知能たり得るには、推論や予測といったより高度な所業をなさねばらならず、ディープラーニングを使った製品をAIと呼ぶのは単に顧客を納得させるための営業上の表現に過ぎなかった。

ところが同じ技術を背景に持つはずのChatGPTは、今や誰であろうと「AI」と呼んでいる。Stable Diffusionで絵を生成する人は従来の絵描きからは「AI絵師」と呼ばれている。特にStable Diffusionをローカルで使ったことがある人は実感があると思うが、いくらTransformerだのCLIPだのと内部的な進化を遂げようと、結局そこにあるのは数GBの数値の塊「モデルファイル」であり知能なんてものではないのに、AIといったらAIなのだ。

知性だと思っていたもの

個人的に、最初はこれを「誤用が広まりすぎて定着したいつものやつ」だとみなしていた。"世界観"とか"軽率に"とか、言葉はまるで生き物のように変化し続けるものだからだ。けれども、AIという語が指す対象がディープラーニング技術の産物になったのは、単に誤用が定着した以上の意味があるように思う。

ディープラーニングの振る舞いは人間の「直感」に似ている。与えられたインプットと過去の傾向を比べて、まるで稲妻のように1つの結論へと瞬時に結びつける。尤度(ゆうど)とかいう指標も出すことができて、これは答えが合っているかどうかの自信を表すものだ。

「知性」を形作っているものは「直感」だけではない。これは誰でもなんとなくそう思うのではないだろうか。では、残りの「推論」とか「予測」とか言ってるものって、なんなんだろう。「直感」とはどう違うのだろう。

個人的に尊敬しているハッカーの一人であるphi16氏がちょうど1年前頃のブログでこんなことを書いている。

私達の「知性」は、結局これまでに形成されたニューロンの関連性 (=記憶) そのものだ、という話は、まぁもはや驚くことではない。

だけどこれは結局ニューラルネットワークが「完全」であるという話ではないか。

つまり今のAIの進歩の方向性は、「正しい」のではないか。

そして同時に。「人間の知性」は結局、「パターン化された機械」でしかないのではないか。

Imaginantia

去年これを読んだとき、まったくその通りだと思った。そして今、それを裏付けるような発明がどんどん出てきている。
一番ホットなのは2日前に出たこれで、複数の知的なサブシステムを一つの大きなシステムに内包することで弱点を克服しようという試みだ。

暗黙的コード実行では、LLMだけでなく、従来のコードシステムの機能を組み合わせることによって応答精度を向上させたという。プロンプトから論理コードが役立つ可能性を特定し、それを暗黙的に記述して実行する。

 Googleによると、計算に関する回答の精度が約30%向上したという。

Googleの生成型AI「Bard」、論理と推論で機能向上 スプレッドシートへのエクスポートも可能に

推論とは、実は直感を直列につないで連続実行しただけなのでは? 我々が高度な知性と思っているものは「どの直感とどの直感を組み合わせるのか」についてメタに直感しているだけではないのか。

考える葦

人間の記憶は非常に層が厚く、領域ごとに非同期的に実行されるから、"考える"というプロセスはとても神秘的に感じるだろう。しかし、よくよく"考えて"みれば、時間をかけて何かを決定するときだって、その間の1つ1つの瞬間に微分して切り取ってみればほとんど直感に近い感覚で小さな決定を繰り返しているに過ぎないのではないだろうか。

少なくとも私自身の脳はそのようにできていると思う。

なにか急にややこしい暗算が必要になった時、私の脳内ではまず計算式を暗算可能なより小さい単位に分解する機能が働く。これは数学的訓練から得られたパターン・マッチングだ。同時に、これを暗算なしで済ませる方法がないかを検証する。これは直感だ。更に、この2つの道を天秤にかけて、どちらのコストが小さいか比べて選択することもなされる。この時点では暗算が終わっていないから、やりかけの計算式から予測を立てることになる。これも直感だ。こんな風に、思考のプロセスを言語化してその1つ1つを細かく分解していくと、全く時間をかけずに瞬発的に判断する「直感」が次々と現れてくる。「あれ、おかしいな。"知性"を形作っているものは"直感"だけではないと"直感的"には思っていたのだが……」

ディープラーニングは、少なくとも去年までは、確かに"知能"ではなかった。しかし今となっては、「我々が"知能"だと思っているものって、実はこの先にあるのでは?」と思っている人はきっと私だけではないのではないだろうか。
今後のAIの進歩はフラクタルのように今あるシステムをサブシステムとしてそれを上位のシステムが組み合わせる再帰的な構造になると思っている。 そうして複数の学習データ……人間における"記憶"をどう組み合わせるのかというメタ認知ができれば、それは人間の脳と本質的に同じになっていくような気がする。

ということを去年からずっと思っていたけどネット上にはあんま言語化してこなかったので記録として書いてみた。私に「あれ全然AIじゃねーからww」って言ってくれた昔の上司、今頃どう思っているのかな~。

おわり。

この記事が気に入ったらサポートをしてみませんか?