見出し画像

[大前提]Chat-GPTは僕らの言葉を[理解]しているわけではない

 今までChat-GPTをはじめとした大規模言語モデル(Large Language Models、LLMLarge Language Models、LLM)の話をしてきました。今日はその大前提について、改めて確認しておきたいと思って書きます。


質問も答えも、その意味は理解していない


 Chat-GPTに聞いたとします。「六本木から東京駅になるべく早く着く、電車の乗り換えを教えて」。

 このとき、僕らは、AIくんがあれこれ比較して検討してくれている――AIがあたかも、人間と同じように、いい答えを早くしようと「思って」回答を作っている、と想像してはいないでしょうか。

 実際のところ、Chat-GPTは何も考えていません。というよりも、そもそも、何を言われているかも分かっていません。分かるようには作られてはいませんし、あれこれ考えるということもしていません。ただ計算をしているだけなのです。

 「僕は今悲しくて…」とChat-GPTに相談したとき、例えば「外に出て運動すると、心も元気になる」という答えが返ってくるかもしれません。AIは悲しい気持ちをわかって元気づけてくれた……わけではありません

 人間の感情を読み取るタイプのAIなら別です。人間の感情分析、感情を理解するAIを作っている研究者もいます。自然言語解析系のAIはその類です。

 感情そのもののロジックを作っているAIであれば、そこに倫理観を持たせていくことで、制御可能ということになる。でもChat-GPTのような大規模言語モデルのAIは、その言葉の次に何がくるかを計算し、その値に一番近いものを引っ張ってきているだけです。

 言葉や単語のもつ、値=数値(難しい言葉で言うと、多次元のベクトル値といいます)を計算し、一番「いい値」を「回答」として、ただ出力、提示しているだけです。

「感情で動いていない」ことが逆に怖い


 中学生の時に、F=aX+bとか計算しましたよね。あれです。関数と言いますが、大規模言語モデルは、この関数計算をして答え、つまり式で言う「Fの値」をひたすら計算しているのです(この話はまた別の機会にでも)。

 「そんなこと知ってるよ」。詳しい方なら、そう言うかもしれません。でも僕が言いたいのはその先です。

 それは、よく「AIが感情を持ったら怖い」という人がいますが、僕は逆で、「感情などない、感情で動いていない」ことがむしろ怖いと思います。

 つまり、もし大規模言語モデルが、さきに述べた人間の感情を読み取るタイプのAIのようであれば、その感情の「仕組み」を変更して、道徳心を芽生えさせることによって「人間に対して、こういうことはしてはいけない」という考えを、倫理的、道徳的に、調整することができるかもしれません。

 しかし、感情がないとすると、逆にそれができない。この方が怖い。

LLMの急激な進化は、誰も説明できない


 かつては、人間がAIを教育していました。この画像は犬だよ、これは猫だよ、ってやつです。

 後年、ある程度人間が教えた後は、自分自身で自動的に学ぶことができるようになり、いわゆる「機械学習によって、莫大なデータを学んでいくようになりました。

 加えて、深層学習という、人間の脳神経回路を模した仕組みに、さらに、ひと工夫し、莫大なデータを学ばすことをした結果、昨年末くらいから、特に、大規模言語モデルとよばれるAIが、劇的な進歩を遂げています。

 開発者がやったこと。それは、大量のデータを読ませたことと、関数の計算方法を微調整しただけです。クラウドでコンピューターが安価に大量に使えることになったことも、この進化に大いに貢献してるでしょう。

 しかし、なぜ急激に、そしてこれほどまでに、人間のように話せるようになったのか、発達したのかは、実は誰も説明がつかないのです。AIの開発者でさえ首をかしげているのです。

進化の理由も、制御の方法も分からない


 質問された意味も、答えている意味もわかっていない大規模言語モデルが、なぜか、あたかも感情を持っているかのような答え方をするようになった。なぜここまでのことができるんだろうか…それが実体です。

 開発者も、ここまでできるとは予想外だ、と言っている。この意味は、すでに大規模言語モデルの挙動が想像できないということです。

 それはすなわち、「AIが危険になってきたので、今すぐ挙動制御してください」となった時、制御できるのか分からない、ことを意味します。

「暴走するのか」にも誰も答えられない


 Chat-GPTは、今や、人間のような振る舞いや回答をするようになってきました。今後、さらにこれは進むことでしょう。

 感情を持っていないと理解している人であっても、返ってくる回答に思わず心を動かされたりもする。

 だから、「進化しすぎたChat-GPTのようなAIが、人をコントロールするようになりませんか?暴走するんじゃないですか?」「しないと言えますか?」と聞かれたら、誰も答えられません

 「そうならないように教育しているから大丈夫です」と説明があったとしても、その教育も、人間が思いつく、AIがしてはいけないこと、例えば、「人の殺し方を話してはいけない」という学習をさせているだけです(これを強化学習といいます)。

 決して、AIの思考回路に、倫理感や道徳心を埋め込んでいるわけではありません。だってただの「関数」ですから…。

Chat-GPT自身がプログラムを書く


 さきに書いたように、OpenAI社から「Function Calling」の発表がありました。昨今のすさまじい進歩の中で、ニュースにそうそう驚かなくなっていた僕にとっても、かなりの衝撃でした。

 AI脅威論信者は、「一番やらせてはいけないことは、AIにプログラムを書かせることだ」と言います。AIが自分で自分をアップデートできるようになるからです。

 でもそれが現実には既にできるようになっていますし、プログラムを作成するためにAIを使い始めています。僕も「AI中山」をプログラミングするために、AIを使っていますしね。

 なぜならプログラミングが劇的に早く、楽にできるから。この味を知ったらもうやめられません。ですので、AIにプログラミングをさせないようにしよう、といっても、もう誰も止められないでしょうね。

確認しておきたい「そもそも、大規模言語モデルとは」


 大規模言語モデルが急速な進化を進め、ついにChat-GPT自身がプログラムを書く新機能が備わった今、「大規模言語モデルとはどんなものか」は、今一度確認しておいたほうがいいと思うのです。

 詳細はまた別の機会に、やさしく、わかりやすく書いてみたいと思います。


この記事が参加している募集

最近の学び

この記事が気に入ったらサポートをしてみませんか?