[大前提]Chat-GPTは僕らの言葉を[理解]しているわけではない
今までChat-GPTをはじめとした大規模言語モデル(Large Language Models、LLMLarge Language Models、LLM)の話をしてきました。今日はその大前提について、改めて確認しておきたいと思って書きます。
質問も答えも、その意味は理解していない
Chat-GPTに聞いたとします。「六本木から東京駅になるべく早く着く、電車の乗り換えを教えて」。
このとき、僕らは、AIくんがあれこれ比較して検討してくれている――AIがあたかも、人間と同じように、いい答えを早くしようと「思って」回答を作っている、と想像してはいないでしょうか。
実際のところ、Chat-GPTは何も考えていません。というよりも、そもそも、何を言われているかも分かっていません。分かるようには作られてはいませんし、あれこれ考えるということもしていません。ただ計算をしているだけなのです。
「僕は今悲しくて…」とChat-GPTに相談したとき、例えば「外に出て運動すると、心も元気になる」という答えが返ってくるかもしれません。AIは悲しい気持ちをわかって元気づけてくれた……わけではありません。
人間の感情を読み取るタイプのAIなら別です。人間の感情分析、感情を理解するAIを作っている研究者もいます。自然言語解析系のAIはその類です。
感情そのもののロジックを作っているAIであれば、そこに倫理観を持たせていくことで、制御可能ということになる。でもChat-GPTのような大規模言語モデルのAIは、その言葉の次に何がくるかを計算し、その値に一番近いものを引っ張ってきているだけです。
言葉や単語のもつ、値=数値(難しい言葉で言うと、多次元のベクトル値といいます)を計算し、一番「いい値」を「回答」として、ただ出力、提示しているだけです。
「感情で動いていない」ことが逆に怖い
中学生の時に、F=aX+bとか計算しましたよね。あれです。関数と言いますが、大規模言語モデルは、この関数計算をして答え、つまり式で言う「Fの値」をひたすら計算しているのです(この話はまた別の機会にでも)。
「そんなこと知ってるよ」。詳しい方なら、そう言うかもしれません。でも僕が言いたいのはその先です。
それは、よく「AIが感情を持ったら怖い」という人がいますが、僕は逆で、「感情などない、感情で動いていない」ことがむしろ怖いと思います。
つまり、もし大規模言語モデルが、さきに述べた人間の感情を読み取るタイプのAIのようであれば、その感情の「仕組み」を変更して、道徳心を芽生えさせることによって「人間に対して、こういうことはしてはいけない」という考えを、倫理的、道徳的に、調整することができるかもしれません。
しかし、感情がないとすると、逆にそれができない。この方が怖い。
LLMの急激な進化は、誰も説明できない
かつては、人間がAIを教育していました。この画像は犬だよ、これは猫だよ、ってやつです。
後年、ある程度人間が教えた後は、自分自身で自動的に学ぶことができるようになり、いわゆる「機械学習によって、莫大なデータを学んでいくようになりました。
加えて、深層学習という、人間の脳神経回路を模した仕組みに、さらに、ひと工夫し、莫大なデータを学ばすことをした結果、昨年末くらいから、特に、大規模言語モデルとよばれるAIが、劇的な進歩を遂げています。
開発者がやったこと。それは、大量のデータを読ませたことと、関数の計算方法を微調整しただけです。クラウドでコンピューターが安価に大量に使えることになったことも、この進化に大いに貢献してるでしょう。
しかし、なぜ急激に、そしてこれほどまでに、人間のように話せるようになったのか、発達したのかは、実は誰も説明がつかないのです。AIの開発者でさえ首をかしげているのです。
進化の理由も、制御の方法も分からない
質問された意味も、答えている意味もわかっていない大規模言語モデルが、なぜか、あたかも感情を持っているかのような答え方をするようになった。なぜここまでのことができるんだろうか…それが実体です。
開発者も、ここまでできるとは予想外だ、と言っている。この意味は、すでに大規模言語モデルの挙動が想像できないということです。
それはすなわち、「AIが危険になってきたので、今すぐ挙動制御してください」となった時、制御できるのか分からない、ことを意味します。
「暴走するのか」にも誰も答えられない
Chat-GPTは、今や、人間のような振る舞いや回答をするようになってきました。今後、さらにこれは進むことでしょう。
感情を持っていないと理解している人であっても、返ってくる回答に思わず心を動かされたりもする。
だから、「進化しすぎたChat-GPTのようなAIが、人をコントロールするようになりませんか?暴走するんじゃないですか?」「しないと言えますか?」と聞かれたら、誰も答えられません。
「そうならないように教育しているから大丈夫です」と説明があったとしても、その教育も、人間が思いつく、AIがしてはいけないこと、例えば、「人の殺し方を話してはいけない」という学習をさせているだけです(これを強化学習といいます)。
決して、AIの思考回路に、倫理感や道徳心を埋め込んでいるわけではありません。だってただの「関数」ですから…。
Chat-GPT自身がプログラムを書く
さきに書いたように、OpenAI社から「Function Calling」の発表がありました。昨今のすさまじい進歩の中で、ニュースにそうそう驚かなくなっていた僕にとっても、かなりの衝撃でした。
AI脅威論信者は、「一番やらせてはいけないことは、AIにプログラムを書かせることだ」と言います。AIが自分で自分をアップデートできるようになるからです。
でもそれが現実には既にできるようになっていますし、プログラムを作成するためにAIを使い始めています。僕も「AI中山」をプログラミングするために、AIを使っていますしね。
なぜならプログラミングが劇的に早く、楽にできるから。この味を知ったらもうやめられません。ですので、AIにプログラミングをさせないようにしよう、といっても、もう誰も止められないでしょうね。
確認しておきたい「そもそも、大規模言語モデルとは」
大規模言語モデルが急速な進化を進め、ついにChat-GPT自身がプログラムを書く新機能が備わった今、「大規模言語モデルとはどんなものか」は、今一度確認しておいたほうがいいと思うのです。
詳細はまた別の機会に、やさしく、わかりやすく書いてみたいと思います。
この記事が気に入ったらサポートをしてみませんか?