見出し画像

ChatGPTが、意味は理解していないのに、それらしい文章を回答することができるのはなぜなのか?

文章の意味を理解して回答してるのか??

「だれにでもわかるNFTの解説書」の著者 足立明穂です。

ChatGPTが、応用されまくっていて、アレクサに連動して話しかければ、ChatGPTが音声で回答してくれるなんて、親が忙しいときは、子ども相手をさせてしまいそうですよねw

https://otona-life.com/2023/03/04/161014/
「GPT先輩やけど、どうした?」ChatGPTと音声会話する動画が話題

さて、ChatGPTを使っていると、『こちらの意図を理解してるのでは?』って思ってしまうような回答をすることがありますよね。

そうでなくても、それらしい文章で回答するし、挨拶文とかを回答させると、当たり障りのないそれらしい文章を書いてくれます。

でも、ChatGPTは、まったく意味を理解していません。

なぜ、そんなことができるのでしょうか?

掛け算や足し算、数字すら知らなくても、正解を回答できる!

小学生のころ、九九の暗算を覚えさせられましたよね?

あれ、掛け算の意味を知らなくても、九九をばっちり暗記すれば正解を答えることができます。もっと言えば、数字の意味をしらなくても、1から9までの数字の読み方、そして、「×」と「=」いう記号を判別できれば、答えることができます。

例えば、

8 x 5 =

というのを目にしたら、「はちごよんじゅう」ってことで、

8 x 5 = 40

と答えることができます。

これを、コンピュータに置き換えれば、「1x1=1」から「9x9=81」までのすべてのデータを覚えさせて、

「1x1=1」
「1x2=2」
「1x3=3」





「9x7=63」
「9x8=72」
「9x9=81」

「8x5=」という文字列と同じものを探して、

「1x1=1」
「1x2=2」
「1x3=3」


「8x5=40」 ←←← 一致!!


「9x7=63」
「9x8=72」
「9x9=81」

「8x5=40」と出力すれば、あたかも計算したように見えます。

「x」の意味なんて知らないので、「2x2x2=」って入力すると、エラーになります。

あるいは、最初の「2x」を無視して、「2x2=」は一致するデータを持っているので、自信満々に「2x2x2=4」って回答しますw(これ、かなりChatGPTに近いっておもいません?w)

コンピュータなので、9x9まででなく、10,000,000,000x10,000,000,000までのデータを覚えさせれば、100億までの掛け算の回答ができるようになります。

さらに、引き算や足し算、割り算などのデータもドカスカ覚えさせていけば、四則演算どころか、数字の意味すら知らなくても、簡単な計算機が出来上がります(中身は単なるデータを検索するだけの仕組みなので、計算機ですらないw)。

ChatGPTは、単語と単語の関連性を膨大なデータとして持っている

ChatGPTも同じように、単語と単語の関連性を膨大なデータとして記憶しています。

例えば、

「昔々」

という単語には、「おじいさんとおばあさんが」と続くことが圧倒的に多いというデータを持っているのです。

もちろん、「あるところに」という場合もあるし、「まだ人間が」かもしれないし、いろんなケースがあることも覚えています。

莫大な文章を調べて、「昔々」に続く言葉は、どういうものがあり、確率的にどれが多いのか、さらに、そこに続く言葉はどういうのが多いのかをデータとして持っています。

桁違いに多い何億という言語データを持っているので、こちらの質問した文章から、いくつかのキーになる単語を選び出し(ここも大量の文章を読み込んで、どこに並ぶ単語が重要かを確率的に見つける)、それに基づいて、回答の単語を探して文章にしていくのです。

こうすると、個々の単語の意味なんて、まったくわからなくても回答ができあがります。

「中国語の部屋」には、中国語を知らない人が入っている

人工知能を学問的にちょこっとかじった人は、知っている有名な話で、「中国語の部屋」というのがあります。

哲学者ジョン・サールという人が思考実験として発表したものです。

中国語を全く理解していない人を、小さな部屋に閉じ込めます。この部屋は、小さな窓から紙に書いた文章だけでやりとりすることができるようになっていて、部屋の中には、「紙に〇〇〇と書いてあったら、×××と書いて、窓から外に出せ」という指示があり、膨大な辞書のようなものが置かれています。

窓から、紙に「〇××▼」と書かれている紙が入ってきました。その人は、意味は分からないけれど、辞書をめくって、同じ文字列を見つけて、そこの「◆△××」と書くようにという指示に従って、紙に書いて、窓から外へ紙を出します。

あ、同じ文字列を探すのに、めちゃくちゃ時間がかかるというのは忘れてくださいw

この「〇××▼」とか、「◆△××」は、中国語なのですが、部屋の中の人には、知らない言葉なので、なんだかよくわかっていません。

ただ、部屋の外にいる中国語を知っている人からすると、「『中国の首席は?』って質問したら、正しい回答がきたぞ!」と驚きます。

外にいる人からすれば、「部屋の中には、中国語を理解している人が入っているに違いない!」と思うのです。

これ、コンピュータの動作と同じことを言っていて、コンピュータは、意味など全く理解しておらず、ただ、そこに書かれたルールとデータに従って返しているだけで、何一つ理解していません。

ただ、この思考実験は、もっと突き詰めて考えていくと、そもそも人間だって、「意味を理解する」という意味(定義)がよく分かってないんじゃね?という話にもなってくるのですよねw

コンピュータの性能やデータの構造・検索方法などが進化していくと、ますます意味を理解してるように思えてくる


ChatGPTは、この「中国語の部屋」と同じことをやっているのですが、コンピュータの処理速度が格段に速くなってきていることや、莫大なデータを持つこと、莫大なデータから素早く探すことができるようになってきているので、「なんか、意味を理解してるように感じるよなぁ・・・」って状態になってきています。

さらに、多くの人がChatGPTを使うことで、データが増えていくので、どんどん精度もあがっていきます。

また、今のChatGPTは、リアルタイム検索と組み合わせて回答を作っているわけではないので、間違った回答(2021年までのデータを使っているので、今の日本の総理が岸田さんだとは知らず、菅総理ですって自信満々に回答しますw)になりますが、これもあっという間に改善されるでしょう。

そうなってくると、「こいつ、頼りになるなぁ!!」ってことになっていきますw

実際、マイクロソフトのBingAIチャットは、検索結果から文章を生成して、しかも、どのサイトを参考にしたのかまで教えてくれますよね。

利用者からすれば、最初に掛け算の例で書いたように、掛け算の意味など分かっていなくても、求める答えが出てくれば活用できるのです。

ChatGPTをはじめとするAIが莫大なデータ(もちろん、論文やニュース、書籍、動画、写真なども含まれます)を元に、確率的に確からしいもの(関連性が高いというだけでなく、その情報元になっているソースの信頼度も考慮)を回答するようになれば、もう、「検索する」など誰も行わなくなります。

もう一歩進んで、参照するデータがインターネットや公的なデータだけでなく、あなたの行動履歴や購買履歴、健康情報などを読み込んで、「だれが質問しているのか?」も考慮して回答するようになってくるでしょう。

そうなったときは、誰よりもあなたのことを理解してくれる頼りになるパートナーになる可能性は否定しきれません。

「少し血糖値が上がっているので、昼食は野菜を多めのメニューにした方がいいですよ」

「この週末は、あなたの大好きな俳優の舞台挨拶がありますよ! チケット、予約しておきましょうか?」

「最近、家族で一緒に出掛けることが少ないので、今度の連休は、ご家族で海にでも行きませんか? もちろん、運転はお任せください!」

とまあ、こんな回答をしてくるかも!?

はてさて、そうなったときに、あなたは、「AIなんて、所詮、意味も分からずに回答してるだけだよね」とは思わないのでは??

たぶん、心の中で、「いつも、ありがとう」って言ってると思いますよw

この記事が気に入ったらサポートをしてみませんか?