見出し画像

「わかった!」は多くの場合、幻想

chatGPTの急速な進歩によって、これまでの常識がゴソッと変わるんじゃないか、というようなことがよく言われる。

しかし、使ってみるとわかるように、chatGPTは万能ではない。特に、間違った知識を言ってくるケースはかなり多い。たとえば、自分が詳しい有名人などの情報を聞いてみると、あきらかに違う答えが返ってくることがわかるだろう。なので、それをもって、chatGPTは使えない、無能だ、と言う人もいる。

しかし、それに対して、面白いことを言っている人がいた。曰く、現在のchatGPTは「物知りおじさん」だと思えばいい、というのだ(お兄さんでも、お姉さんでもいいのだが)。近所の物知りおじさんは、いろいろなことを知っていて面白いが、ときどきいい加減な知識も入っていて、適当なことも言ってくる。しかし、物知りおじさんのいうことをそのまま鵜呑みにする人はいないだろう、と。

たとえいろんなことを吹聴されたにしても、そのまま鵜呑みにせず、自分で調べることが大事なのでは、と思う。また、「誤った情報もある」ということを前提にすれば、使い続けていくうちに、「こういう使い方ができるのではないか」というアイデアも浮かんでくるのではないだろうか。

chatGPTは人間の知性を超えたのか? というようなこともよく議論される。しかし、現時点では、いくらchatGPTが賢くても、いまの人類を超えた、とまで言う人は少ないのではないだろうか。

しかし、そういう人たちが思っている「人間の知性」は、どうも神格化されているような気もする。人間の知性とは、いったいどのぐらいのレベルのものなのか、というのが逆に問われている時代だともいえる。

たとえば、物事を「理解」したり「認識」したりするとはいっても、人間の認識はなかなかあいまいである。簡単なコミュニケーションを例にとっても、言い間違えや取り違えは頻繁に起きる。「わかりました!」と相手が言うので、伝わったのかな、と思ったら、全然違う結果が返ってくることなど頻繁にある。

つまり、コミュニケーションの大半は「誤解」で成り立っている、ということになる。どんなに丁寧にコミュニケーションをとっても、完全なコンセンサスはとれない。口約束は信用できない、というのは誰しも経験があるはずだ。

そのため、法律や契約があって、しっかりと文書で誤解のないように約束を取り交わすのだが、その法律や契約だって、いろんな解釈がある。杓子定規にカッチリ取り決めたものでさえ誤解が起きるのだから、たいていのコミュニケーションは誤解の嵐なのである。

人間の知性や判断能力について考えてみる。ほとんどの人は、普段は何も考えず、「反応」だけで生きているのではないか、というのが自分の意見である。また、物事の判断基準も、明確なものはなく、そのときどきの雰囲気や前後の文脈で変わるものなのではないか、と思う。

その場の雰囲気を操作して、自分に有利に物事を進めるのが天才的にうまい人もいる。交渉術に長けた詐欺師などがそれに該当するだろう。

そもそも、人間の脳が消費しているエネルギーの量から考えても、そんなに大したことができるはずがない、と思える。脳は茶碗一杯分ぐらいの米のエネルギーで一日中稼働することができるが、たったそれだけのエネルギーでできることがそんなに高尚なことなのか、と。

最近知ったことなのだが、脳は、網膜から入ってきた情報をそのまま映像として処理しているわけではなく、事前に映像を「推測」して、網膜から入ってくる情報で「差分」を認識している、ということだった。つまり、「こういうことかな?」という予測が最初にあり、それと違う部分を抽出している、ということである。

それがバグってくると、幻覚が見えたり、幽霊を見たりする。しかし、それは「補正能力」がおかしくなったからであり、脳の中では日常的に起きていることなのだ。

コミュニケーションの誤解でもなんでもそうなのだが、脳は「推測」したり、「補正」したりする能力が非常に高くて、少ない情報量で、全体が見渡せていると「誤解」したりすることがほとんどなのでは、ということだ。「わかった!」というのは、多くの場合、「幻想」なのである。

chatGPTが今後発達し、人間の知性を上回ったとしても、人間主体の社会である限り、そこまで大きく世の中は変わらないような気もする。何を幸せと感じ、社会を作るのは人間だからだ。また、人間同士の競争も当然起きる。

将棋AIが発達して、誰も将棋ではAIに勝てなくなったが、しかし将棋AI同士で戦いが起きているように。AIをどう使いこなして、競争に勝つか、という世界に変わるだけである。

サポート費用は、小説 エッセイの資料代に充てます。