自己言及のパラドックスとは何か?
これを知らない人は、まず上記の文章に違和感を感じるところから、自身でその問題に向き合わないと先に進んでも何をいっているのか分からないかもしれません。とはいえ、先に進めます。
ChatGPTが間違えた回答をする、ということを知っている人は多いはずです。しかし、なぜ間違えるのかという部分を考える人は少ないかもしれません。私も、最近までこのことを意識していませんでした。単純にプログラムの問題なのだろうと思っていたのです。
しかし、実際にはもっと大きな問題が発生しているのではないかと思うわけです。あくまで推測の域を出ませんが、ChatGPTとの会話を見てください。
>>例えばですが、ChatGPTが何か、といった質問を始めとして、色々なことを聞かれると思います。しかし、ChatGPTがその質問に答える時点ですでに自己言及のパラドックスが発生しているような気がしますが、どうでしょうか?
>>返答がかなり冗語的で、何を言っているのか全然意味が分かりません。シンプルに回答してもらえますか?
>>これは他の質問をした場合も同様のことが起こるのではないですか?つまり、なぜChatGPTは間違えた回答をすることがあるのか? これはプログラムによって自己言及のパラドックスにならないように回避してしまうからでは?
>>自己言及のパラドックスを解決できないのであれば、ChatGPTは間違え続けてしまうと思うのですが、これに対する解決策はありますか?
いったん、ここまでにしましょう。どうでしょうか、ChatGPTのバージョンが進めば、間違えなくなるのかというとそうでもないようです。情報源の改善によってある程度汎用的な答えの正答率は上がると思いますが、それでも限界を見ている気がします。
物事をもう少し単純にしましょう。一番最初のChatGPTが出した自己言及のパラドックスの例です。
ChatGPTの開発者は間違いなくこの自己言及のパラドックスについて、深い理解と限界を見たのだと思います。でなければ、自分で判断はできないといっているGPTの対策が完璧すぎます。意味不明な状態に陥らないようにするための回避プログラムとでもいいましょうか、そういったものがあるようです。
ものすごく単純にいえばですが「ChatGPTは自分で考えるんですか?」
といった質問をした際に、内部では自身のことではなく、汎用的な回答になるように変更が加えられているということです。例えば「私は」といった言及を避けて「AIは」といった表現にしたり、「自然言語処理プログラム」のような形で置き換えるわけです。
このことが何の意味を持つのかと考える人は多いかもしれません。自己言及のパラドックスを回避していることがなんで重要なのか?と。答えはすごく単純です。「情報が矛盾するから」です。
つまりこういうことです。ChatGPTとの会話がこうなってしまうわけです。いやでしょ?