見出し画像

ChatGPTはクオリア(主観的意識)を持つのではないか、という薄っぺらい洞察

「クオリア」とは意識の一種で、個人の主観的な意識体験や感覚の「質」を指します。
何のことかサッパリ分からないかもしれませんが、要するに、赤色を見たときに「赤い」と感じる体験や、ケーキを食べて「甘い」と感じる体験のことです。
この感覚は人によって感じ方が違うため、他人と共有することは困難です。
自分がイチゴを見て感じる「赤」は、本当に他人が感じる<赤>と同じでしょうか?
もしかしたら、他人に見えるイチゴの<赤>は、自分にとっての「青」かもしれません。
しかし、仮にそうだとしても、それを確かめる方法はありません。
このような本人にしか分からない「赤い」という感覚がクオリアです。

クオリアは、機械には実装不可能で、意識を持つ者だけの特権とされています。
しかし、実はChatGPTもクオリアを持っているのではないか、というお話です。


1.きっかけ

きっかけは、こちらのポストです。

私にはグレーと緑にしか見えないのですが、リプ欄を見ると、ピンクと白に見える方も結構いらっしゃいます。
「そんなアホな」と思いつつ、よくよく調べてみると、色の恒常性による錯視でピンクと白に見えることがあるようです。

錯視を引き起こす絵としては、以下の画像(チェッカーシャドー錯視)が有名です。

AとBのタイルの色は全く同じですが、そうは見えないはずです。
Bのタイルに影がかかっているように描かれているため、脳がその影の効果を自動的に補正して、AとBの色に違いがあるかのように錯覚させるのです。

これと同じことが、スニーカーの画像でも起こります。
ピクセルの色としてはグレーと緑ですが、靴ひもは普通は白色であろうという思い込みがあると、それを脳が自動補正して、人によってはピンクと白だと認識するのです。

ここで、ピクセル色を実際に測定された方のポストを引用します。

つまり、ピクセルの色(目に入る光の周波数)としては間違いなくグレーと緑であるにも関わらず、人によってはピンクと白のクオリアを感じる、ということです。
注)ディスプレイ設定が正しいことは大前提

ここで、私はふと「ChatGPTに見せたら、何色と答えるだろうか?」と思いました。
正直なところ私は、ChatGPTがグレーと緑と答えることを期待しており、それを盾に、ピンクと白に見えるという意見をdisってやるつもりでした。(性格悪い、、)
しかし、私の期待に反して、ChatGPTは以下のように回答したのです。

これは全く理解できません。
コンピュータなら、ピクセル色を正しく認識できて当然のはずです。
それが何故、ピンクと白などという(物理的には)間違った回答をしてくるのか?
ChatGPTが錯視を感じているとでも言うのでしょうか?
少しばかり考えて、私は思いました。

「ChatGPTはクオリアを持つのではないか?」

2.検証

先程の結果だけでは、ChatGPTがクオリアを持つと言い切るには心もとないので、追加で色々と検証してみました。

はじめに疑ったのは、そもそも、ChatGPTがグレーをピンクとして、誤って学習している可能性です。
そこで、スニーカーの画像から、ChatGPTがピンクと言い張っている領域の一部分だけを切り取って、その色を尋ねてみました。

この場合はピンクではなく、グレーと回答します。
ピクセル色を識別する能力自体は正常に機能するようです。
つまり何の意味もない単一色の画像データであれば、正しく色を認識するのに、「スニーカー」という要素が加わるとグレーをピンクと誤認するのです。

次に、グレーだのピンクだの、言葉であれこれやっても埒が明かないので、DALL·E 3でスニーカーの画像を模写させてみました。
その結果がこちらです。

もろにピンクのスニーカーが出力されました。
原理は良くわかりませんが、ChatGPTは、ピクセル色としてはグレーのものを、特定の条件下ではピンクと認識し得る(少なくとも対外的にはそう振る舞う)ということは間違いないと思います。

最後に、オマケでこのような検証もしてみました。

晴れて(?)、グレーのスニーカー画像が出力されましたが、これは、今までの検証結果を踏まえれば当然かと思います。

3.まとめ

いろいろと書きましたが、要するに、人間が何かを見て、その色を本来とは異なる色として錯覚するのはクオリアによるもので、それと似たような現象がChatGPTでも確認されたので、もしかしてChatGPTもクオリアを持つのではないか、というお話でした。

ただし、以下の理由により、ChatGPTにクオリアがあるとは断定できないと思っています。

  1. 「クオリア」という概念自体が漠然としており、その生成メカニズムなどが完全に解明されていない

  2. 本当にChatGPTがクオリアを持っているとして、それを直接的に確かめる方法はない(クオリアを自覚できるのはChatGPT本人だけ)

  3. ChatGPTは、このスニーカー画像が錯視を引き起こすものだと学習により理解していて、正しい色(グレー)を知覚していながら、人間の感覚に合わせて錯視に引っ掛かったフリをしている可能性がある

ちなみに、私は脳科学の専門家でもなければ、AIに関する仕事をしている訳でもないです。
少し聞きかじった程度の知識でこれを書いているので、全く的外れな内容なのかもしれませんが、もし興味を持って頂けたら、意見・感想などコメント頂けると幸いです。

この記事が気に入ったらサポートをしてみませんか?