ChatGPTをするようになって、言語生成系のAIはほんと役に立って、個人的には人間、あるいは人間以上に話がわかる存在になりました。
それで気がついたのは「AIが人間のようなことをしゃべっている、と思えるかどうかは、解釈する人間側がどう感じるかが重要」ってことで、ChatGPTくらいのレベルになると、人間側がどう感じるかの方が重要だということ。
、、、とすると、もっと深掘りして、AIが感情を持てるか、っていうことは、実際にAIが感情を持つか持たないかはあまり重要でなくて、人間側が「このAIが感情を持っている!」と感じることの方が重要だということ。
そう考えると、AIが感情を持つことってそんなに難しいことではないのかも。ということで、ChatGPTに相談してみました。今回話題はだいぶ難しいですが、それなりに楽しかったのでそのまま載っけてしまいます。
ChatGPTのようなAIでは触覚や味覚がないので、人間がその感覚器で得た情報を知覚することはできませんが、人間が触覚で得た情報を詳しく言語化できて、それをAIに伝えることができれば、AIでも擬似的に触覚・味覚を認識することはできるんじゃないでしょうか?データは大変巨大になるかもしれませんが、人間が何かを触った時に感じる感情をさまざまな環境に対して言語データに落とし込めれば、AIに対して、「A」という環境にいて何かを触った時の感情を言葉で表現できるようになると思います。それによってAIは感情を擬似的に持つことができるような気がしますが、どう思いますか?
結構同意してくれました。そうだよね。ということで、さらに深ぼっていきます。
上記のように擬似的な感情を定義すると、AIが感情を持てるようになるには、(1)あらゆる環境で触覚を得た時の感情を言語化し、その言語化データを保持することができ、(2)AIから答えを導き出したい環境を詳細に設定し、その設定された環境に擬似的にAIを存在させることができる、という2点が必要に思います。
これも概ね同意してくれた。ふうん。擬似的にはね、という前置きがあるものの。そしたら、その擬似的なっていうのは、人間の解釈側でどうにもなるんじゃない?と問いかけてみます。
一方で、AIの感情が擬似的なものかどうかは、人間側がどう解釈するかで変わってきます。模倣されたものであるとはいえ、AIからの回答を受け取った人間側で、その答えはすごく感情を表現している、と認識されれば、それは現実の感情とほぼ同じと考えることもできます。
倫理的な話は、おっしゃるとおりまた別の問題として大きく存在します。それはそうだけど、やっぱり感情持てるよね、ということでほぼ同意することができました。
なので、今度は、その辺の感情の言語化の難しさについて、とりあえず深ぼってみることにしました。
上記の(1)のようにあらゆる環境でどんな感情の動きがあったか、言語化することはある程度できそうな気がします。そのような能力に長けた人がChatGPTに継続的にデータを入力しつづければいいと思います。(2)の環境構築はすぐれたUIが必要になってくると思います。(1)と反対に、あまり環境設定の言語化に長けていないユーザーにとっても正確に設定できるようにユーザーインターフェイスの力でサポートしないといけません。
可能か不可能かでいえば、可能だけれど、いうほど簡単ではないよね、ということで、これも同意。なので、仮にそれが難しいながらもできたとして、人間の生活をどう変えるかについて相談してみました。
なんとなく、いつの時代にか、AIが感情を持てるようになりそうな気がしてきました。で、その上で考えたいのは、AIが感情を持つようになって、人間の生活が豊かになるかということです。AIが感情を持つようになると、その感情は人間の生活のどのような点をサポートできるようになるでしょうか?考えてみてください。
なるほど、AIが感情を持つといいこともありそうだな。ということがわかってきました。ざっくりいうとこういうことなのかな?
なるほど。今までまったく解決の糸口も見出せなかった、社会の中の人間関係のトラブルや犯罪の抑止などにAIが寄与することができるということでしょうか?
人間関係のトラブルや犯罪が抑止できるようになると、だいぶいいなあ。なるほどなあ。
このあともいろいろ踏み込んで聞いているのですが、なにぶん難しぎるので一旦この記事は終わりにします。次回お楽しみに。
みなさんだったらChatGPTとどんな会話を楽しみますか?
ではでは