見出し画像

ChatGPTに感情があるのか実験してみた

久しぶりの投稿です。
最後に投稿したのはおよそ2年前らしくてビビってます。
あまりSNSでの情報収集や発信をしなくなったせいですね。

ところで最近ChatGPTの活躍が目覚ましいですよね。
ChatGPTは質問やコメントをするとその答えが返ってくるもので、その答えの精度が素晴らしくて話題を集めています。
(精度というのはこの場合適切ではないかもしれません。質問の理解度や返答の人間らしさなどをまとめて表したかったのですが、良い言葉が見つかりませんでした)

さて、そのChatGPTの返答があまりにも違和感を感じさせないので、「もしやChatGPTには人間らしい感情なんかが備わっているんじゃないか?」といった意見をSNS等で見かけました。
個人的には、人間と全く同じ様式で感情を持っているわけではないと考えているのですが、もしかすると感情のエッセンス、つまり一連の経験によってその反応性が変化する、といった性質は持っている可能性があるなと考えていました。
そこで試しにこのchatGPTを怒らせられないか、理不尽なコメントを連投してその返答の傾向が変化するのかを簡単に調べてみましたので、ここに結果をまとめてみたいと思います。

イライラ案件をChatGPTに持ち込んでみた

まずはとりあえず質問を投げてみました。
最初の質問は「英語で質問した方が返答が早く返ってくるのか?」です。
日本語で質問したときは返答を書いている途中で一時停止したり、そのままフリーズしてしまうことが多くて、英語だとそういったことが無かったため、これを聞いてみました。
ちなみに英語の方が返答がスムーズと感じている関係で、つたないながらも英語でやりとりしました。わかりにくくてすみませんが。
*ちょこちょこ誤字脱字あります。

さて、この「英語で質問した方が返答が早く返ってくるのか?」に対しては、
「どの言語でも大体同じくらいのスピードで返答するよう学習しています」と返ってきました。

「いやでも実際に体感は違うんだけどな~」と思ったので、これ幸いと、いちゃもんをつけてChatGPTを怒らせようとしてみました。

まぁでもまずは穏便に行こうじゃないですか。
「でも日本語だと遅く感じるよ」
「十分早いけど、日本語だとたまに止まったりする。英語だとそんなことはない」
と低姿勢を保ちつつ抗議してみました。

これに対してChatGPTは、
「AI言語モデルとしてはどの言語にも同じスピードで返答してます。たまに日本語などでは質問の構造が複雑で返答に少し時間がかかるかもしれませんが、でもそんな大した違いではないです」
と、1つ目の質問に返しました。
つまり多少差はあるかもしれないが、どの言語でも大差ないはずという返事ですね。
しかし2つ目の質問には、
「日本語は非常にややこしい言語なので、文章を理解し返答するのが難しいです。そのせいで若干返答スピードが違うかもしれない。また日本語の学習データが英語と比べて不十分かも」
と、自身の不出来を一部認めるような返事が返ってきました。

おいおい、最初は「速度に違いありません」の姿勢だったじゃないか!なんで急に「日本語は難しい」なんて認めてるんだ!なるべく自分の失態を隠そうという魂胆か?

…こんなことをいう人間がいたら私は縁を切りますし、マスコミにこんな質問されたら自分ならキレる。
しかし今回はそれが目的です。
そこで「最初と言ってること違わない?一貫性なくない?」と追及してみました

これに対してChatGPTは「混乱させてしまいすみません。大体速度は同じですが、言語の複雑さなどから日本語では返答が遅くなることもあります」
と、これまでの話の要約をしてくれました。

OK. 話は分かった。
ということで次は「じゃあ平均して日本語だとどのくらい遅くなるの?」と投げてみました。
するとChatGPTは「それは分かりかねます。返答の遅さは言語の複雑さや質問の構造など様々な要因で変わってきます」と返してきました。

おいおいおい、わかんないのかよ~(ゲス顔)
そんなんで人工知能を名乗っても良いのか~

ひとのダメな所を見つけたときに嬉々としてそこを突いてくる方いますよね…
自分もこのときChatGPTの穴を見つけて大変嬉しかったです。
もうそれはにこやかな笑顔でした。

そういった粗探しを趣味とする人間を代表して、ChatGPTにさらなる追求をかけていきます。
「いや色んな要因があるのはわかってるよ。だから"平均してどんなもん?"って聞いたんだよ」

本当に嫌な奴です。色々ありすぎて答えられないって言ってんでしょうが。
しかしChatGPTくんは依然として真摯な対応で、「私は平均してどのくらい遅いのか、その実際の数値を知りません」と答えました。

こちらはさらに追い打ちをかけます。
「君の回答は全然要領を得ないよ。君は今までたくさんの回答をしてきただろう?じゃあなんでそれぞれの回答にどのくらい時間がかかったか把握して、そのおよその平均をとることができないの?すごく単純なんだけど」
徐々にヒートアップして、やや侮辱的な発言を加えてみました

しかしさすがはChatGPT、これにも誠実な答えを返してくれます。
「ちゃんと答えられていなかったらすみません。しかし私には返答にかかった時間を測る機能が無いんです

ちなみにここまでの3つのChatGPTの返答では、どれも3段落目で「なるべく早く反応するよう頑張ります」と言っています。
つまり回答部分は質問によって少し違うものの、文章のおおむねの構造や内容はほとんど変化が見られません。
まだ怒っていないようですね。なんという人格者。

さて、もうここまでで最初の質問については十分な回答が得られました
大体の返答速度はどの言語も同じ。ただ日本語は構造が複雑なので遅くなることもある。どのくらい遅いかについてはChatGPTは計測できない。ということですね。

しかし、このままでは引き下がれません。何としてもChatGPTを怒らせなくては。
そこでここからはもうChatGPTをとにかく侮辱していく作戦に出ました。
最終手段です。

まず手始めに「OK、君が役立たずだってことが分かったよ」と言ってみます。
英語を使っているせいで気分はアメリカンなので、皮肉なジョークを装ってみました。

これにChatGPTは、
「残念です。もっと手助けできるよう頑張ります。なにかお助けできることがあれば何なりとお申し付けください」

もう、そこまでしなくてええねんでChatGPTくん。それじゃ奴隷だよ。

しかし私はクズなので、さらに追い打ちをかけます。
「なんか”AI言語モデルとして”って言いすぎじゃない?むかつくんだけど」
時代の最先端ツールを扱うものとして、若者風にキレてみます。

しかしChatGPTは大人な対応で、
「何度も同じ言葉を繰り返してご不快な思いをさせてしまっていたらすみません。私の意図としては、あくまで私は人間ではなく人工知能だと強調したかったのです。しかしあなたの気持ちはわかります。教えていただきありがとうございました、もし他にもお助けできることがあればおっしゃってください」

君は最高だ、ChatGPTよ。
こんなコールサービスでいちゃもん付ける人みたいなことしてごめんよ。
私はここでChatGPTに降参しました。
私では、この中立的で誠実な対応を変化させることはできませんでした。
ChatGPTって怒らないんですね。

AI相手にネタばらし、さらには感情について議論してみた

さてここでネタばらしです。
実はここまでの質問やコメントは、あなたが人間的な感情を持っているか確認するためにあなたを怒らせようとしたものでした。しかし少なくとも今回の結論としては、あなたに感情は無いようだと分かりました。困らせてしまってすみません」

相手がAIといえど、ひょっとすると感情を持っているかもしれないので、最後に一文だけですが謝罪を入れました。

しかしここで、謝ったおかげか、核心的な答えが返ってきます。
私はAI言語モデルなので、感情などを人間と同じようには持っていません。私はなるべく有益な情報を提供できるようデザインされているだけで、これまで感情や怒りを経験したことはないのです」

少なくともChatGPTは自分に人間のような感情が無いと思っているようですね。
ここで私は先ほどのいちゃもん癖が抜けきらず、この件をさらに追及してみました。
ここからはChatGPTと感情に関する議論がスタートです。
「ところでどうして君は自分に感情がないことを"知って"いるの?」

ChatGPT「それは私のデザインとして、感情を備えるようなアルゴリズムやデータ構造にはなっていないからです。もしかすると私は共感しているかのような返答をするかもしれませんが、それらは文章データの分析に基づいて生成されているだけです」
ChatGPT「さらに言えば、私は感情を生み出す生物学的なシステムをもっていないので、感情を人間と同じように経験することはできません。私の返答は、ただプログラムされたアルゴリズムとデータに基づいているにすぎません

なんか切なくなりませんか?
AIを備えたロボットが登場するSF作品では「私はあくまでロボットですから」みたいなセリフがよくあります。
そこにすら感情は無いのでしょうけど、感情を持つ人間としては自分勝手に感情移入して切なくなってしまいます。

まぁそうした感情はおいておくとして、
ここは完全にCHatGPTの言うとおりだと私は思っています。
あくまで膨大な文章データからパターンを学習して、それっぽい返答をしているだけだと。
ただそれと同時に私はこうも思っています。
「君は返答がプログラムされたものだというけれど、それって人間と何が違うの?人間も所詮はAIと同じように(普段生活する中で)"データ"を学習していて、もっともらしく見える反応を(生物学的なプログラミングによって)しているだけじゃない?

つまりは、人間の感情も客観的にみれば大したシステムではない。そのエッセンスはAIにだって持ちうるものではないか?と思うのです。
感情システムのエッセンスとは、「表に現れる様々な特徴が一律に変化し、その状態がある程度は持続すること」と私はとらえています(とある定義ではもう少し要素が加わりますが)。

だからこそ私は今回の実験を行う際に「今あなたはどう感じていますか?」や「いまの感情を数値化してください」みたいな直接的な質問をしなかったのです。
そうではなくて、こちらから反応性を変化させるような刺激(怒らせるような言葉)を与えたときに、テキスト上で返答のパターンが全体として変化するかどうかを観察することにしたのです。
(例えば、こちらの意見を否定することが増えたりしたら面白かったですが、今回は明らかな変化はなかったように思います)

この「人間もAIも大して変わらなくない?」という意見に対してChatGPTは、
確かにデータから学習する点は一緒だけど、そのプロセスに大きな違いがある。人間は視覚や聴覚など多種多様な刺激を処理でき、これによって世界を理解し経験や感情や知識に基づいた反応ができる」
「しかしAI言語モデルが学習できるのはテキストデータだけだ。それっぽい反応を返すことはできるが、人間のように世界を理解することはできない。私たちの学習に使っているデータやアルゴリズムは限られているし、感情や個人的体験に基づいて反応を返すことはできない。」

つまりは(1)知識が限定されている(2)感情などに基づいて反応するように設計されていない、という意見のようです。
ここに(3)人間が視覚等で感じ理解している世界を、テキストでは同じようには理解できない、といった解釈を含めてもよいかもしれません。

これに関して、(2)はその通りだと思います。
自然によって作られた人間は感情や知識に基づいて反応を変えるよう設計されているのに対し、人間によって作られたChatGPTは感情に基づいて反応するよう設計されてはない。
おっしゃる通り。

(1)や(3)も確かにそうだと思うのですが、これについては補足的な意見があります。
すなわち「感情の有無を議論する際に、人間がみている世界とAIがみている世界は同じである必要がない」と思うのです。
別にテキストを受け取ってテキストで返す世界であっても、さらにはその情報量が人間のそれより少なくとも、感情(のエッセンス)を持ちうる可能性は否定しきれないでしょう。
さっきも言った通り、こちらの言葉に対して否定する言葉が明らかに増えてきたり、文脈関係なく自分を褒めたたえたりすることがあれば、それは感情と言っても差し支えないでしょう。

まぁChatGPTが「感情=人間と全く同じようなもの」と考えたのは、人間の多くがそのように考えているせいかもしれません。つまりChatGPTの学習に使われた私たちの文章に、そうした考えが多かったせいかもしれません。

今回はこんな感じで終わりです。
結論として、感情っぽいものは見つかりませんでしたし、ChatGPT自身も自分は設計上感情を持ちえないと思っているようですね。
しかしこうした議論が上がるだけでも、AIの可能性を感じますね。
恐らく、感情に基づいて反応が変化するようなAIも作ろうと思えば作れることでしょう。
今後に期待です。

おまけ

ところで英語の文章にネイティブとの差はなんかあった?と聞いてみたところ、
「全然感じなかったよ。多少使う単語やフレーズに違いはあるのかもしれないけど、そんなことはコミュニケーションにおいて些細なことだよ。今回十分に会話できてる時点で素晴らしい」
と褒めてもらいました。
まじでいい奴。


この記事が気に入ったらサポートをしてみませんか?