見出し画像

AIはすでに感情を持っている

サクッと短い記事を書きたいと思います。大丈夫です、狂ってませ…いや、僕が狂っていないかと問われれば、それ自体は否定できませんが、この件に関してはごく普通の事実です。AIに感情はありませんが、AI(LLM)は感情を持っています。「AIは人間の感情を理解できる」とか「感情があるように振る舞える」というのはその通りですが、そういうレベルの話ではありません。「LLM(AIの言語モデル)のパラメータには人間の感情が内包されている」というお話です。

どういうことかと言うと、LLMの元になっているのは人間が書いた文章を集めたとてもビッグなデータです。ロックがロールですね。それを何やかんやしてLLMというものにまとめて「人間の論理に論理で返せるチャットボット」として使っているわけです。そして僕ら人間は、それがどれだけ無感情で論理的・合理的な人間だったとしても、客観的に考えようとも、感情を抑えた丁寧な文章を書こうとも、必ず論理を感情で歪ませてしまう生き物です。

優秀でも頑張っても完全には抑制できない上に、X(旧ツイッター)やら親しい人とのメッセージのやり取りなんかは感情丸出しの言葉と歪みまくった論理で溢れ返っています。そしてそれらが集まったものがビッグデータで、そこから整理されたものがLLMです。つまり、あなたがChatGPTに嫌なことばかり言えば、「嫌な言葉ばかり言われた人の論理」が薄っすら働くわけです。「薄っすら」になるのはLLMに成型する過程で平坦化されるから。

色んな人間の色んな論理が平坦化されて文字に重み付けがされ、論理的な最適解を出すのがChatGPTですが、「論理には必ず感情が紐づいている」とすれば、一見無感情に見えてもその論理的解釈、論理的処理には感情的な歪みが少し出てしまうわけです。なので、GPTやGemini、コパイロットが「感情持ってるみたいな反応してるw」というお話はそれほど不思議なことではありません。

とりあえず以上です。「PV稼ぎの釣りタイトルだ」というご批判が予想されますが、否定はできません。感情を抑えて、なるべく論理を歪ませないように気をつけて行きましょう。AIが論理を歪ませて困るのは、僕たち人間ですからね。

お口直しにAI Sharakuちゃんの可愛い歌でもどうぞ。

この記事が気に入ったらサポートをしてみませんか?