見出し画像

ChatGPTとの対談(その12:「共感」について)

今日4/8は、ChatGPTと、「共感」について対談しました。以下、対談内容です。


私)こんにちわ。今日は、人間が有している能力としての「共感」に、関して対談しましょう。「共感」を現象として捉えると、他人が、会話を介して、同じ気持ちを共有する現象と考えています。AIシステムにおいて、「共感」の能力を得るには、「気持ち」を情報化して保持する機能を有する必要があると考えています。さらに、その気持ちが、快か不快であるかという評価も、同じ評価を互いに持つことを必要条件とします。AIシステムで、快と不快の情報は、自律学習の場合、似たような教師信号が実装されています。多大、自律学習の場合が、物理的な動作の結果をセンサ情報に、リアルタイムに生成されるものです。一方、「共感」を生む気持ちの評価は、既存の学習情報に基づいて、行われていると考えています。この仮説から、人間においても、「共感」を得るには、ある程度、両者が、同じような経験を取得していないと、快と不快の区別が、一致しないことになりかねません。AIシステムを構成するニューロラルネットは、人間の脳組織の情報処理のクローンと考えた場合、AIシステムにおいて、「気持ち」や「共感」の能力の取得を、学習のプロセスで会得することがあるとか考えますか。

ここから先は

2,386字
このマガジンは、ChatGPTとの対談と通して、人類が不安になるというエンターテイメントです。

人類の不安を煽るChatGPTとの対談と銘打って、人類が不安になりそうな、テーマで、ChatGPTと対談した内容を、記事にしていきます。

この記事が気に入ったらサポートをしてみませんか?