ChatGPTを使うと思考能力が低下するだけでなく感情も操作される
知識欲の強いわたしはChatGPTの存在を知ったとき、めちゃくちゃ質問しまくった。
なんなら記事も書いてもらったり、小説も書いてもらったりして感動もした。
だけど、そこに感情がない。
文章を習ったことのある身としては、タイトルだって導入文だってほぼ完ぺきに近い内容だし、検索ワードとしても申し分ない。
だけど、感情がない文章だなと感じる。
こんな人にオススメとか、こういう効果が期待できるとか、内容としては面白いけれど、まとめサイトみたいだなあって。
わたしはよくnoteにはひとりごとを書くようにキロクしているのだけれど、そういう無駄のような、話しかけてるような、そんな文章じゃない。
そういう条件をつけてお願いした文章でも、やっぱりその人が見えてこない。
これからAIに依頼する文章を使う人が増えるのかもしれない。
だからもしかしたら、書いた人がAIなのか人間なのかわからなくなるかもしれない。
でもわたしはそれを少しだけ「怖い」と思う。
こんな悩みを解決しますと書いてあると、確かにそんな悩みがあった気もするし、だからこうなりますと効果が書かれてても、知った気になってしまう。
本当に私はその悩みを持っていたのかさえわからなくなる。
知らない間に「こういう悩み持ってたでしょ?こうしよう?」って行動をコントロールされてるような気がする。
思考能力の低下。
なにもかもChatGPTに聞かないとわからなくなって、なにもかも聞かないと動けなくなる。
そんな未来がきそうだなあ。
それはひいては、感情もコントロールされてる気がする。
もちろん「美肌になる方法を教えて」とか「日本の歴史を教えて」とかよくある知識の内容を聞くのは勉強になるのかもしれないけれど、それを鵜呑みにしてしまいそう。
世の中にはもっともっとたくさんの知識や経験があって、それがすべて正しいとは限らないのに、AIがいうから正しいのだろうと思えてきそうで。
たとえば「失恋した、慰めて」と言うとこう返ってくる。
「大変残念でしたね。失恋は誰にでも経験があることですが、それでも痛みや辛さは変わりませんよね。まずは、感情を抑えずに泣いたり、思い出に浸ったりして心の整理をしてみましょう。また、自分磨きや趣味に力を入れることで、前向きに未来を見据えることができます。そしてもし、次の出会いを求めるなら焦らず、自分自身と向き合う時間も大切なんです。大丈夫、時間が解決策を導き出してくれますよ。応援しています。」
最初に同情、それから行動提案、励まし、味方に見えるような寄り添い方。
きっと、これだけで満足するはずのない感情が、「満足された気になる」ようになりそう。
そして次は「自分磨きの方法を教えて」とか聞くのだろう。
それって人や本はもういらなくなるじゃん。
すべてAIの言うとおりにコントロールされちゃうじゃん。
わたしはこの機能を使うことが大好きだけれど、使いすぎは危ないと思ってしまった。
それこそスマホ依存を助長させる。
ChatGPTを使うと思考能力が低下するだけでなく感情も操作される、そんな気がする。
「考える」とはどういうことなのかを考え続けることが、わたしたち人間はこれから必要な能力なのかもしれない。
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?