見出し画像

ChatGPTは人のコミュニケーションに影響を与えるかも

ChatGPTは便利だ。しかし、同時に、使用者のコミュニケーションの処理方法に影響を与え、混乱させる可能性がある、と最近思うようになった。


なめらかで違和感がない文章

ChatGPTの回答する文章に違和感を感じたことは、ほぼない。
決まったスタイルがない問いかけに、違和感なく応答するのはすごいことだと感じる。
GoogleのBardは、今のところ不自然な回答をすることが多くあるのに比べ、ChatGPTにはそれがない。
GPT-4で、その傾向はさらに強くなっている。
調べ物をするとき、検索するよりもChatGPTに聞く方が早いので、そうすることが増えた。

しかしあるとき、違和感を感じた。

プレゼンテーションがうますぎる

うますぎても問題が発生するんです

OpenAI社も説明しているし、ChatGPTの応答にも頻繁に注意が含まれるが、ChatGPTは間違える。

にも関わらず、それ以上に信頼性があるものと人に思わせてしまう構造が発生している、と感じている。

(これは、ChatGPTが世の中に広く受け入れられた理由でもあると思う)

それは、ChatGPTの回答が、文法が正しいばかりではなく、なめらかで、あたかも自信を持って述べられているように思わせるような文章であることから発生しているのではないか。

情報を受け取るとき、人は、その情報が正しいか、信頼できるかを様々な要素から検討している。

自分が詳しい分野であれば、正しいかどうかを判断できるだろうが、
正しいかどうかを判断するための知識が足りない場合でも情報の評価は行わなければいけない。

そのようなとき、誰が発信した情報か、どのサイトや書籍、文献に載っていたか、どんな目的で発信された情報か、などを参考にひとまず評価をしているように思う。

話し方の先生に、人に情報を伝えるときは、話す内容に加えて、どのように話すかと、誰が話すかが大切であると教えてもらったことがある。

ChatGPTの場合、どのように話すか、という点が優れすぎている。

結果的に、話す内容が間違っている可能性を、過剰に、感じさせない。

コミュニケーションの複線化

地元の路線は単線でした

対人間に用いるとの同じコミュニケーション手法(チャット)で、人間と同じような回答をすることと、そのなめらかさや文章が感じさせる自信が、情報の正確性と一致していないという現象は、人間とのコミュニケーションとは異なるものであり、人間の側がコミュニケーションのパターンが増えたことを理解し対応できないと、問題を発生させる。

ChatGPTは、インターフェースとして、チャットを用いたために、従来の人とのコミュニケーションと同じように人間が情報を評価してしまう構造を作ってしまった。

ChatGPTとのコミュニケーションにおいては、文章のなめらかさや文章が感じさせる自信は、誤りを含んでいるかどうかを推測する材料にはならない。

そのため、ChatGPTとのコミュニケーションに適応しすぎると、人とコミュニケーションするときにまで、それらの情報を無視してしまうかもしれない。

しかし、人とコミュニケーションするときにはそれらの情報を無視するとうまくいかない。

つまり、コミュニケーションの適切な処理方法が複数になってしまった。

人はコミュニケーションを器用に切り替えられるのだろうか、と考えるとき、難しいのではないかと思う。

まとめ

私は、AIの危険性を強調し、仕様や開発に制限を加えようとする意見に賛成するものではない。
たぶんそれは無理だろうと思うし、制限するより、よりよく改善していく方が健全だと感じる。

チャットを用いるインターフェースは、魅力的なものであるため、手放すことは出来ないだろう。

また、人間の側が、AIとのコミュニケーションだからといって、人とのコミュニケーションと異なる情報の評価を行うことも難しいだろう。

思いつきだが、、
例えば、ChatGPTが、信頼性に応じて回答のトーンを変えるようになれば、この問題は解決するかもしれない。
(例えば、信頼性に乏しいと評価した回答は自信なさげに答えるようにする)

ときには緊張した感じで回答してみたり

しかし、おそらく、回答の信頼性を評価すること自体が、モデルの仕組み上、難しいように思う。

短期的には解決しない問題に思われ、今のところ、これらの特性を理解して使うしかない。

しかし、この状況が人のコミュニケーションに与える影響が小さくないと考えている。

SFじみた話だが、もしかしたら、今後、ChatGPTのようなAIツールを使う人に対して、対人間のコミュニケーションが混乱していないか、コミュニケーションのキャリブレーションを定期的に受けるようなことが必要になってくるかもしれない、と思った。


このnoteは以下の記事内の「ChatGPTは回答がまるで正解であるかのように、きれいな文章で出ます。それが論理的な構成にすら見えます。(中略)不思議なもので、言葉がスムーズだと人間は納得してしまいがちです。『これでいい』と思ってしまうマジックがあります」という平井伸治鳥取県知事の指摘から着想しました。
https://bunshun.jp/articles/-/62723

この記事が参加している募集

SF小説が好き

この記事が気に入ったらサポートをしてみませんか?