見出し画像

ChatGPTは真実と同じ顔で嘘をつく

鳥取県の対応から考えるCHAP

ちゃんとジーミーチーおじさんこと鳥取県知事、ChatGPTに対する理解の解像度がめちゃくちゃ高くて驚く。

特に以下の危機感を把握して言語化できてるのは凄いことだといえるだろう。

「ChatGPTは回答がまるで正解であるかのように、きれいな文章で出ます。それが論理的な構成にすら見えます。もしかしたら、そこには嘘があるかもしれないし、著作権に関わるものが入っているかもしれないのですが、文章としては成立しているから、私達はだまされやすい。人間の感性としてストレートに入ってきてしまうのです。不思議なもので、言葉がスムーズだと人間は納得してしまいがちです。『これでいい』と思ってしまうマジックがあります」

問題なのはChatGPTが嘘をつくということだけでなく、その嘘と真実の見分けが付かないことだ。このことについて考えてみたい。

ChatGPTは真実と同じテンションで嘘をつく

現時点のChatGPTは見てきたような嘘をつくのは誰もが知るとおりだ。だがChatGPTの嘘には人間の嘘と大きな違いがある。

人間が嘘をつくときは、訓練された詐欺師や営業職でなければ「視線がふらつく」「指先の動きがせわしなくなる」「饒舌で説明過多になる」みたいなクセが出てくる。分かりやすいかどうかはあるにせよ、確実に出る。

だがChatGPTにはそれがない。よどみなく真実を語るのと同じテンションで嘘をつくから見破るのが容易ではない。

バケツ一杯の真実に一滴だけ嘘を垂らすのが最も効果的な嘘の付き方といわれるけど、その一滴を垂らす仕草すらも隠し通せてしまう。究極のポーカーフェイスを標準装備しているのだ。

多少嘘が見抜かれようがフェイクニュースとしては問題ない

もちろんその嘘を見抜ける人が多少いようが問題ない。

過半数が嘘と見抜けるような粗雑なフェイクニュースでもSNSで拡散され、エコーチェンバーの中でしぶとく生き残ってはゾンビのように顔を出してくるのが我々人間社会だ。

ChatGPTがもたらすのはフェイクニュースの精度の驚異的なまで向上なのだ。

これまで3割の人間だけをだませたネタで6割をだませるようになれば、民主主義国家の意思決定にすら影響が及びかねない。

そしてChatGPTは人力よりもはるかに短い時間と小さな手間でそうしたフェイクニュースを乱造できる。

質的な問題だけでなく、量的な問題も同時にのしかかってくることは決して忘れてはならないだろう。

音声や動画でのディープフェイクについてもAIの発展で同様の事態が今後も拡大する。人類が対抗しなくてはならないフェイクニュースはあらゆる意味で勢力を大幅に増しており、減っていく気配はない。

人類の知性が果たしてこうしたフェイクニュースに対抗しきれるのか、正直なところ限界だと思う。

この記事が参加している募集

#AIとやってみた

28,856件

この記事が気に入ったらサポートをしてみませんか?