ChatGPTはややこしい嘘をつく
ChatGPT流行ってますね。ロケスタにてエンジニアとして働かせて頂いている酒井です。今日は、ChatGPT便利だけどファクトチェックきちんとしましょう!というお話。
ハルシネーションってご存知ですか?
ChatGPTのようなチャット型AI界隈では結構前から騒がれている現象があって「ハルシネーション」って呼ばれています。日本語にすると「幻聴・幻覚」。なんだか恐ろしい。
何のことかというと、例えばChatGPTとかに何か質問をすると答えがたまに事実でないことがある、ということなんです。酷い場合には事実を捏造して返事をしてきます。
この現象が「ハルシネーション」と呼ばれて騒がれているんです。
パンデミック中にすでにいろいろな陰謀論が海外では話題になり激しい議論にもなりましたが、ロックダウンが緩み始めたころに華々しくデビューしたChatGPT。
今度はChatGPTが誤った情報を吐き出す、ということが問題になっています。ChatGPTで質問を入力する欄にも
と注意書きがきちんと書かれているほどです。
ChatGPTは必ずしもWeb検索の結果を返してくれるわけではない
ChatGPTはWeb上のデータも含めて膨大な量の言語データを読み込ませて、それを学習された上で、その情報をもとに人間が書いたような文章を出力することができます。
さらには、ChatGPTに自分で作成したデータをAPIという仕組みを使って学習させること、つまり、もとになる情報のカスタマイズもできるようです。
無料版ChatGPTで使えるGPT-3というバージョンの AI は、2021年9月以前のWeb上のデータ(Wikipedia含む)を学習させた上で、その情報をもとに返答を返します。
(詳しくは開発元のOpenAIのドキュメント参照)
このことは何となく皆さんも知識としてご存知だと思いますが、このことを知っていると、ChatGPTってWeb上のデータを検索した結果を返してくれるんだと思ってしまいますよね?
ところが必ずしもそうではないんです。出鱈目の質問を投げると出鱈目に答えを捏造することがあります。
では、どういった種類の答えは注意すべきなのでしょうか?基本的に事実関係はすべて確認が必要です。
ChatGPTは質問に応じて、文章をそれなりに人間らしく作ってくれることがメインの機能なので、情報の確かさについては信頼できないんです。
ハルシネーションの具体例
「ハルシネーション」とは ChatGPT のような AI が嘘の情報を出力することです。具体例を簡単に見てみましょう。
試しにある有名な歌手の出生地に関して聞いてみました。論拠となるWeb上の記事のURLもあわせて教えて欲しい、と質問したんです。
そして、その答えの一部はこんな感じでした。固有名詞などは伏せ字にしてあります。
こんな感じで、5つぐらいメディアからの引用を出してもらったのですが、中には本当に出鱈目の情報がありました。
注意すべきなのはこのURLはすべて適当に生成されたものだ、ということです。上の例だとライブドアニュースのWebページのURLのパターンをChatGPTは学習していて、URLさえ即興で作ってくれちゃうんです。
なので、このURLをクリックしても「このページは存在しません」というエラーになります。
つまりWebを検索した結果をもとに文章を作ってくれているわけではありません。
でも、こんなふうにURL付きで答えを返されてしまうと、本当にそういう情報がWeb上にあるかのように錯覚してしまいますよね?
ですので、事実関係のファクトチェックは必ずChatGPTでのやりとりとは別に行うようにしましょう。
まとめ
とはいえ、それなりの文章を一瞬で生成してくれてしまうChatGPTの威力には恐るべきものがあります。
うまく活用するならライティングの工数だけでなくクオリティーを上げることもできてしまいます。
ChatGPTで最終成果物の文章を作るということはできなくても、原稿案をつくってもらうには本当にもってこいだったりします。
質問の仕方工夫しながら、賢く活用していきたいツールです。
それでも、ChatGPTにはこういう癖があるのだ、ということも覚えておくと、致命的なミスを避けることができます。
そういうわけ、皆さんもChatGPTやBardなどAIを使う場合はファクトチェックをぬかりなくやっていきましょう!