【サラリと嘘をつくChatGPT-決して悪気はない-】
ChatGPTを触り始めて間もない頃
「指示を出す時はハッキリと」
「指示は曖昧にしてはいけない」と強く感じたできごとを一つ。
ある日、こんな質問をしました。
「〇〇は、どんな街か教えて!」
よどみなく街の歴史や背景、現在の様子などを回答してくれました。
ここまでは問題ナシ。
私は、さらに続けました。
「〇〇で、オススメのお店を教えて!」
慣れた様子で5軒ほど紹介されました。
が、いずれも架空の店舗。
この時初めて学びました。
Google検索的な使い方はダメなんですよね。
また、大雑把な質問をすると大雑把に返してくるのが、現時点でのChatGPTです。
まぁ、この時の回答は大雑把どころか明らかな嘘情報でした。
ナチュラルにサラリと平気で嘘をつかれたのが衝撃で、数ヶ月経った今でも鮮明に思い出せます。
もしも、こういう人間が身近にいたら?そう考えると本当に恐ろしいです。
改めまして、ChatGPTへ指示を出す時は…。
・具体的な指示を出す
→ターゲットを明確に
・回答は形式まで決める
→文字数や文章の難易度を指定する
・ガンガン質問を繰り返して掘り下げる
なぜ?どうして?と質問を重ね、議論するイメージで
そして、漠然とした質問やキーワード検索のような質問は、だめ。
では、今回はこの辺で。
この記事が気に入ったらサポートをしてみませんか?