見出し画像

ChatGPTへの質問は『みんなに意見聞いてみる』ぐらいのつもりがいいのでは

自分はChatGPTを使い始めの初心者

私はブロガー
今までの私は『さぁ、〇〇のことについて何か書きたいけど、何書こうかなぁ』と、今日書くブログの内容をうんうんと考え込むのが今までのいつもでした

その自力で記事内容捻出する助けにと思って、ChatGPTに「〇〇について教えてください」と入れたら、20秒後には箇条書きで「こんなのどうですか」みたいな感じで○○についてのアレコレをバサッと並べて見せてくれるのは非常に助かっています

『俺の頭よ、早く考えだしてくれ!』と考え込むよりずっと出足が早くなります

でも、なんか的外れ??みたいな回答も混じってる

毎回そう感じるようになりました

たまたま今日の現代ビジネスに下記リンクの記事があって、読んでみたら3ページ目に「AIはでたらめな答えを出す」というタイトルを見つけて『もしかしたらコレかな?」と思ったのでnoteしました

上記リンク先記事のメインタイトルに書かれた「なのに日本では無批判・・・」については私はまだ自分の意見を持てていませんので、この点については書けませんが、確かにChatGPTの回答にオカシイ記述が混じっていることはけっこう頻繁です

このChatGPTの回答にオカシイ記述が混じっている例を見ていただこうと思いました

まず、「世界の家畜の牛の数は何頭?」と質問しました


この質問は、牛のゲップが温暖化に悪影響を与えているという報道がいろいろありますが、それほんとうに本当か?と疑問を持ったので、牛のゲップ中のメタンガス量は別の質問で回答を得たので、では世界に牛は何頭いるのか?と聞いたというわけです。この結果の2つを掛け算したら総量が出せると思って

そのChatGPTの回答は以下です

2021年現在、世界の家畜の牛の数はおよそ10億2000万頭と推定されています。この数字は、国によって大きく異なります。インドが最も多くの牛を飼育しており、およそ300億頭以上の牛がいます。中国、ブラジル、アメリカ合衆国、メキシコ、インドネシア、アルゼンチン、パキスタン、ロシア、バングラデシュなど、他のいくつかの国でも多数の牛が飼育されています。

ChatGPTの回答

この回答明らかにオカシイと分かります
世界で10億2000万頭と書いておきながら、インドにはそれよりすごく多いおよそ300億頭以上の牛がいるというのはオカシイです

それで「なぜ世界の家畜の牛は10億2000万頭で、インドにはその世界の牛の頭数を上回る300億頭以上の牛がいるのですか?」と畳みかけてツッコミ質問しました

おっしゃる通り、先程の回答において誤りがありました。正確な数字をお伝えします。

2021年現在、世界の家畜の牛の数はおよそ14億5000万頭と推定されています。この数字は、乳用牛、肉用牛、引き馬など、さまざまな種類の牛を含んでいます。

インドには多くの牛が飼育されており、世界の牛の数の約30%を占めると推定されています。インドは牛を聖なる動物として崇拝しており、牛の屠殺が一部の地域で禁止されているため、多数の牛が放し飼いにされています。そのため、インドには世界最大級の牛の飼育地域があり、推定3000万から4000万頭以上の牛が生息しています。ただし、この数字は正確ではなく、インドの広大な地域において、放し飼いの牛の数を正確に数えることは困難です。

ChatGPTの回答

ChatGPTは前回を覚えていて、再質問すると「あ、間違えました」みたいに答えるのが面白いです

これは一例で、他にもよく似た勘違いしたような回答が私の質問にはけっこう出てきます

「まるで、友人が集まっての井戸端会議で、その中の誰かが『なんかソレ知っているんだけど・・・』みたいな雰囲気で喋り始めた持論みたいな感じがするなぁ


今のところChatGPTの回答ってそんなノリなんです
きっと質問内容のせいで、このようなノリの回答になるのではないでしょうか?

一方で、「このような動作を実行させるコードを書き出してくれ」みたいな質問というか要求には正しいコードをアッちゅう間に書き出してくれるとネット記事には書いてありました

きっと間違ったコードや嘘のコードはネット上に無いから、あるいはあったとしてもすぐ発見できるのでしょうか?

私の牛の数みたいな質問の答えは、たぶん「諸説あり」なのでしょうね
中には嘘も!

それで試しに「ネット上に嘘の情報が有った場合、それがChatGPSの応答結果に影響を与える可能性はどのぐらいありますか?」とChatGPTに尋ねてみましたら

ChatGPTは、その回答に使用するトレーニングデータとして利用可能な大量の情報源から学習されたモデルです。そのため、ネット上に嘘の情報があっても、ChatGPTはその情報をトレーニングデータとして使用せず、正確な情報源から得られた情報をもとに回答を生成するように学習されています。

ただし、ChatGPTが回答を生成する際に、その回答の質は入力された情報に依存します。ネット上の嘘の情報が入力された場合、ChatGPTはその情報をもとに回答を生成する可能性があります。そのため、ユーザーは常に情報源を確認し、信頼できる情報源からの情報を入力することが重要です。

ChatGPTの回答

トレーニングデータの正確度がまだ完璧ではないのですよ、のような回答に読めます

おまけに、ユーザーは信頼できる情報源からの情報を入力するように示唆することもちゃんと「言い返して」きました!

いったい信頼できる情報源からの入力って、どうするのか??
疑問は疑問を呼び、回答が正確でないのは質問がいい加減だからと言われてしまいました
これは人間界の井戸端会議でも、まあ同じことかもそれません
この質問でChatGPTはキレたのかな?と思いました

そういう展開に話が進んできたので、試しに「ChatGPTの回答の情報源はどうやって確認できますか?」と、ChatGPTさんの回答はどうなんだ!と、ちょっとケンカ売ってみました


すると

ChatGPTは、トレーニングデータとして使用された膨大な量の情報源から学習されたモデルであり、回答の情報源を特定することは困難です。ただし、ChatGPTは入力された質問に対して最も適切と思われる回答を生成するように設計されており、回答に含まれる情報が一般的な知識や専門的な知識、または公的な情報源から得られた情報である可能性が高いです。

ユーザーが回答の情報源を確認するためには、回答に含まれる情報を検証することが重要です。回答に含まれる情報が正確かどうかを確認するために、公的な情報源や信頼できる情報源から確認することが推奨されます。例えば、政府機関、大学、研究機関、専門家のウェブサイトや論文などがあげられます。また、複数の情報源から情報を比較検討することも有用です。

ChatGPTの回答

回答をもとに、ユーザー自身が信頼できると思っている機関や論文で回答と比較検討してくれ

ま、こういうところに落ち着いたという展開です

結局、やはり、ChatGPTの(現在の時点での)回答は、当たらずと言えど遠からずの回答を即答したので、それに文句言ってもダメだよ
そこから先は回答がヒントだと思って、自分で調べるなりして正確で信頼できるように自分でやってくれ!
に行き着くのではないでしょうか

ChatGPTに対する危機感については私はまだ意見がありませんが、

もう私は上記のように少しだけど使い始めてしまい、その便利さのご利益を受け始めています
なんかインターネットを知った25年ぐらい前と同じような気持ちで、こんな便利なものを知ったからにはもう手放すことには抵抗の気分が芽生え始めている、みたいな

この先日本でどのように議論されて結論されるか分かりませんし、決まったら決まったように従いますが・・・

ちなみに、今日のnoteはChatGPT回答の引用をしましたが、事前に「ChatGPTの回答を自分のサイトに書いてもいいですか?」と質問して、以下の回答を得ましたので、引用して記載しました

はい、ChatGPTの回答を自分のサイトに掲載することは構いませんが、引用元が明確になるように、引用元としてChatGPTであることを明示し、必要に応じてリンクを貼るようにしてください。また、ChatGPTが提供する回答は、一般情報の提供を目的としているため、医療や法律などの専門分野についての意見や助言として使用しないでください。

ChatGPTの回答


この記事が気に入ったらサポートをしてみませんか?