ChatGPTがウソをつくのは質問が悪いってほんと?
いきなりですが質問です。
あなたはChatGPT、使ってますか?
そう思ったそこのあなた、
それ、あなたの質問が悪いから
なんですよ〜
このnoteではChatGPTにウソをつかせない使い方について解説します。
ChatGPTの嘘とは?
まず、ChatGPTがウソをつく理由や仕組みについて解説します。
そもそもChatGPTとは、OpenAI社が開発した「言語モデル」のAIです。
言語モデルは、「次にどんな単語が来るかを推測し続けて文章を作り出し、会話のようなことができるAI」です。
事前に学習させておいたデータの中から、与えられた質問文の次に来る単語は何が来たら自然かということを引っ張り出してくるわけです。
たとえば「日本の公用語は」と入れると、次の単語として過去のデータから次に出てくる確率が高かった「日本語」という単語を返します。
すると「日本の公用語は日本語」という文ができるので、さらに「です」という単語を追加して文章を完成させます。
つまり、ChatGPTは質問の内容を理解した上でデータベースから情報を引っ張り出してきているのではないのです。
単に与えられた情報(質問文)の、次に続く確率の高い単語を次々と続けていくので、ウソを答えてしまうことがあるのです。
質問の仕方が悪いとウソをつかれる理由
では、なぜ「質問の仕方が悪いとChatGPTにウソをつかれる」のでしょうか?
ChatGPTにウソをつかれる原因として、質問の仕方にどのような問題があるのか解説します
ChatGPTに知能はない?
前述したように、ChatGPTは質問の内容を理解した上でデータベースから情報を引っ張り出してきているのではなく、質問文に続く確率の高い(関連性の高い)単語を引っ張り出してきて、それっぽく文章を作り出します。
つまりAI(人工知能)という名前はついてるけど、別に知能があるわけじゃない(考えてはくれない)のです。(たぶん)
過去のデータから確率が高いデータを参照してくるだけです。
ChatGPTはググれない
また、ChatGPTはググれません。ChatGPTが持ってるデータは2021年9月までのものです。
なので「日本の現在の首相は」と聞いても答えられないし、意味がありません。
ChatGPTはそのような用途で使うべきAIではないのです。
ChatGPTを使いこなすポイント
ここまで読んでくれたあなたはこう思ったかもしれません。
いいえ、そんなことはありません。
ChatGPTは、以下のような用途にはなかなか使えます。
ちなみにOpenSeaから私が作ったコレクションが消されてしまった際、OpenSeaへの問い合わせの文章はChatGPTに作ってもらいました。
また、この音声文字起こしアプリはPythonで作りましたが、ぜ~んぶChatGPTに作ってもらいました。
信頼性のある回答を得るために
ChatGPTや他の情報源からの回答を信頼性のあるものにするための方法や注意点を解説します。
質問を限定する
ChatGPTは制限を与えれば与えるほど精度が上がります。
前提条件をなるべく詳しくおいて質問してみましょう。
あなたは売れっ子のライターです。ライターとして以下のタイトルでたくさん読まれる記事を書いて
10歳の子どもでもわかるように答えて
以下のブログタイトルをエモくして
英語で聞く
ChatGPTが学習している情報のほぼ全ては英語です。
日本固有の情報でなければ英語で聞いたほうが、精度は良くなります。
deeplなどを使って英語で質問してみましょう。
プロンプトを使う
ここまでがChatGPTの超エントリーレベルです。
ChatGPTを「使いこなす」にはプロンプト(命令)が欠かせません。
正しい形式の命令を与えることで、ChatGPTからの回答の精度は段違いに上がります。
どんなプロンプトがいいかって?
ここから先は、web3の世界でもっともAIを使いこなしているといっても過言ではない、けいすけさんのセミナーに参加して一緒に学びましょう!
ChatGPT超超超初心者セミナー
【カンタン&実用的!仕事で使えるセミナー】
お申込みはこちらから。アーカイブ配信もあります!
サポートいただいたお金はチビ画伯のお絵かき用品に充てさせていただきます!ありがとうございます。