ChatGPTの現状
最近話題のChatGPT(GPT: Generative Pre-trained Transformer)だが,実際に使ってみると(特に何かを調べるという目的だと)まだまだ進化段階にあるんだなということを実感した。
「○○について教えて」のように対話形式で回答を得られるという点や,ある程度くだけた表現(口語表現)を使用しても問題ないという点では,通常のweb検索よりはずっと使いやすいのかもしれない。
しかしながら,これはweb検索でもそうなのだが,返ってきた回答が正しいものであるという保証はなく,使用者がその正誤を判断する必要があるという点には注意が必要かと思われた。
もっと言えば,ある程度背景知識がある事柄についての質問の場合は,その回答に誤りがあればそれに容易に気付くことができると思われる。しかしながら,不得手もしくは全くの素人である事柄について質問した際に得られた答えについては,使用者がその正誤を判断するだけの情報を持ち合わせていないため,誤った回答を正しいものだと信じてしまう危険性がある。
あとほかには,これもweb検索でもそうなのだが,適切な(というか厳密な)質問をしないと見当違いの答えが返ってくるということにも注意が必要だろう。
(厳密な質問って表現おかしいかな?まあニュアンスが伝わればいいので許して)
ChatGPTの誤答(meta-d'を例に)
meta-d'について質問した実際のやり取り(やり取りというのも違和感があるが)を見てみよう。
これは僕の記事で書いたことがある「メタ認知能力に関する指標」としてのmeta-d'について質問したかったのだが,得られた回答はmeta-analysisについてのものだった。質問がざっくりしすぎていたのかもしれない。
ということで,質問をもう少し厳密なものにしてみた。
確かにメタ認知に関するmeta-d'についての回答ではあるのだが,「Meta-d'は、被験者の信号検出能力(d')と、被験者が自己評価した信号検出能力(meta-d')との差によって計算されます」というのは誤りである。これはM-ratio(meta-d'/d')の話であり,meta-d'は実験参加者の信号検出タスクに対する自己評価の結果を基に推定されるものである。
また,「meta-d'が高いほど、被験者は自己評価において自信を持っており、自己評価と実際の信号検出能力が一致していると考えられます」というものも一部正確ではない。「meta-d'が高いほど自信を持っている」というのはまあいいのだが(厳密には違う可能性もあるが),「meta-d'が高いほど自己評価と実際の信号検出能力が一致している」というのは誤りである。というのも,自己評価と実際の信号検出能力が一致している場合はd' = meta-d'となった場合であり,d' < meta-d'であった場合は自信過剰か信号検出タスクにおいて利用できる情報以外の情報が利用されたと考えられるからである。
さらに言えば,「自己評価と実際の信号検出能力」という表現も誤解を招く。ここでは前者がmeta-d',後者がd'を指していると思われるが,実際にはmeta-d'は「この信号検出タスクにおいて実験参加者が実際に持つと推定された信号検出能力」であり,d'は「この信号検出タスクの結果としての信号検出能力(単なるテスト結果)」である。詳しいことは別記事に書いてあるからそちらを参照してほしい。
もう少し踏み込んだ質問をしてみよう。meta-d'の計算方法について訊いてみる。
なんとmeta-d'ではなくd'の計算方法が返ってきた。ちょっと会話っぽくコメントを投げてみる。
はい,全く見当違いな答えが返ってきました。例えばここでのmeta-Hit rateがtype 2 Hit rateだったとしてもその説明が正しくないし,その場合上の式から得られるのはtype 2 d'であってmeta-d'ではない。
質問をもう少し細かくしてみよう(人間相手にここまでやると「そんなこと訊くなよ。わかっているくせに」とか言われそう)。
1は特に問題ない。2の記述ではtype 1 taskしか実施していないのにtype 2のデータが得られていることになる。3はさっきと同じ。4は説明不足なところもあるけどまあいいかな(曲率ではない気もするけど)。
最後に,これ以上ないくらい厳密な質問を投げてみる。
まさかの英語で返されたというね。
それはさておき,これまで同様に間違いが目立つ。
meta-cはmetacognitive sensitivityではないし,それ以降の説明でもmeta-cの説明もmeta-d'の算出方法も間違っている。あと,meta-d'は"metacognitive sensitivity"であってmetacognitive efficiencyではない("efficiency"はmeta-d'とd'との比もしくは差で判断する)。おまけに,d'は常に小文字で記述するものだし。なんなら接頭辞"meta-"もindexとして使うなら小文字なんじゃないかな(わからないけど)。
うーん,論文を提示してもだめなのか。
「以下の論文で紹介されている信号検出理論に基づくメタ認知の指標であるmeta-d'について解説して」が「以下の論文で紹介されている信号検出理論に基づく,メタ認知の指標であるmeta-d'について解説して」と区切った場合,提示した論文は信号検出理論についての話で,meta-d'はまた別の話というように解釈できなくもないけど,回答を見る限り質問文に問題があるというわけでもなさそうだからなー。
まとめ
今回は,まだChatGPTの答えを丸々信用してはいけないよーということについて書いてみた。
とは言っても,決してChatGPTを否定するわけではない。会話形式で質問できるのは通常のweb検索より使いやすいと思うし,現状でも一般的な情報なら的確な答えが返ってきやすいと思う。
それに返ってくる答えが100%正しいものではなかったとしても,参考になる部分もある(こともある)わけで。
ほかにも「中学校の理科について,○○の分野の問題を作って」とか「××に関する文章を作って」とかのような使い方もできるし。
ただ,適切な質問を投げないと的確な答えが返ってこないことや,返ってきた答えの確認が必要だということはweb検索と同じで,この点には国語力とか探す力・調べる力,考える力などが求められるんだろうなと。
これって私の感想ですよ?
AIは今後もどんどん発達して,今よりずっと賢くなって,ChatGPTを含めてそれはそれは便利なものになるんだろうなー。
でも,個人的にはAIには「人間が使う道具の1つでしかない」という状態に留まってほしい。
スマホなんてもう「人間が使う」ではなくて「人間を使う」ものになっているように見えて,これが僕としてはとても気持ち悪い。
最後に,科学技術の発達により様々な仕事が効率化されたことで我々人間が使える時間は増えたはずなのに,その空いた時間でまた別の仕事をして「忙しい忙しい」って言っているのって,なんか変だよねー。