見出し画像

勘違いしないで!生成型AIは必ず正解を出すわけではない。

もしかしたら早速ChatGPTとかBingとかBardを使っている方も多くいると思います。これから使ってみようかと思っている方もいるといると思います。
当塾でもそんな相談が寄せられますが、その時お話することをちょこっとお話しようと思います。これら生成型AIと言われるChatGPTとはじめとするものは学習して回答を出します。例えばホームページだったり法律だったりニュースだったりいろんなものを学習、蓄積して学んでいるととりあえず考えてください。
あっ、言い忘れましたが踏み台塾はとりあえずその場でまず理解して自分に落とし込むことで物事を考えていく方針を取っていますので、もし間違い等があったら戻って考え直す主義をとっていますのでもしこの場で間違いがあったとしてもちょっと目をつぶっていただければ幸いです。
続けます。ChatGPTが出てすぐ当時(当時と言っても1年も経ってませんが)無料版と有料版があり無料版は学習情報がちょっと古く現在の総理大臣を「菅総理」と回答していたそうです。正しくは岸田総理ですね。つまり学習していないことは間違うということ。最新情報について聞いた時は注意する必要があります。
あと学習した情報が一次資料かどうかだ。例えば法律だったら条文もしくは判例に基づいているのかだとか、歴史だったら当時の文献に基づいているかとか、評論だったら本人が言ったという資料があるのかとかだ。
例えばこれらの資料が誰かの手を通りまた資料にしたものだったらどうしても個人の考えや主張が入ってくるので二次資料となってしまう。純粋な資料ではなくなってしまう。
だから生成型AIの回答は過信せずに必ず精査して使う必要があると思います。

この記事が気に入ったらサポートをしてみませんか?