見出し画像

生成AIと教育を考える5「根拠を調べる」

本日(R5.6.2)の読売新聞の編集手帳にチャットGPTが米国の裁判で起こした事件のことをとりあげていた。弁護士がチャットGPTを使って作った準備書類でありもしない判例が用いられていたというのだ。少しチャットGPTを使ってみれば、このことはすぐわかる。前回でもとりあげたが、チャットGPTで作られた文章は根拠に基づいた完璧なものである。しかし、この根拠も解から導かれた最適値の文章なのだ。いまのところ、チャットGPTは悪意をもつことなく平気でウソをつくのだ。そもそも生成することが得意なAIなのだから、もっともらしい完璧な文章を生成してしまうのだ。

生成AIにこの答えは根拠が間違っていると教えてやらなければならない。もっとも間違いと見抜ければの話であるが・・・。問題は、このような事態が続くとこのようなの知見も生成AIが成功例として取り込んでしまうことにある。間違いを指摘されない限り、生成AIが勝手につくりあげた事例は正しい根拠になってしまう。ネットで拡散し、それは事実になってしまう。これでは歴史の改竄どころの話ではない。いったい何が正しくて、何が間違いなのか。もはや信じられるものがなくなってしまう恐れがある。

具体的に考えてみよう。チャットGPTで、多くの人が特定の人物の検索をしてみたと思う。そこには、ありもしないその人物の経歴が述べられていて、これでは使い物にならないと思ったはずだ。しかし、そのことが間違いだと指摘されない限り、ここで生成された「ウソの経歴」もいったんネット上にデータとしてスタンプされているはずだ。チャットGPTは、間違いとは思ってなくネット上のデータとして今後も引用し続けるだろう。そのうちそれが一般化してしまう。他の生成AIもネット上から拾ってしまうかもしれない。

中学校の国語教育では、文章をかくときに根拠を明らかにすることが重要と指導する。チャットGPTに文章を書かせると、明らかに根拠に基づいた文章を瞬時に生成する。「具体例を用いて」、とオプションをつければなるほどという具体例を示してくれる。しかしである。その根拠は事実ではなく、チャットGPTが結論に都合のいい最適値の根拠を生成しているのである。具体例もしかりである。

誰もが生成AIを入れたスマホで生活しだすのは、もう時間の問題。溢れる誤情報の中でどうやって根拠の正しさを知ればいいんだろう。

さて、どうしたものか。

この記事が気に入ったらサポートをしてみませんか?