![見出し画像](https://assets.st-note.com/production/uploads/images/141281479/rectangle_large_type_2_7cf270285f3d8a7d3e00a42f096196ed.png?width=800)
#11 「生成系AI」は「教師の壁」を越えられるのか①
「『AI』の発展により人間の仕事が奪われる!」
という決まり文句。
近年、人工知能(AI)の飛躍的な発展により、私たちの生活は大きく変わりつつあります。より良くなる分にはいいですが、最初に挙げた文句のように危機感を覚える人も少なくありません。
教育現場も「AI」の恩恵を受け、それを活用した教育ツールや学習支援システムが次々と登場しています。この変化は、教師の役割や仕事にどのような影響を与えるのでしょうか。また、本当に学校現場に「生成系AI」を持ち込めるのかを考察したいと思います。
「AI」の定義
最近、「ChatGPT」や「Google Bard」をはじめとした「生成系AI」の発展が話題になっています。多くの人は知っていることだと思うので、簡単に。
「人工知能」「AI」と言えば、先に述べた「生成系AI」を指すことが多くなりましたが、それらが台頭するまでは、人間が与えた大量の情報(データ)を分析したり、条件や命令に沿って出力するもののことを指すものを「人工知能」ないしは「AI」と呼んでいました。
「生成系AI」と「AI」の違いを一つ挙げるとするならば、同じ条件下で毎回同じデータが出来上がるかどうか。つまり「再現性の有無」ということだと私は思います。
再現性の少ない「生成」と再現しないといけない「出力」
生成系AIには、「深層学習」という技術が使われており、与えられた情報をAIが自ら学習して、使用者からの条件に従って、データをその都度「生成」します。その「生成」されるデータは、全く同じものを生成しようとしても苦労してしまいます。毎回オリジナル風のデータが出来上がり、使用者が「再現」しづらいものであることが多いということです。
同じ「ような」ものは作れても、完全な再現はできません。
対して従来の「AI」は、事前に蓄積されたデータを、使用者の条件に従って「出力」します。求めていたものを「予測したとおりに作ってくれる」ということです。
この場合は、同じ条件であれば、毎回全く同じものが「出力」されるはずです。
また、蓄積されたデータに「嘘」がない限り、「正しい」ものが出来上がります。
あるレストランのお話
唐突ですが、あるレストランのお話。(フィクションです)
「客」はそのレストランの「料理人」の「料理」を食べたい。
「料理人」は、「客」から「注文」を受けます。
その「注文」に従って、自らの知識・経験をもとに「料理」を「調理」します。
「客」は出された「料理」を食べ、一方では満足し、もう一方では不満を抱きます。
満足した「客」の中には追加「注文」をするものやそれを他の場所で再現しようと「レシピ」を聞くものもいます。
不満を抱いた「客」の中には満足いくまで作り直しを要求するものがいたり、その「料理」に調味料を添加してアレンジを加えるものもいたりするでしょう。
この「客」と「料理人」の関係は、「使用者」と「生成系AI」に言い換えることが容易です。
「使用者」はその「生成系AI」の「データ」が欲しい。
「生成系AI」は、「使用者」から「条件」を受けます。
その「条件」に従って、自らの知識・経験をもとに「データ」を「生成」します。
「使用者」は出された「データ」を受け取り、一方では満足し、もう一方では不満を抱きます。
満足した「使用者」の中には追加「条件」を出すものやそれを他の場所で再現しようと「レシピ」を聞くものもいます。
不満を抱いた「使用者」の中には満足いくまで作り直しを要求するものがいたり、その「データ」をアレンジするものもいたりするでしょう。
生成AIに与える条件(命令)を「レシピ」とも言いますが、「料理」でも同じく「レシピ」に従って調理すれば、再現ができるはずです。
しかし、プロの料理人の作ったものと一般人が作ったものには差異が出てきます。また、「料理人」「レシピ」が同じでも、まったく同じものを完全に再現するのは難しい。似ているのは「味」くらい。
生成系AIでも同じことが言えます。
「味」が同じものは作れても、同じものを完全な再現はできません。
しかも、「使用者」にとっての「正解」とも差異が生まれる場合もある。
つまり、生成系AIは「真偽」を問わない存在であると言うことです。
「料理」と同じで「正解」は人の数だけある。
だからこそ「嘘が多い」と判断してしまう人が多く、積極的な利用を避けるのではないでしょうか。
「正解」を教えたい教員
やっと学校の話につながります。
「嘘」を教えるのを避けたい教員は、「正しい」情報を求めます。
冗談を言うことはあっても、「嘘」はいけない。
一般社会でも同じですが、学校などの「公的な空間」では、より「正しさ」を求められます。
教育現場で「生成系AI」が使いづらいのは、これが理由になるはずです。
「生成系AI」は、「真偽」を問わない「データ」を「生成」するからです。
裏を返せば、「データ」の「真偽」を判別できなければ、使用しない方が良いというところでしょうか。
「教師」がそう判断するから、いつまでも「生成系AI」は教育現場には持ち込まれない。
それを私は、【「生成系AI」は「教師の壁」を越えられない】と言いたいのです。
生徒が「嘘」に巻き込まれないように。
「正解」を与え続けたらいい。
だから「真偽」が混じる「生成系AI」は「教師の壁」を越えられない。
私がここで述べたいのは、
学校では「正解」だけを「出力」する従来の「AI」を使い、「真偽」の入り混じる「生成系AI」は使わなければいい!
と言うことではありません。
学校で「正誤」「真偽」が問われる行為には「生成系AI」を使わなければ良い!
と言うことです。
「生成系AI」は「教師の壁」を越えられるのか②
に続きます。
この記事が気に入ったらサポートをしてみませんか?