生成AIに対応した情報リテラシー教育
私大連の「大学教育における生成 AI の活用に向けたチェックリスト 〔第1版〕」では、大学が組織的に検討すべき内容として、「学生に対して生成AIの理解を深める情報リテラシー教育」が必要とされている。
2023年11月現在では、生成AIの活用に対して多くの大学が指針やガイドラインを提示しているが、具体的に情報リテラシー科目として生成AIの理解を深めるような講義は十分に展開されていない。
2024年度以降、新入生のみならず在学生にも生成AIを前提とした情報リテラシー教育を施す必要があるだろう。
何を教えるか? 生成AIのためのトピック
共通教育として最低限のリテラシー教育に含むべきキーワードをUNESCOや文科省、私大連などの公的なガイドラインからピックアップしてみると、
著作権
アカデミック・インテグリティ(学問の誠実性)
情報セキュリティ
データバイアス
などが挙げられるだろう。
また生成AIとつきあううえでのキーワードとしては、
オプトアウト
プロンプト(プロンプトエンジニアリング)
ハルシネーション
といった専門用語が必要となるだろう。
これらの専門用語の一般的な認知度は2023年末時点では高くはないと思われ、情報系の専門用語の扱いだと思われる。各種調査による「生成AI」という単語の認知度調査の結果が2023年の初頭と終盤で大きく向上していることを踏まえると、2025年に向けては生成AIに関連する用語の一般的な認知度もかなり向上するのではないだろうか。
ここからは、生成AIのための情報リテラシー教育で指導すべき内容として、以上のトピックを概説したい。
生成AIの概論
人工知能の概要:強い/弱いAI、機械学習、言語モデル(確率的オウム)など
生成AIの概要:生成モデルとその応用
生成AIを用いて良い場面と用いるべきではない場面
入力して良い文書としてはいけないもの(大学ごとに異なる)
対話型生成AI(ChatGPTなど)を用いた学習の例
プロンプトエンジニアリング
生成AIの出力を得るための指示をプロンプトとよぶ。
一般的にはプロンプトは
① 命令(例:翻訳してください)
② 背景・文脈(例:あなたは優秀な翻訳者です)
③ 入力データ(翻訳したい文書)
④ 出力指示(例:専門用語を使わずに、丁寧な文体で)
からなる。
適切なプロンプトを入力して望む結果を生成するスキルや、有効なプロンプトを開発する手法はプロンプトエンジニアリングと呼ばれ、2025年以降、特に大学生には必須の情報スキルとなるだろう。
画像生成系では文章系以上に精密なプロンプト(ネットスラングで「呪文」と称される)が求められ、思い通りの画像を生成するために様々な工夫、まさにエンジニアリングが行われている。
オプトアウト
入力する情報をコントロールする方法。機械の学習データとして再利用させない。未公開データや個人情報の外部流出を防ぎ、リスクをマネジメントする。
学習データのバイアス
生成AIのもとになるLLM(大規模言語モデル)の学習データに含まれるバイアスに注意することは、多くの大学の指針で指摘されている。
特にUNESCOガイダンスは、生成AIの学習データが、グローバルノース(北半球の裕福な地域)のデータに偏っていることを強調する。
日本はグローバルノースの中でも非英語圏で、有色人種の割合が多いなど、バイアスによる不利を受けうる環境にもある。
また、現在指摘されているバイアス(たとえば宗教バイアスに関しては(Abid, Farooqi, and Zou 2021))以外にも、未確認の潜在的なバイアスがあることに注意したい。
思いつくまま列挙すれば、性別、民族、人種、社会階層、地域、言語、年齢、学習データの情報源、障害、宗教、性的指向、政治、職業、感情、教育水準、消費文化など、十分に検証されていないバイアスは枚挙にいとまがない。
このバイアスは気づきにくく、生成AIを用いたレポートの添削などでサブリミナルに思考が誘導される危険性があるため、今後の教育における生成AIの活用においては大きな焦点となるだろう。
EUがソーシャルスコアリングや人事評価において生成AIを利用しないよう勧告するのも、言語モデルが潜在的に多くのバイアスを含み、既存の価値観の強化、格差の拡大にはたらくことに払拭しきれない懸念があるためである。
したがって教育評価(入試から小レポート添削まであらゆるレベル)に生成AIを活用することは慎重さが求められる
(名古屋大は教育評価への導入の可能性を示唆している。教員のFDの記事も参照)。
ハルシネーション
生成AIを利用する学生は、生成AIが現実に存在しない答え(幻想、Hallucination)を生成する特徴を理解する必要がある。
たとえば筆者がChatGPTで「兵庫に独特な食事マナーがあるそうですが、それはなんですか」と入力したところ、5回目の再生成で
という頓狂なマナーを生成した。
このように、LLMの学習元のデータに存在しない概念を生み出してしまうことをハルシネーションと呼ぶ。
私は兵庫県出身ではないため、実際にこういったマナーがあるのかもしれない。しかし問題は、利用者にとって馴染みのない話題、とくにデータの少ない、バイアスの被害を受けやすい、さらに言えば大学において研究する価値のある話題ほど、生成AIの解答の真偽を容易には検証できないことにある。
レポートを書く際にはAIの生成内容の真偽を検討せよと勧告する大学もあるが、はたして生成AIが「確率的オウム」として並べた単語の間違い探しに時間を取られることが健全な教育、学習の姿だろうか?
まとめ
色々な公的文書をもとに、生成AIをテーマとした情報リテラシー教育のいくつかのトピックを解説した。
私自身、情報系の教員としていくつかの大学で情報リテラシー系の教育にあたった。大学のレベルによって初年次教育は、ワードやエクセルを教えたり、プログラミングをしたり、統計ソフトを入れたりと様々だ。情報リテラシーはアカデミックライティングにおける著作権を中心に指導すると思う。
ワードの使い方を教えない大学はあるが、生成AIへの対応は、大学のレベルを問わず必要となる。
今後、教える内容のレベルの差異をつけるとすれば、生成AIの動作原理(機械学習あたりから)、アカデミック・インテグリティなどは、私が以前所属した地方私大からすると少しハイレベルかなという印象。
大学ごとに、入力して良い文書のセキュリティレベルは異なるので、統一的な教材はなかなか難しいかもしれない。教材を作るとするなら大枠を作って、各大学がカスタマイズできるようにしていく必要がありそう。
この記事が気に入ったらサポートをしてみませんか?