EI報告書「意図せざるAIと教育の結果」要旨(2023)
教育インターナショナルが2023年10月18 日に発表した報告書「意図せざるAIと教育の結果」の要旨の翻訳です。この報告書の著者はUCLAのWayne Holmes氏です。内容の詳細は原文をご覧ください。以下、原文翻訳です。わかりやすいようにサブタイトルをつけましたが、原文にはありません。
Licence type :CC BY-SA 3.0 IGO
報告書の趣旨
ここ数カ月で明らかになったように、人工知能(AI)は私たちの日常生活のさまざまな側面にますます影響を及ぼしている。これは教育(AI&ED)においても同様である。しかし、AIが教育にどのような影響を与えるのか、教育や学習にどのような影響を与えるのか、教員と学習者の役割をどのように変える可能性があるのかは、依然として不透明である。
そこで本報告書では、AIとEDの現状を分析し、その潜在的なメリットとリスクを明らかにするとともに、AIを使った教育やAIに関する教育が社会正義と人権の原則に沿ったものとなるよう、教員と教員労働組合員の役割を明らかにする。
AIの概要
AI&EDの背景を説明するため、本レポートはまずAIの概要から説明する。AIとは、通常人間の知能を必要とするタスクを実行できる機械の開発を目指すコンピュータサイエンスの一分野であると定義する。AIは1950年代から研究されてきたが、計算能力の進歩、大量のデータの利用可能性、いくつかの革新的な計算アプローチのおかげで、最近劇的な進歩を遂げた。今日、AIが関与していない生活の側面はないように思われる。
AIシステムは、スマホアプリからオンライン・ショッピング、天気予報から医療診断、金融・法律サービスから自律走行車など、あらゆるものを支えている。しかし、こうした発展はエキサイティングに見えるかもしれないが、AIはプライバシーやセキュリティのリスク、有害な偏見、雇用の奪い合い、その他AIが社会に及ぼす潜在的な悪影響など、さまざまな懸念も引き起こしている。こうした理由から、AIシステムには透明性と説明責任がますます求められるとともに、権限剥奪や社会的不公平の問題により大きな関心が向けられている。
AIと教育
報告書は次にAI&EDそのものに移り、AIと教育の関係を、AIを使った教育・学習(AIEDとも呼ばれる)とAIに関する教育・学習(AIリテラシーとも呼ばれる)という2つの要素から論じている。
AIEDはそれ自体複雑である。少なくとも20種類以上のAIEDがあり、その有効性や安全性について一般的な主張をすることはできない。それよりも、各用途、あるいは少なくとも各用途の種類を個別に検討し、AIEDの複数のバリエーションのうち、どの用途について論じているのかを明確にすることが重要である。したがって、本報告書では、AIEDを「教育機関中心型」「生徒中心型」「教員中心型」の3つの重複するカテゴリーに分類し、まず、これらのAIEDがどのようなもので、どのような意味を持つかを論じた後、詳細な例を挙げている(この分野の複雑さを説明する意図がある)。
生徒を対象としたAI
生徒を対象としたAIEDは、現在、その興奮と資金が最も集まっている場所である。AIEDは40年以上にわたって研究され、現在では何千もの中小企業や100万ドルの資金を提供する多数の企業によって世界中で提供されている。このような教育の商業化は、企業が新たなデータリッチなビジネスモデルを利用しようとするため、ますます懸念される問題になっている。生徒に焦点を当てたAIEDの例としては、適応型個別指導システム(adaptive tutoring systems)、対話型個別指導システム(dialogue-based tutoring systems)、仮想作文アシスタント、自動作文評価、チャットボットなどがあり、それぞれが教員の役割の1つ以上の機能を自動化することを目的としている。
教員を対象としたAI
一方、教員に特化したAIEDは、ほとんどが推測の域を出ていない。言い換えれば、(教員の機能を代替するのではなく)純粋に教員をサポートするアプリケーションはあまり注目されておらず、利用可能な例(学習教材の自動キュレーション、教室のモニタリングとオーケストレーションなど)もわずかである。最後に、教育機関に特化したAIEDがある。生徒募集、セキュリティ、財務、その他教育機関が行う必要のある華やかでないバックエンドの管理業務などを支援するために設計されたAI対応ツールが含まれる。これはおそらく、最も目立たないタイプのAIEDだが、将来的には最も影響力のあるものになるかもしれない。
教育用AIツールの問題
実際、AIEDのツールの多くは、倫理的、教育学的、教育的な理由のいずれにせよ、疑わしいものである。特に、既存の偏見や不公平を助長したり、生徒のデータの商業的利用を伴ったり、教育学に原始的なアプローチを組み込んだり、特に発展途上国において、特権階級と恵まれない人々の間の格差を悪化させたりする可能性がある。加えて、本報告書が繰り返し指摘しているように、教育におけるAIの有効性や安全性、あるいは主張されている利点について、規模に応じた独自の証拠は限られている。
AIリテラシー
続いて、AIについて教え学ぶ「AIリテラシー」の重要性について論じる。ヨーロッパだけでなく世界各地の大学では、何年も前からさまざまなAIに関する学位が授与されているが、学校でAIについて教えることはまだ比較的珍しく、あったとしてもそのほとんどが技術に焦点を当てたものである。しかし、AIリテラシーには技術的側面だけでなく人間的側面もある。技術的な側面とは、AIがどのように機能するか、どのような技術や技法が関係するか、どのようにAIを作り出すかということであり、人間的な側面とは、AIの社会的、倫理的、権利的な意味合いについてである。実際、教員と教員労働組合員は、AIに関する教育が人権と社会正義を支援し、教員に力を与え、生徒の主体性を支援することを保証する上で重要な役割を担っている。
AIは知的なのか?
報告書は、AI&EDが提起したいくつかの重要な問題の考察と、いくつかの提言に結実している。第一の問題は、AIが知的であるという主張と、それが社会や教育にもたらす否定的な影響である。
AIは人間の能力を超えるスピードで膨大な量のデータを処理・分析する能力を持ち、知的な行動を模倣し、時には知的にさえ見えるかもしれないが、実際には意識も真の理解も欠如している。実際、人間の知性が持つニュアンスや複雑な思考を再現できるAIシステムは存在しない。したがって、AIが知的であるという指摘は、人間の知性を軽んじ、AIシステムに過度に依存し、人間の繁栄に不可欠な学習の社会的・感情的側面を軽視することにつながりかねない。
個別学習の問題
この報告書はまた、AIを活用した個別学習(personalised learning)の広範な推進にも疑問を呈している。この学習法は、生徒のやる気喪失、モチベーションの欠如、学力格差など、さまざまな教育問題の解決策として100年近く前から提案されてきたものだ。しかし、AIを活用した個別学習は、テクノロジーと個人主義を過度に強調し、コミュニティを犠牲にするシリコンバレーの視点に深く影響されている。
AIを活用した個別学習(差別化された教育とは全く異なる)の重大な欠点の1つは、信頼、モチベーション、エンゲージメントを育むために重要な、教育における社会的相互作用が損なわれる可能性があることだ。一方、個人の学習経路を過度に強調することで、生徒の自己実現を弱め、均質化された学習結果につながる可能性がある。また、コミュニティ形成や社会的スキルの開発における教育の重要な役割を軽視し、生徒の総合的な成長を無視し、社会経済的・文化的格差を永続させる可能性もある。
教員の役割
さらに報告書は、AIEDによる教員の権限剥奪について考察している。生徒が何をどのように学ぶべきかという決定がAIの背後にいる営利団体によってなされる一方で、教員の役割は単なるテクノロジー・オペレーターに縮小されている。これは、教員の専門性と専門性を低下させ、教育を商品化し、教員をサービス提供者と見なすものである。むしろ、AIEDは教員に取って代わるのではなく、教員をサポートするように設計されるべきである。しかし、多くのAIアプリケーションは、教員が自分たちの教室のニーズに合わせてシステムを機能させるのに苦労し、教員の時間を奪うだけである。採点のような作業を自動化することで、コスト削減の可能性を見出す政策立案者もいるかもしれないが、教員に取って代わるためにAIEDを導入することは、授業実践を妥協させ、教育の質を低下させ、生徒の権利と成功を損なうことになる。
教育セクターへのリスク
AIEDはまた、教育セクターの完全性に重大なリスクをもたらし、共有される公共財としての教育を弱体化させる、教育の商業化のエスカレートにも大きく貢献している。企業は必然的に、有効性や安全性、人権や社会正義よりも利益を優先させ、その結果、排他的でアクセスしにくく、説明責任を果たせない教育システムが生まれる可能性がある。特に懸念されるのは、AIEDが既存の偏見や不公平を強化し、恵まれた生徒と恵まれない生徒の格差を拡大する可能性である。さらに、標準化されたテストと測定可能な成果を重視するAIEDは、個々の生徒のニーズを見落とし、教員の創造性を阻害する。
生徒のプライバシー
その他の懸念事項としては、生徒データの搾取(プライバシーや監視の問題を脅かす)、新たなデジタルデバイドのリスク、人的交流の喪失の可能性、技術主義的な狭い教育観の可能性などがある。商業化はまた、教員の役割を低下させ、サービス・プロバイダー(コンピュータのスイッチを入れ、教室での行動を維持する人)にまで低下させる可能性がある。これは、教員の専門家の専門知識と責任を根本的に誤解し、過小評価している。
不平等の強化
加えて、欧米や中国の組織が主導する発展途上国によるAIEDの導入は、不注意にも新植民地主義を永続させ、既存の力の不均衡や制度的不平等を強化する可能性がある。適応型個別指導システムのようなAIツールは、グローバル・ノースの文化や言語を好む固有の文化的バイアスを意図せずに組み込んでしまうことが多く、文化的ヘゲモニーをもたらし、現地の言語や文化を疎外する。このようなAIEDの導入は、通常、地域の文脈から切り離されており、恵まれない生徒をさらに疎外する可能性がある。ひとつの解決策として考えられるのは、地域のニーズや状況に配慮した、地域主導のAIEDである。
AI教育倫理
AIEDの適用が、透明性、説明責任、倫理的責任の原則を確実に守ることも、既存のパワー・ダイナミクスを強化しないために極めて重要である。実際、教育における責任あるAIイノベーションには倫理が不可欠であり、特にデザインによる倫理の原則が重要である。これは、AIEDの開発に当初から倫理的配慮を積極的に組み込み、透明性、データプライバシー、バイアスの緩和、人間中心性を終始確保することを意味する。透明性を確保することで、AIによる意思決定やデータの使用方法を理解し、信頼を高めることができる。プライバシーには、ユーザーの信頼を維持し、機密情報を保護するために、責任を持って生徒のデータを管理することが含まれる。
偏見に対処し、公正さを促進することで、教育現場における潜在的な差別や不公平を防ぐ。人間の主体性を維持することで、AIが人間の教育者や意思決定を補完することはあっても、取って代わることはない。
構成主義の導入
構成主義的な教育法をAIシステムに取り入れることで、能動的な関与と批判的思考を促進することができる。要するに、デザインによる倫理は、人間の価値観を維持し、効果的な教育と学習の実践を促しながら、AIの可能性を活用するのに役立つかもしれない。
教員組合の役割
最後に本報告書は、教育におけるAIが人権、社会正義に合致し、教員と生徒の主体性を支援することを保証する上で、教員と教員労働組合員が極めて重要な役割を担っていると結論づけている。これは、人間中心のAIリテラシー(AIの技術的側面だけでなく人間的側面も含む)に裏打ちされた、教育に対する民主的統制とAIEDの倫理的利用を提唱し続けることによって達成できるかもしれない。教員にAIトレーニングの権限を与え、AIの意思決定プロセスに参加させることで、生徒のAIリテラシーを効果的にサポートすることができる。
人権と社会正義
さらに、教育におけるAIの透明性、説明責任、規制を提唱することが最も重要である。教員、生徒、保護者、地域住民など、すべてのステークホルダーを巻き込むことで、AIと人権や社会正義との整合性を強化することができる。教員と労働組合員は、教育におけるAIをめぐる物語に批判的に関与し、根拠のない主張に疑問を呈し、有効性と安全性の証拠を要求し、教育におけるAIに関する重要な決定を教育者が集団的に行うようにし、AIEDの意図しない結果を回避する必要がある。
この記事が気に入ったらサポートをしてみませんか?