2章|生成AIに関する論争と教育への影響|ユネスコガイダンス要約
2.1 デジタル貧困の悪化
(補足)これまでもデジタル貧困は指摘されてきたが、ワード、エクセルなどのオフィスソフトをやめて、無料のオープンオフィスソフトにするといったレベルの対応では済まない。エルゼビアなどが途上国の論文投稿料を下げているように、生成AIの企業がデジタル貧困と格差にどこまで配慮するのか?
(補足)先進国、グローバルノースの価値観:先進国や経済的に発展した国々に特有の価値観や文化的特徴。個人の自由や民主主義、市場経済、技術革新への重点などを含む。生成AIの訓練(学習)は基本的に先進国の価値基準でデータを収集が行われ、システムが構築されている。例えばデータとプライバシーの関係は、個人主義と全体主義、共産主義では大きく異なる。
多元的な価値観、研究や教育に特徴的な価値観をどのようにツールとしての生成AIに持ち込むかが問われる。
2.2 国家規制の適応の遅れ
2.3 同意なしのコンテンツ使用
(補足)
生成AIはウェブ上のデータを学習しているが、その学習元のデータは基本的には不明で、どのソースがどの程度含まれているかが明らかではない。
学術的に不正確な内容も学習されている。
例えば生成AIを用いて作成されたレポートを、生成AIを用いた採点アシスタントツールで評価すると、レポートの内容の事実関係の評価ができないことがある。
(補足)
研究上のデータ収集時にはインフォームドコンセントや著作権を含め、被験者やデータ所有者の権利を保護する必要があるが(2.3コラム)、生成AIを用いた場合にそもそもどこからデータを収集したか、そのデータをどのように処理したかがブラックボックス(2.4)という問題がある。
2.5 インターネットを汚染するAIによる生成コンテンツ
(補足)この生成AIが本質的にもつバイアスに気づく「教養」は生成AIリテラシーとして重要だろう。
2.6 現実世界の理解の欠如
2.7 意見の多様性の低下と、既に周縁化されている声のさらなる周縁化
(補足)ネット上に声を上げない限り「ない」ものとして扱われ、データにアクセスできない人、ネット上で周辺部に位置するコミュニティの価値観が無視される。これは今の問題だけでなく、生成AIが訓練を繰り返すことで強化され、価値が固定化されることが大きなリスク。
例えば生成AIに「関西弁で出力」はできるが、「土佐弁で出力」はできない。
また偽情報を意図的に多くweb上にばらまくことで、生成AIの価値観を特定の方向に誘導することも技術的には可能。
2.8 ディープフェイクのさらなる深化
(補足)最悪なのは、研究者が偽のデータ、意図的に生成された誤った情報、フェイクの動画や画像、ニュース、書籍に基づいて論文を書いてしまうことだ。
(補足)それだけではなく、自分が発表した文書、画像、データなどが、非倫理的な生成AIに学習されてしまう可能性も認識しないといけない。
様々な規制や対応が検討されているが、現状、自分の著作物が生成AIに学習されることを避けたければ、基本的には「学習させないで」と表明するか、本当に嫌ならweb上に上げないという対策しかない。
これは2.1や2.3で指摘されている特定の価値観が優先されるという問題、つまり「web上にあるものはみんなのもの」という価値観が優先された結果であろう。
この記事が気に入ったらサポートをしてみませんか?