見出し画像

子どもの未来のためのAI倫理を考える②

AIガイドラインに求められる子どもへの配慮

AIの開発・運用ガイドラインに関する動向


 近年、AIの開発・運用に関するガイドラインの動向が注目を集めています。さまざまな組織や政府・国際機関が、倫理的なAI設計原則や社会的な利益を重視した研究に取り組んでいます。

 例えば、IEE(IEEE)は2016年にGlobal Initiative on Ethics of Autonomous and Intelligent Systemsを立ち上げ、倫理に基づいたAI設計原則を公開しました(IEEE, 2017)。また、The Future of Life Institute(FLI)はAsilomar AI原則を提案し、安全かつ社会的に有益なAI開発についての研究や倫理、価値観に言及しています(The Future of Life Institute, 2017)。これらの取り組みは、専門家、実務家、市民が協力し、AIに関する共通の理解を築くことを目指しています。ガイドラインには、非差別、データへのアクセス、プライバシーの保護、安全性とセキュリティ、スキル、透明性と説明可能性、アカウンタビリティと責任、社会的対話などが含まれています。

 日本でも、総務省の「AI利活用ガイドライン」が人間中心のAI社会の実現を目指し、人間の尊厳と個人の自律を尊重することを掲げています(総務省, 2019)。人工知能学会(JSAI)も「人工知能学会 倫理指針」において、AI開発における倫理の遵守を求め、人類への貢献を重視しています。

 国際機関である欧州委員会(High Level Expert Group on AI (HLEG))も「Ethics Guideline for Trustworthy AI」を定めており、人間の自由と自律の尊重を中心に据え、AIシステムとの相互作用において個人の自己決定や民主的なプロセスへの参加を促しています。グローバル企業連合であるAmazon、DeepMind/Google、Facebook、IBM、Microsoftから成る「Partnership on AI」もAIの研究と技術のコミュニティが国際条約や人権を尊重し、個人のプライバシーやセキュリティを保護し、AIの発展により影響を受ける全ての当事者の利益を理解し、AI技術の社会的責任を負うことを規定しています。

AIの開発・運用ガイドラインに欠けている子どもへの配慮

 しかし、現在のガイドラインは主に成人を対象としており、子どもに関する考慮が不十分であると指摘されています。このような状況の中、UNICEF(2020)は「Policy guidance on AI for children」という報告書を公表し、子どもに対するAIの機会とリスクに対処するための政策的な方向性を示しました。しかし、この報告書は国際機関としての立場から示されたものであり、各国が子どもに関連したAI倫理政策を策定するためには、その国の経済、社会、民族、政治などの状況を考慮する必要があります。さらに、Penagos et al.(2020)の研究によれば、世界20か国のAI倫理政策に関連する報告書を分析した結果、ほとんどの国が子どもに関するAIの問題について具体的な提言や政策的な示唆を示していないことが明らかにされています。

 これらのことから、子どもへの影響の視点から、日本におけるAI倫理政策の方向性を示すことが求められるでしょう。AIが子どもたちに与える影響に対処するためには、子どもの発達やプライバシー保護、教育の観点からの考慮が重要です。また、教育機関や保護者、政府、産業界の連携も不可欠です。AI倫理政策の策定に際しては、子どもの立場や権利を尊重し、彼らの幸福と安全を最優先に考える必要があると言えるでしょう。


※本稿は、『国際公共経済研究No.34.』に掲載さ入れた自著研究ノート「子どもがAIの影響を受けることを踏まえたAI倫理政策に関する研究」の内容を改変・修正したものです。

この記事が気に入ったらサポートをしてみませんか?