見出し画像

子どもの未来のためのAI倫理を考える①

AIの「光と影」と子ども

 人工知能(AI)は、私たちの経済社会に大きな変革をもたらしており、その影響は子どもたちにも及んでいます。子どもたちは既にスマート玩具、ビデオゲーム、チャットボットなどに搭載されたAI技術を介してさまざまな場面でコミュニケーションを行っています。
 しかし、同時にAIは子どもたちのプライバシーや安全・安心に与えるリスクも内包しています。たとえば、AIが使用するアルゴリズムのバイアスにより、特定の子どもにだけ有利または不利な情報が提供される可能性があります。また、AIが組み込まれた玩具を通じたハッキングやセキュリティの問題も実際に起きています。したがって、子どもたちを適切に保護するためには、AIから得られる利益と新たなリスクのバランスを取るための倫理ガイドラインが策定されることが求められます。
 また、Chat GPTにみられるように生成系AIの問題も取り組まなければならない重要な課題となっています。例えば、生成された文章が偽情報を含む場合、子どもたちに対して誤った情報を提供する可能性があります。それによって、バイアスが生じてしまい、子どもたちが適切な判断・行動がとれなくなってしまうという恐れもあります。
また、倫理的・人道的に適切な返答をするようにチューニングされていないAIが、差別的な返答や公序良俗に反するような返答をする問題も起きています。代表的なものを上げると、マイクロソフト社が開発したチャットボット「Tay(テイ)」が人種差別的発言をしたことに対して、同社が謝罪するという事態が生じています。この様に、生成された文章が不適切な内容や暴力的な表現を含む場合、子どもたちの心理的な健康や安全に影響を及ぼす可能性があります。

AIに関する政策的取組

 国際政策機関、政府、学術界、業界団体、企業などさまざまな組織が、AIの開発・運用に関するガイドラインを策定し、AI利用によって生じる問題に対処しています。例えば、2019年の国際連合の報告書では、「アルゴリズムが我々の選択を操作するために常に洗練されている状況において、人間の尊厳についての理解を見直す必要がある」ことを指摘しています。経済協力開発機構(OECD)が策定した「人工知能に関するOECD原則」や、電気電子学会(IEEE)が策定した「倫理的な設計に関する指針」では、人間の幸福や人権の尊重が言及されています。また、総務省では、AIの活用に関するガイドラインが策定され、AIを開発・活用する事業者が人間中心のAI社会原則に基づいて事業活動を行うための指針が示されています。

子どもが接することを踏まえたAI環境

 しかしながら、現代のデジタル時代においては、子どもたちの権利に対する細心の注意が必要です。なぜなら、子どもたちは彼ら自身のために設計されていないAIシステムと相互作用し、その影響を受ける可能性があるからです(UNICEF、2020)。さらに、現行の政策が子どもたちに対するAIの影響に十分に対応しているとは言えません。さらに、子どもたちがAIとどのように相互作用し、影響を受けるのかについてもまだ十分に認識されていません。AIの劇的な影響は、プラスの側面だけでなく、マイナスの側面からも子どもたちの生活を変える可能性があるのです。
そのため、子どもたちの生活環境において、彼らが適切にAIに接するためには、AIの開発・運用において特に子どもたちの安全性、プライバシー、倫理的な配慮、それらを考慮した上でのバイアスを生じさせないアルゴリズム開発が求められます。さらに、AIの潜在的なリスクや限界について理解するために、子どもたちや保護者、教育機関に対してAI倫理に関する教育を講じることが有効となるでしょう。AI技術の利点とリスクを理解し、適切な利用方法やセキュリティ対策を学ぶことにより、より安全にAIを利用することができるようになると考えられます。そのための政策的環境を整備することが、今取り組むべき課題と言えるでしょう。


※本稿は、『国際公共経済研究No.34.』に掲載さ入れた自著研究ノート「子どもがAIの影響を受けることを踏まえたAI倫理政策に関する研究」の内容を改変・修正したものです。


この記事が気に入ったらサポートをしてみませんか?