見出し画像

4IRアジェンダブログ:組織が遵守すべき9つのAI倫理原則

人工知能(AI)利用が進むにつれ、倫理的・道徳的な問題を考慮する必要性が増していきます。自動化が生む偏見や雇用の喪失など、AIがもたらしうるリスクについて世界中の組織が認識を深める一方で、AIが組織や社会に多くの利益をもたらしていることも確かな事実です。AIが引き起こし得る潜在的な悪影響とテクノロジーを採用しないことで発生するコストのトレードオフを考える上で、明確なガイダンスを用意することによって、個人や組織に推奨される倫理的なプラクティスを提供することが出来ます。AIのもたらす複雑な倫理的ジレンマに組織が対処するための3つの新たなプラクティスを提示するアジェンダブログ「9 ethical AI principles for organizations to follow」をご紹介します。

原文(9 ethical AI principles for organizations to follow)はこちら↓

AI倫理原則の紹介

AIのリスクが増加する一方で、AIの開発・使用の指針となる倫理原則を発表する官・民の組織も増加しています。倫理原則を公表する組織はテック企業から宗教団体にいたるまで拡大していますが、2019年5月の時点で42ヵ国がOECDのAI倫理原則の第一版を採用しており、今後も続々と採用される見込みです。

本ブログの筆者であるPwCは、世界的に認知される基本的人権、国際的な宣言や条約、様々な組織、企業、イニシアチブによる既存の行動規範や倫理原則の調査に基づき、200以上の原則を含む90以上の倫理原則を9つのAI倫理原則に集約しています。この9つの基本原則は、認識論的原則Epistemic principles)と一般AI倫理原則General ethical AI principles)に分けられ、AIシステムの倫理的妥当性を評価・測定するベースラインとなります。

認識論的原則は、AIの倫理性を調査するための前提条件を構成し、AIシステムが倫理原則を満たしているか判断するための条件を示しています。一方、一般AI倫理原則は、AIが適用される多くの場面で有効な行動原則を表していて、特定の使用分野で倫理的ジレンマに直面した際のAIソリューションがどのように機能すべきかを提示しています。

画像1

AI倫理原則の文脈

AI倫理原則の解釈については、文化の違いが重要な役割を果たします。そのため、原則はまずAIソリューションが運用されるコミュニティのローカルな価値観、社会規範、行動を反映するように文脈化Contextualization)する必要があります。

文脈化が重要となる理由として、公平性の概念が挙げられます。公正さを測る方法は数多く議論されてきましたが、システムが「公正」であるためには、誰が・何を・どこで・どのように公正であるべきかを特定する必要があり、公正さについての見解は規制当局によって異なります。そのため、文脈に応じ、主要なステークホルダーが自分にとっての公正性を定義する必要が生まれるのです。

文脈化の過程では、調査担当者はステークホルダーとその価値観、およびテクノロジーの使用によって生じる可能性のある対立を特定する必要があります。

画像2

AI倫理原則を人権や組織の価値観と結び付ける

倫理原則を特定の人権に結び付けることは、規則の曖昧さを無くすために最も重要です。AIの実践の基礎として人権の考え方を浸透させることは、道徳的・法的な説明責任を確立するとともに、人間中心のAIを開発することに役立ちます。また、このアプローチは欧州委員会の信頼できるAIのための倫理ガイドライン(Ethics guidelines for trustworthy AI)に則っています。

各組織がAI倫理原則を公表し透明性を確保することに留まらず、世界中から集めた原則を元に分析が行われ、再度、ベストプラクティスを基に文化・組織に応じた適用が推進される……AI倫理原則のアジャイルな進化に今後とも注目です。

世界経済フォーラム第四次産業革命日本センター               佐藤良磨(インターン)

この記事が気に入ったらサポートをしてみませんか?