見出し画像

アジェンダブログ:AIシステムの偏見をなくすために企業がとるべき3つのステップ

世界の人工知能(AI)ソフトウェア市場は、今後数年間で急成長し、2025年までに約1,260億米ドルに達すると予測されています。ただし企業など組織がAI活用への移行を進める一方で、AIの中核を担うアルゴリズムが人種差別性差別その他無意識的な偏見を内包し、AIの公正な開発を阻害していることも指摘されています。

本記事では、倫理的で偏見のないAI開発に向けた3つのアプローチを紹介するアジェンダブログ「3 steps businesses can take to reduce bias in AI systems」をご紹介します。

原文(3 steps businesses can take to reduce bias in AI systems)はこちら↓

AI開発における欠陥

これまでは技術的進歩がもたらす潜在的な問題よりも、世の中の複雑な問題を解決するためのAI開発が重視されてきました。結果としてアルゴリズムによる差別的事例が注目を集め、深刻な問題となっています。

例えば2016年にMicrosoftが開発したTwitter上での自己学習型チャットボットTayは、AIツールによって言語の基礎を学習し、会話に参加することを目的としていましたが、実験の結果、人種差別的かつ性差別的な特性を持つことが判明しました。他にもマサチューセッツ工科大学(MIT)で行われたAI顔認識の実験では、白人女性が99%識別されたことに対して、黒人女性はたった65%しか識別されなかったこともわかっています

こうした事例は、意図的に人種差別を助長する設計をしていないにもかかわらず、AIツールが差別を制御できないことを示しています。AIにより生じた差別の多くは、プログラマーの意図的操作ではない想定外の特性であるため、問題の原因を特定したり、裁判で証明したりすることが非常に困難です。

差別や偏見が残る不均衡な社会において、倫理的で公平なAIツールを開発するための3つの取組みをご紹介します。

①AIに携わる人間の多様性

アルゴリズムの開発と実装は、開発者と業界内で権力を持つ人々の存在が大きく影響しています。AIに携わる専門家の集団は、多様性に欠けるとことが課題として挙げられています。ジョージア工科大学のAyanna Howard教授とCharles Isbell教授は、データとリーダーシップの観点から多様性を重視し、特定の決定に対して説明責任を要求することが、将来的にAIの公正な開発と実装を達成するための重要な指針になるという見解を示しています。

また、人間の偏見がアルゴリズム開発に浸透しないようにするための監視システム、規制、および一般的な倫理的枠組みを強化する必要があります。McKinsey & Companyでは、AIを活用する専門家やビジネス関係者が意識するべき6箇条を以下の図のように整理しています。

画像1

上図の原文「McKinsey & Company "Tackling bias in artificial intelligence (and in humans)」はこちら↓


②偏見のない「善いデータ」

過去のデータセットにおける偏見の解決に役立つ可能性をもつイニシアティブの開発も進んでいます。例えばオンタリオ大学の研究者は、AIモデルをトレーニングするために、MNIST(手書き数字画像の大規模なデータベース)を使用して、約6万点の画像を5つに絞り込みました。

こうした手順を様々なコンテキストに対して正常に適用できると、大規模なデータベースを購入することができない企業が、よりAIにアクセスしやすくなります。加えて、関連するモデルをトレーニングするために必要な個人情報の量を抑えられるため、プライバシー保護とデータ収集力を向上させることができます。

③AI開発の市民教育

AIがビジネスプロセスに深く浸透するにつれて、個人の選択に影響を与える可能性が高まります。今後は、AI開発および付随する課題に対する市民教育が必要不可欠です。

市民がテクノロジーへの理解を深めることは、AIの採用状況を改善するほか、AIの実装と効果への評価にプラスの影響を与えます。より意識が高い市民は、自由や権利と衝突する可能性のある監視など、偏ったAI技術もしくは不公正なシステム操作の受け入れに敏感になります。

AIの公共調達に関するガイドライン

世界経済フォーラム第四次産業革命センター(C4IR)は、英国政府と協力してAI技術のより倫理的かつ効率的な政府調達のためのガイドラインを作成しました。これらのガイドラインは、AIテクノロジーの採用を検討している政府にとって参照先として役立つだけではなく、AIの効果的かつ責任ある公共調達と展開のための基準を設定しています。すでにヨーロッパ、ラテンアメリカ、中東の政府は、AI調達プロセスを改善するためにこれらのガイドラインを試験的に導入しています。

上記の原文「Helping governments to responsibly adopt AI technology」はこちら↓


AIによる偏見をなくすためには

「人間中心で技術を開発する」ためには、イノベーションを目指すだけではなく、社会に与える潜在的な影響についても十分な注意を払う必要があります。組織的・制度的な偏見が存在する社会を生きる中で、これまで私たちはそうした事柄を意識しながら生活してきませんでした。しかしながらAIによる偏見をなくすためには、組織と個人レベルで偏見を決して再現しないための視点をもつことが必要となっています。

執筆:
世界経済フォーラム第四次産業革命日本センター
竹原梨紗(インターン)

この記事が気に入ったらサポートをしてみませんか?