【AIと戦略】 AIが社会的な差別を増幅しうる『予測マシンの世紀 第四部』#23
こんにちは。シンラボ共同代表の草場です。
AIとの共同に関して、『予測マシンの世紀 AIが駆動する新たな経済』をまとめていきます。推理小説のようで、ドキドキワクワクです。
目次
はじめに―機械知能
安さはすべてを変化させる
第1部 予測
第2部 意思決定
第3部 ツール
第4部 戦略
第十五章 経営層にとってのAI
第十六章 AIがあなたのビジネスを変容させるとき
第十七章 あなたの学習戦略
第十八章 AIリスクの管理
第5部 社会(AIと人類の未来)
いよいよ第四部、戦略です。どう戦略に組み込むか、一番大事な部分です。先日の記事は以下。
■AIリスクの管理
それではAI導入によりもたらされるリスクを見ていきます。
米国連邦取引委員会の最高技術責任者を務め、現在はハーバード大学の教授であるLatanya Sweeneyは、同僚が自分の論文を探すために自分の名前をGoogleで検索したところ、自分が逮捕されたことを示唆する広告を発見した。興味をそそられた彼女は、同僚のAdam Tannerの名前を入力すると、同じ会社の広告が表示されたが、逮捕を示唆するものではなかった。さらに調べてみると、黒人の名前が逮捕広告のトリガーになっているのではないかという仮説を立てた。Sweeneyはこの仮説をより体系的に検証し、LakishaやTrevonといった黒人に関連する名前をGoogleで検索した場合、JillやJoshuaといった名前を検索した場合に比べて、逮捕歴を示唆する広告が表示される確率が25%高いことを発見した。
詳細は以下。「Discrimination in Online Ad Delivery」という記事に詳細が記載されています。これはなかなかの現象です。AIが学習しているデータにバイアスがかかっているためです。そして影響が大きいです。自分の名前を検索したときに逮捕を示唆する広告が出てきた場合、顧客とのやり取りにも大きな影響を及ぼします。
このようなバイアスはダメージを与える可能性がある。検索者は、ある人が仕事に適しているかどうかを確認するために情報を探しているかもしれない。もし、「Latanya Sweeney、逮捕される」といったタイトルの広告を見つけたら、検索者は疑念を抱くかもしれない。これは差別的であり、名誉毀損でもある。
なぜこのような広告が出てきたのでしょうか?
Googleは、広告主が特定のキーワードをテストしてターゲットにするためのソフトウェアを提供している。広告主は、人種に関連する名前を入力して広告を掲載していたか?Googleはそれを否定している。
では他の可能性は何でしょうか?
もうひとつの可能性は、「品質スコア」(クリックされる可能性が高いことを意味する)が高い広告を宣伝するGoogleのアルゴリズムの結果、このパターンが出現したというものだ。ここでは、予測マシンが役割を果たしている可能性が高い。
どういうことでしょうか?
例えば、名前を検索している潜在的な雇用者が、他の名前よりも黒人の響きのある名前を連想して逮捕広告をクリックする可能性が高ければ、そのようなキーワードでそれらの広告を掲載することに関連する品質スコアが上がるかもしれない。Googleは差別を意図しているわけではない。しかし、そのアルゴリズムが社会にすでに存在する偏見を増幅させる可能性がある。このようなプロファイリングは、AI導入のリスクを例示している。
Googleの信用スコアは差別を生み出すために作られたものではありません。しかし、人々の中にある偏見を増幅する可能性があります。仮にある人が黒人と逮捕を連想してしまうとすると、そういった広告をクリックします。するとアルゴリズムは品質スコアが高いと判断し、黒人に多い名前を検索すると、逮捕を示唆する広告を表示してしまいます。
これは防ぎようがあるのでしょうか?考える必要があります。この本で勉強していなかったら気付かなかったです。
この人種プロファイリングの出現は、社会的な問題であると同時に、Google社のような企業にとっても潜在的な問題だ。雇用差別禁止法に抵触する可能性がある。幸いなことに、Sweeneyのような内部告発者が問題を提起すると、Googleは非常に迅速に対応し、問題を調査して修正した。
AIを導入している企業にとっては、アルゴリズムが判断したから自社に非はない、とは言えないですね。Googleの対応は流石です。どのように修正したのか、知りたいです。
このような差別の例はある意味でわかりやすくでるので、修正がしやすいです。しかし、この差別がとても微妙な方法で出てくることがあるそうです。明日はそこを見ていきます。
草場壽一
https://sinlab.future-tech-association.org/