見出し画像

racial bias and Google

ざっとgoogleで検索すると以下のような問題がでてくる。大別すると、雇用など社内の問題と、googleが提供するサービスの問題とに分けられる。この2つの問題は、雇用は雇用を決定する人の判断の問題、後者のサービスは実はgoogleのようなサービスの場合はアルゴリズムの問題だと分けることができるのではないか。
雇用差別の問題など社内の問題
〇 2022年3月には、Googleが「人種差別的カルチャー」をもっていることが同社の人種構成比率などを根拠に主張され、対Google訴訟になり多数の報道記事がでている(なおAppleも、解雇、待遇などで人種差別があるとする訴訟を多数抱えている)。
Google gives Black workers lower-level jobs and pays them less, suits claims, The Guardian, Mar.18, 2022
→ 調べて見ると、Googleをめぐって、解雇や待遇が人種差別的であるという訴訟は、繰り返し起こされている。なお、以下は同社がまとめたdiversity状況の報告であり、実際の数値でも黒人の雇用比率はこれまで低かった。他方で近年、黒人の雇用を拡大し状況を修正していることも分かる。
Google Diversity Annual Report 2022
 興味深いことには、Googleは逆差別reverse discrimination(白人男性を差別している)であるという訴訟が解雇された白人男性から2018年に起こされたこともある(その後、同訴訟は取り下げられている)。結果として取り下げられたころから、reverse discriminationを米国で法廷で争うことの難しさが確認された状態かもしれない。
Ex-Google engineer who became alt-right daring moves to void lawsuit, National Post, May 13, 2020
 このような雇用の人種差別問題で争われているのは、雇用、昇進、解雇などを決定する人が、人種的バイアスをもって判断しているかどうかである。

googleが提供するサービスの問題
検索結果の関連付けの問題
〇 googleによる検索については、差別につながる項目との関連付けを機械的にすることが問題だとの指摘がある。「黒人の女の子」で検索すると「ポルノ」「性的描写」などと関連付けられた(2009-2010年)。あるいは「3人の白人の若者」と検索すると「笑顔の若者」が表示され、「3人の黒人の若者」を検索すると「容疑者」の写真が出てきた(2016年)。など。
Google faulted for racial bias in image search results for black teenagers, Washington Post, June 10, 2016
Google has a striking history of bias against black girls, Time, Mar.26, 2018
→ 検索のベースになる社会の情報そのものに差別的なものが含まれているからだとされる。結果として、検索結果に差別的内容が含まれることがある。研究者の中には、検索結果がそもそも正しいとは限らないこと(社会的に望ましいことと一致しないこと)を認識するべきだとの意見もあるが、私もこうした考え方に賛成である。検索においてこうした結果がありうるということを前提に、検索結果を慎重に見た方が生産的だ。もちろんアルゴリズムに手を加えることで、対処する可能性も否定すべきではない。
 こうした問題を提起する側には、アルゴリズムを正しく設計すれば、社会的にも望ましい結果が、検索がでてくるはずだ。という思い込みがあるように思えてならない。
被写体のグループ化問題
〇 2015年にgoogle photoによる自動写真分類によって、一部の黒人男性が「ゴリラ」に分類されてしまうことが問題になり、googleは謝罪とソフト修正を約束している。Google apologises for Photos app's racist blunder BBC 2015/07/01
〇 写真やイラストで黒人を映したり肌の色を黒く変更した場合、AppleやGoogleの分類ソフトが、それを「animal」に分類するという問題が2021年にも指摘され、2015年の問題が解決されていないと批判された。
→ 写真やイラストを不適切に分類する問題だが、この不適切な分類問題も差別問題とは切り離しても起こりうるように思える。
→ 予想されるようにChatGPTをめぐっても、同様の指摘が繰り返されている。ここでもChatGPTが、社会的にも望ましい答えをすぐに返さなくても驚く必要はなく、ChatGPTが集める情報そのものに社会的に「望ましくないこと」があると考えるべきではないか?
 つまりここでもアルゴリズムの在り方が実は問題にされているのだが、社会そのものが変わらなければ、アルゴリズムの修正では問題の解決に限界があるのではないか。
ChatGPT proves that AI still has a racism problem, The New Statesman, Dec.9, 2022

Google Photo見出し写真構成への疑問
 私は最近、Google Photo見出し写真に写っている人物が、黒人8人、黄色3人、人種不明2人であるのは、黒人に偏りbiasがあるので違和感があるという疑問をNoteとPhoto Communityに出した。膨大な写真から、見出し写真を選択できるのであるから、人種構成、さらには性別、年代なども熟慮した写真構成を実現できるはずだ。
 仮に担当者にここを少数民族の写真だけにして、Googleの先進性の看板にしたいという積極的主張があるなら、もっと多様な少数民族の写真を組み合わせることを提案したい。現在の構成はAfrican-Americanに偏っていてとても狭いように私には思える。


main page: https://note.mu/hiroshifukumitsu  マガジン数は20。「マガジン」に入り「もっと見る」をクリック。mail : fukumitu アットマークseijo.ac.jp