見出し画像

機械学習アルゴリズムの公平性の「第二波」

整理メモ。

機械学習アルゴリズムの公平性、答責性accountabilityについて第二波が来ていると言われている。
この間のルカンとゲブルのツィッター上の大論争は、まさに第一波と第二波の考えの衝突と解釈できる。

論争の的となった事例では、低解像度の顔画像を高解像度化する機械学習モデルを作った。だが、白人の顔画像が主なデータセットで学習したため、黒人をはじめ肌の黒い人の低解像度の顔写真を与えると、見事に白人化whiteningされた結果を得る。

ルカンはこれを、データセットの問題と主張した。現実に適用するときには対処すべき、社会適用・エンジニアリングの問題であって、研究の問題ではないと。実際に適用するには、きちんと公平なデータセットで学習するか、作成したモデルを公平性に従って補正すべきである。ただ、機械学習アルゴリズムの研究そのものの問題ではない。
しかしゲブルは猛烈にこの考えに反対した。ルカンの主張は、なぜそもそもこうした研究が行われるのかについて考えが及んでいないと。そもそも研究者は、なぜこの研究を行うべきか、行ってもいいのかについて何も考えていないのかと。問題をエンジニアリングのものとして片付けることは、真の意味で公平性の実現に寄与しないと。

すこしずらして考える。人種差別的言動の逆とは、人種差別的言動を行わないことではない。そうではなく、人種差別に明確に反対する言動を行うことだ。すなわち、現状が人種差別的であるとき、すでに私たちはそうした差別機な社会構造に参加している。デフォルトが差別的であるなら、単に人種差別的言動を行わないことは、デフォルトを承認していることを意味する。

なぜ白人の顔画像データセットを使った研究を行ったのか。それはおそらく、そのデータセットが利用しやすい形で公開されているからであり、そのデータセットを利用した研究が過去にもあって自分の業績をそれらと比較しやすいといった理由だろう。それは白人が重視され、新しい技術の社会適用の恩恵を真っ先に受けるのが白人であるという差別的な社会構造に参加していることをまさに意味する。

すなわち、第二波の発想からすれば、機械学習アルゴリズムの公平性や答責性について、単にバイアスを補正すればいいのではない。そのようなバイアスが生まれた構造を問い、自分の研究や社会適用が何にコミットしようとしているのかを問うこと

つまりそれは、以前私が取り上げたCritical Data Studiesの発想ということだろう。

参考情報
Pratyusha Kalluri, "Don’t ask if artificial intelligence is good or fair, ask how it shifts power", Nature 583, 169 (2020).
Frank Pasquale, "The Second Wave of Algorithmic Accountability", posted on "Law and Political Economy" at November 25, 2019.

この記事が気に入ったらサポートをしてみませんか?