見出し画像

お届けInfo 「顔認証システムの倫理的課題について」

本記事は第84回情報処理学会 第84回全国大会で実施された企画「お届けInfo」で、企画参加者の依頼により執筆された記事です。

ご紹介するのは、2022年3月4日(金)に学生セッション「電子化知的財産・社会基盤」で発表された「顔認証システムの倫理的課題について -人工知能とバイアス -」(著者:冨島悠介,渡邊 聖,西川真央,北村智花,山本将一朗,齊藤太一,今 諒平(中央大学)、   発表番号 5ZJ-03)です。

依頼者は第一著者の冨島さんご本人です。「はじめての学会発表で記録が欲しいためと、第三者が見てどのように見られているか知りたかったため」という理由でのご依頼で、ビデオデリバリとnote記事デリバリー(きっちりタイプ)をご希望されました。

記事デリバリは、今回から始まった「お届けInfoデリバリー会員」にご参加いただいた中央大学の田口善弘先生にご執筆いただきました。

以下、田口先生によるデリバリ記事の内容となります。

発表内容

本研究のテーマはいわゆる機械学習における過学習の問題と倫理の関係です。機械学習は与えられたデータから学ぶことしかできないので、データそのものにバイアスが入っている場合、バイアスを回避した学習を行うことは原理的に不可能ですが、そのバイアスが倫理的な問題を伴う場合には看過できません。

本研究では、顔認証システムのバイアスを問題にしています。
具体的にはここで問題にしているのは個体認証システムとしての顔認証システムではなく、顔画像情報から何らかの属性を推定する場合を扱っています。

例えば、本研究ではアメリカのAI再犯予測システム「COMPAS」を例に挙げています。このシステムでは黒人が有意に再犯確率が高いと(誤って)予測してしまうことが問題になりました。この様な例が相次いだため、いわゆる西側先進国では顔認証システムの利用停止が提言されていることも本研究では触れられています。

この様な場合、通常は機械学習のバイアスをいかに減らすかという問題に推移する場合が多いのですが、本研究ではバイアスはあるものとして使う側の人間の意識を変えることで、機械学習が不可避的にもつバイアスが倫理的な問題に結びつくことを防ぐことを提案しています。

具体的には行動経済学者であるリチャード・H・セイラーが提唱したナッジ理論を使うことを提言しています。ナッジとは「肘でこづく」というような意味で、刺激をあたえることで被験者に気づきを与える手法であり、意識的に(自覚的に)行われる教育的ナッジと、無自覚に行われる非教育的ナッジの使用を提案しています。

教育的ナッジの例としてはIATと呼ばれる提示された2つの概念(例えば「人種」と「善悪」)を結び付ける反応時間を計測することで「あなたは白人の方が自動的な選好を行う傾向をもっています」などというテスト結果を提示し、無自覚な偏見を自覚的な物に変えることを試みています。

非教育的ナッジとしては、黒人と白人が並列的に映っている写真を多く見せることで人種間の差別的な無意識を軽減させることを試みています。

感想

感想としては、機械学習のバイアスを取り除いたり、あるいは、バイアスが倫理的な問題に結びつくような場合にはそもそも結果を提示しない、など、機械学習の結果が人間に届く「前」に問題を解決するのではなく、利用する方の人間が「この結果にはバイアスが入っているから字義通りとるのはやめよう」と思うように学習させたり、あるいは、バイアスそのもの違和感を感じられるようにすることで、倫理的な問題への波及を食い止めようと考えるという考え方が非常に興味深いと思われました。

一方で、まだ、アイディアの段階にとどまっており、ナッジ理論を用いることで具体的に倫理的な問題が軽減させるという結果が無かったのは残念でした。具体的な研究結果が出たのちに再び発表されることを望みます。

お届けInfo デリバリー担当:
田口善弘(中央大学)/note記事デリバリー
伊東香(ヤフー株式会社)/ビデオデリバリー

お届けInfo メタ担当:

渡辺知恵美(筑波技術大学)/取材依頼


この記事が気に入ったらサポートをしてみませんか?