見出し画像

機械学習と公平性に関するシンポジウム参加メモ

【追記1】公演パートの動画がYouTubeに公開されたの追加しました。
日時:2020年1月9日(木)18:00〜20:30
場所:一橋大学 一橋講堂

人工知能学会倫理委員会主催の「機械学習と公平性に関するシンポジウム」の参加メモです。
プログラムや登壇者プロフィールなどの詳細はこちらのサイトで確認してください。(登壇者の一人、神嶌氏の論文へのリンクもあります。)


少し遅れていったが、3階席に案内されるほどで、会場はほぼ満席であった。また、途中で江間氏が参加者の属性を質問していたが、研究機関などの人工知能研究者よりも、一般企業からの参加者が多かった。良くも悪くも世間の関心度が高いなという印象。

〜まずはパネルセッションまでの公演パートについて雑記〜

■開催経緯

▽声明にも記載されているが機械学習を利用したサービスや事業で、公平性に欠けていた出来事が社会の中で実際に起きてしまっている。

▽東京大学 特任准教授である大澤昇平氏が中国籍の人は自身の会社で採用しないといった差別的な発言をし、それに対して機械学習が原因であると主張したこと。(シンポジウムではあくまで「あるAI研究者」と言っていた)
※これに関しては明戸隆浩氏の記事がわかりやすい。

上記のような不公平用途での機械学習の利用や、研究者の行いが社会に与える負の影響を懸念し、声明の発表と今回のシンポジウムに至る。

▽声明は以下の2点を骨子にしている。

(1) 機械学習は道具にすぎず人間の意思決定を補助するものであること
(2) 私たちは、公平性に寄与できる機械学習を研究し、社会に貢献できるよう取り組んでいること

■神嶌敏弘 氏「機械学習と公平性」

▽機械学習とは
学習したものから予測をする技術。
そのため、学習するデータなどにより予測される事柄に偏りが生じてしまう恐れがある。偏りが生じる原因はデータだけでなく技術的にも様々な場面である。
(AMAZONの件では、自社の採用データしか学習させていたなかったため、これまでデータで女性の雇用が少ないことを学習して、女性が雇用されないという結果になってしまった。)

▽あくまで機械学習は人間が利用する道具である
利用者(人間)が学習させたデータによって結果は異なる。
また、機械学習によって導き出された結果をどのように利用するかも人間側が考えないといけない。(過去のデータをどこまで学習したところで未来を予測するさいの不確実性を完全に排除することはできない)

▽間接的にも不公平は生まれてしまう
・性別、人種など差別につながるセンシティブなデータを使わなくてもそれらと密接に結びついているデータを使用することで間接的に不公平を生み出すことができてしまう。(red-lining効果)
・人種差別をしないために人種のデータを使わないという決まりの中で、住んでいる場所で区別をしたこところ、居住区域とそこにすんでいる人種が依存関係にあり間接的な差別をつくりだせてしまうという例があった。

▽機会と結果の公平は相容れない
公平性にも種類があり、立場などによってどの公平性を基準とするかは異なる。すべてを選択することはできずこちらが立てばあちらが立たないといった状況になるので、利用者はいずれかを基準にするのかを決めなければならない。
基準を選択さえすれば機械学習がそれを遵守する構成にすることは可能

▽人間だって機械学習だって不公平な判断はしている
経歴やスキルは同じだが、名前だけが違うレジュメを用意したとき人間は名前の情報から人種を想像し不公平な判断をしてしまうことが社会学の実験でわかっている。
アルゴリズムの場合も上述の通りデータの学習の仕方によっては不公平な判断をしてしまう。

▽機械学習は不公平の検出が容易
大量のデータをすぐに取得可能(人間の場合は数ヶ月かけてデータを取得し不公平があるかどうか判断しないといけない)。

▽不公平の補正は機械学習のほうが容易
人間はなぜ不公平な判断をしたのか原因を探る(その人の思想を読み取る)ことが困難で、訓練などでもその修正は難しい。
機械学習では原因を調査することが可能で、判断の基準を修正すれば不公平を補正することができる。

▽あくまで機械学習は人間が活用していく道具である
・機械学習を適切に利用するためには以下の3つが必要である
1)データの選択やアルゴリズムなどの適切な設計
2)十分なテスト
3)人間による運用中の監視と更新
・モデル構築の情報を残しておくなど、なにか問題が起こったときにその問題にすぐに対処できるように備えておく

■佐倉統氏「社会の側から技術を考える〜技術の社会的形成 〜social shaping of technology(SST)〜」

▽佐倉氏専攻は進化生物学、最近は科学技術社会論について取り組んでいる。社会の側から技術を考える。社会の特徴から技術のありかたが変わっていくこともある。(科学コミュニケーションっぽいのかな)

▽ヒトの社会の特性
・進化生物学的に人類の進化において以下のことが重要だったと考えられている。
共同体を形成して育児ケアの負担を減らす(種を残すために非常に大きなミッションであった。夫婦や親族の形成など)
役割分担
内集団/外集団の区別
血縁者以外とも協力関係を結んでできることを増やして生き残る
世代を超えて情報を伝えていく学習/教育
こういった特性が人間の認知傾向や価値判断に大きく関わっている。

・人間の心は論理的ではなく社会的に思考するように進化している
例:4枚カード問題(リンク参照)

・機械学習は上記のような論理的な合理性ではなく進化的な合理性を手に入れることはかなり難しいのではないか(現在のAIが避けては通れない課題)。機械学習の判断に疑問を感じたときは社会的な特性に基づいて人間が判断する必要があるのではないだろうか?

▽特性に合わせるために解決しなければならないが、機械学習には困難と思われる課題

・創発特性
要素同士が相互作用しているうちに上の段階の要素にも影響を与えている(複雑系)。株価の変動メカニズムなど。
・自動車の制限速度と実際の運行速度のギャップ
道路を走行している車は法定速度よりある程度速い速度で走行している事が多い。これはなにかの規則できまっているわけではないがみんなだいたい同じぐらいの超過分で走行している。

法定速度+創発的に生成された超過分=実際の運転速度

この創発的な超過分を機械学習で実現することは可能だろうが、データの収集は現実的に難しい。いつでもどこでもどこの道路でも臨機応変に超過分に機械学習が対応できるのか?人も慣れない道であれば対応できない事がある。

・自己言及のパラドクス
日本人に「日本人は嘘つきだと」といわれた言われたとき自分の頭の中で、日本人に該当する人物を(日本人の基準)を修正して、パラドクスを回避している。人は文脈などから比較的容易にこのパラドクスの回避を行えるが、機械学習にはすべての文脈で同じことができるのだろうか。

・「創発特性」も「自己言及のパラドクス」の問題は人間には解決できるが機械学習には難しいかもしれない。仮にそれを頑張って実現した機械学習(AI)が登場したとして社会の中でどこまで需要があるのだろうかということも考えなければならない。
→「人間らしら」の実現よりも人間とはどこが違うかを明確にすることが今後重要である。そのうえで人間とAIの役割分担をしていく。

・人間らしさをAIで追求することに意味がないわけではない。
人間を理解するためには十分有意義な研究である。
(三宅陽一郎さんも以前似たようなことを言っていた。)

■江間有沙氏「AI公平性に対する研究者コミュニティの社会的責任」

▽様々な企業や学術コミュニティがAIに対する公平性に対するガイドラインを制作しているか

・2019年までに各国でどんどんとAIと公平性に関するガイドラインを制作している。(ハーバード大などがまとめている。)

・この動きのきっかけとなったひとつがアシロマ原則
アシロマ原則自体はフェアネスを扱っていない(大きな議論にはなっていなかった)。

・日本でも人工知能学会倫理委員会が「人工知能学会 倫理指針」を作成。

・政府も内閣府が「人間中心のAI社会原則」を打ち出している。
(参考:https://www8.cao.go.jp/cstp/aigensoku.pdf)

・欧州や国連の打ち出しているAIに関する規範や報告書は一番のベースに基本的人権が入っている。だからこそフェアネスが大事だというロジックで語られている。

・国による原則やフェアネス(公平性)の考え方の違いをどうしていくのか。欧州や中国や日本でも公平性に対するロジックの考え方が少しずつ異なってきているのではないか。
遵守されるときとされないときの使い分け(価値のトレードオフについて)などは、専門家だけではなく企業やユーザー全員参加で考えていくものである(議論、対話の場が必要である)。

・価値のトレードオフを前提とした議論自体から一度疑問をもって考えなければならないかもしれない。

・こういったさまざまステークホルダーのいる対話の場、シンポジウムの設計が次に繋がるムーブメントになってほしい。

以上がパネルセッションまでの登壇者の皆さんの講演内容のメモです。
科学技術が複雑化すると、社会の理解が追いつかなくなってきます。そうなるとわからないという感情だけでなく、大澤昇平氏のような研究者側の失言や、事故の報道などに過剰な不安や反応が起きてしまい、社会を豊かにする技術であろうとも規制を余儀なくされる可能性が今後も増していく懸念があります。普段より、社会との対話・共創を意識したコミュニケーションが遠回りに見えて実は一番、豊かな未来を作る上でも研究を進めていく上でも近見になのではないだろうかと思いました。(それが全てではないだろうがそのために科学コミュニケーションがあり、科学コミュニケーターがいるという側面もあると思います。

すべてをメモできたわけでも正確にメモできたわけでもないので参考程度にどうぞ。

【追記2】講演資料もアップロードされました。
コチラのページのプログラムのところより資料にアクセスできます。

【追記3】開催報告が人工知能倫理委員会のHPに掲載されました。
パネルディスカッションについてはそちらを御覧ください。


この記事が気に入ったらサポートをしてみませんか?