見出し画像

デザインと倫理 #1

はじめに

デザイナーはいつの時代も社会と密接に関わってきた。しかし近年テクノロジーの発達によって、"デザイン"がビジネスや人々の日常生活に及ぼす影響がさらに大きくなってきた。そこで今回は、なぜデザインと倫理が関係しているのか、そしてどんな問題を認知しなければいけないのかを完結にメモしていきたい。(筆者は倫理学者やAIエキスパートではない為、いちデザイナーとして集めた知識や見解となることをご了承いただきたい。)


なぜデザインと倫理なのか

筆者はニューヨークにある美術系大学院で、戦略的デザイン経営学を専攻していた。その学部では、次世代を担うデザインリーダーの教育の一環としてデザイン倫理のクラスが必修科目となっていた。なぜか?その答えは教授のイントロにあった。

トロッコ問題を知っていますか?(日本ではマイケルサンダースの白熱授業で有名)トロッコの走行中にブレーキが効かなくなりました。そのままトロッコが進めば前方にいる五人の作業員が轢かれてしまう。しかしハンドルをきれば、その五人は助かるが違う線路にいる一人が犠牲になる。どちらが”正しい”のか?これは非常に難しい問題ですよね。

例えばこれを完全自動運転のテスラやgoogle車に置き換えてみてください。もし同じような状況にあったら、自動運転車はどのような対応をするのでしょうか?それは、誰かがデザインし、誰かがプログラミングしているのです。だから、デザイナーやリーダーが倫理を議論することは大切なのです。

そう、完全自動、アリゴリズム、AI、そんな非人間的なテクノロジーも、もともとは人間が決定した事項に沿ってプログラミングされている。そして、どんな人間もバイアスを持ちえて、場合によってはそれがある一定のユーザーに不利になってしまう場合がある。それゆえに、その行動を”デザイン”する権力のある人々は非常に大きな責任と理解を求められるべきなのだ。もちろん、テクノロジーだけに限らず環境問題や人種問題など、企業が影響をもたらす様々な事項にも当てはまる。


何が問題になっているのか?

そして近年非常に注目を浴びている議論が、アルゴリズムにおけるバイアスと公平性である。この問題を分かりやすくまとめているドキュメンタリーが『AIに潜む偏見: 人工知能における公平とは(Coded Bias)』だ。


このドキュメンタリーで述べられている重要な点は、
1. アリゴリズムはバイアスを持ち得る。なぜならそれを作る人間自体がバイアスを持ち得るから。そして、データは歴史の積み重ねであるから。

2. 世界中にユーザーのいるビッグテック(フェイスブックやアマゾンなど)は創業者、従業員を含め偏った人口のグループである(非有色人種の男性を示唆する)。


3. その結果、多くのAIはマイノリティ(有色人種や男性以外)に不利に働くことや、偏った倫理観が反映されることを危惧されている。

例として、アマゾンが使用していたAI採用システムが、女子大または女性中心の活動の記載のある履歴書にペナルティを課していたことや、IBMの顔認証システムが黒人よりも白人を高評価していたことが紹介されている(どちらも現在は廃止済みである)。

プリンストン大学のコンピューターサイエンス助教授であるOlga Russakovskyは
以下のように述べている。

『バイアスのない人間が存在することは不可能だ。したがって、私たちがバイアスのないAIシステムを作れるともは思わない。でも私たちは、今よりもはるかにうまくやることは確実にできるはずだ。』


私たちは何を問うべきなのか?

AIはバイアスを持ち得る、という事実を踏まえた上で、私たちは何を議論していくべきなのだろうか?広い目で見た問いから、いちデザイナーとしての問いまで、いくつかの例をあげてみたい。


• 今データを支配するビッグテックはアメリカと中国に一点集中している(そして多くの人はFacebookやアマゾンなどのサービスを日常的に使用しているはずだ。)日本人にとってはこの状況がどう影響するのだろうか?

• 利用者の権利を守るために日本の法律で定められるべき事柄は何なのか?

• それらのシステム(データ、アリゴリズムなど)を使用する会社は倫理的価値を守ために何ができるのか?

• 開発に関わる人々(CEO、ディベロッパー、クリエイターなど)は何を心得るべきなのか?


最後に

この問題はとても幅広く複雑であるが、今回は簡潔にアリゴリズムと倫理についてメモを残した。私個人はテクノロジーを悲観的には見ていない。しかし、デジタル化が進んだ今、この倫理とアリゴリズムの問題を、どんな分野にいるリーダーも無視すべきではないと思っている。そして個人的には、人々に直接影響をもたらすエクスペリエンスやインターフェースを作るデザイナーとしてより学んでいきたいと思っている。今回書ききれなかったこと(リーダーが考えるべきこと、デザイナーが考えるべきこと)はまた次回書きたい。


引用:
Craig S. Smith. (2019). 'Dealing With Bias in Artificial Intelligence.' The New York Times. 

Kristen Tauer. (2020). ‘Coded Bias’ Director Shalini Kantayya Shines a Light on Racial and Gender Disparity in AI. WWD. 

Shalini Kantaya. (2020). 'Coded Bias'. Netflix. 

Wikipedia. トロッコ問題. 
https://ja.wikipedia.org/wiki/%E3%83%88%E3%83%AD%E3%83%83%E3%82%B3%E5%95%8F%E9%A1%8C


この記事が気に入ったらサポートをしてみませんか?