見出し画像

ウチの会社の「テクノロジー活用の倫理観」を考えるワークショップ

会社の中で研修とかワークショップをやってると、なかなかとりあげづらいテーマがあります。政治とか宗教とかが主なところですが、「考える対象」として取り上げないのはむずがゆいなあと感じることもあります。企業人として、ビジネスパーソンとしては避けて通れないとは思うんですよね。ついつい価値を生み出す、新しいことやる、ということに視点を置きますが、リスクヘッジの方面、世の中にマイナスな影響を生み出してしまわないか、ということは両面かんがえてもいいと思うのです。

で、こんな記事があるわけです。

英語翻訳の部分があるので余計に理解が難しいところもあるのですけど、この記事を読んでのワークショップを考えてみようかと。設定は「テクノロジー活用にあたって、どのように「倫理観」を磨けばいいのか考える会」です。

■事前課題①上記の記事を読んでください。

■事前課題②次の問題に、あなたなりの考えをまとめてください。
(1)「この画像は、人工知能における偏見の危険性を物語っています」とありますが、ワイブル氏の言う、「偏見の危険性」を簡単に説明してください。

(2)ゲブル氏は、「人工知能における公平性や倫理性」を担保するためにはなにが必要と言っているか、本文中の言葉で答えてください。

(3)あなたの会社・事業に「顔認識AI」を活かすとしたらどのようなアイデアがありますか?3つまで答えてください。

-----
■回答の方向性と自社取り組みの展開
(1)黒人の写真が、白人よりに修正されること。
★記事中では言及されていませんが、白人の写真が黒人よりに修正されるケースは少ない、またはない、ということが類推されます。いずれの画像も白人よりに修正されて出力される、有色人種の画像がシステムに「誤読」されやすいということが、偏見につながりかねないということでしょうか。
追加参考記事↓
■顔認識の「人種バイアス問題」、なぜ解決が困難なのか
https://japan.cnet.com/article/35134952/

(2)「機械学習のデータセットを多様化」すること、ですね。国語のテスト的にはめちゃくちゃ簡単だったはず、です。
★では、機械学習のデータセットを多様化すると、なぜ公平性や倫理性が担保できるのでしょうか?ふみこめば、ビジネスリテラシーとして、「機械学習」の仕組みを学び、最低限の説明ができるようになる必要はあるでしょうか?
ビジネスにおいて機械学習を導入するとか、そういう意思決定をするであろう管理職・経営層は、こうしたリテラシーも最低限は知っておいたほうがいいんじゃないかなあとは思います。データの偏りはアウトプットの偏りになる。集めるデータ(ここでは顔写真)によっては、非常に倫理的な問題を生む可能性もある、ということは、知っておいたほうがよろしいかと。

(3)最近、空港での導入ニュースもある「顔認識AI」。スマホを顔認証でロックしている人も多いのではないでしょうか?使えば便利なシーンはたくさんあります。顧客に価値を届けられるのかどうか、ぜひアイデアをたくさんだしてみたいですね。
★そのアイデアを実現するためには、どんな「データセット」が必要ですか?そこに倫理的な観点で問題になりそうなことはありますか?

テクノロジー活用にはネガティブな側面があります。それは事実。そのことを踏まえて、「使いこなし方を考える」のか、「使わない」のか。ビジネスシーンに限定すれば、「学ばずに遠ざける」、ということはできなくなるんじゃないかなあと、個人的には思います。

この記事を公開するにあたって、まあ本質的なところから逃げた自覚はあります。自分で書いておいてなんですが、こうした問題を取り上げてワークショップなんてできるんでしょうか?対話が重ねられる関係、場であるかどうか、といったことが土台に確認できてないと、「衝突」しちゃいそうだなあと思います。みなさんいかがでしょうか。

(おまけ)ルカン氏が最後の表面をFacebookにしたのはなぜでしょうか?TwitterとFacebookの違いについて簡単に説明してください。あなたは、Twitterとfacebookをどう使いこなしますか?

この記事が気に入ったらサポートをしてみませんか?