見出し画像

ある日、森の中、出会うのはクマさんではなくAIだ!AI For Everyone:第4週「AIの現実」

スタンフォード大学の先生の講義を字幕付きで聞けるAI For Everyone。第4週は「3びきのくま」の童話から始まりました。

よく混同してしまいますが、「ある~日、森の中、クマさんに、出会った♪」のほうではありません。
女の子が知らないお家に入ったら、あたたかいシチューや、自分にピッタリの椅子が置いてあり、うたた寝していると家の持ち主の3匹のクマが帰ってきた!というほうのお話です。

思い出したい人はこちらをどうぞ。

さて、このお話にはいろいろな教訓が考えられますが、その一つは

得体の知れないものに近づくと怖い目に遭うよ

ということでしょう。
では、AIの得体の知れなさ、不気味さ、脅威とも言えるのでしょうか?
どんなことが紹介されていたか、ふり返っていきたいと思います。

熊ほど怖いものの正体はバイアス!

講義の論点は、

How does an AI system become biased and therefore discriminate against some people?
AIシステムがどのようにしてバイアスを持ち、人を差別するようになってしまうのか?

ということでした。

「3びきのくま」のお話の中には、クマたちはスープの温かさはどれくらいがいいのか、椅子やベッドの大きさはどれくらいがいいのか、思案するシーンが何度も出てきます。

ちょうど良いことへのあくなきこだわりは、AIの機械学習に通じるものがあるようです。

例えば、社会での役割や職業と、性別との結びつきを判別するために、大量の「職種・性別」の組み合わせをAIが学習する場合。
computer programmerは男女比率5:5であるべきか、どちらかに偏らせたほうが「ちょうどいい」のかをAIが学習していくわけです。

しかし、その男女比率にバイアスがかかってしまったらどうなるでしょうか?
講義では、バイアスがかかったAIが採用システムに搭載されると、とんでもない雇用差別を引き起こしてしまうと警鐘を鳴らしていました。

重みづけさせないほうがいいのか?それとも―—

講義ではAIによるバイアスを防止するために、3:2のようだった性別バイアスの数値をゼロに設定すること、またはよりバイアスが少なくインクルーシブなデータを使用することが挙げられていました。

バイアスを誘発するようなデータセットが使われていないか監査することが重要とも解説されていました。

このように考えていくと、AIが公平なシステムになるか、人間を支配する恐ろしいシステムになってしまうかは、人間が与えるデータ次第であることが分かりました。

この記事が気に入ったらサポートをしてみませんか?