見出し画像

「ジェンダーギャップ」についてエンジニアが考えてみた

はじめまして!
弊グループのnote企画『バトンをつないで #SDGs Challenge』で、26番目の走者としてバトンを受け取りました、株式会社「コムニコ」の菊池です。
コムニコには2020年1月に入社し、現在はエンジニアチームのデザイナー兼エンジニアとして、自社プロダクトのWebデザインやツールデザインを担当しています!

みなさま、今年3月31日に「ジェンダーギャップ指数2021」*が世界経済フォーラムから発表されたことはご存知でしょうか?
日本は120位、2020年は121位と、依然として低い指数に留まっています。

*ジェンダーギャップ指数とは:
世界経済フォーラム(World Economic Forum)から毎年発表される、各国における男女格差を測る数値のこと。

ふと機械であるAIにもジェンダーギャップは存在するのだろうか?と気になり、調べてみることにしました!

普段みなさんがよく利用するであろうSiriなどのAI音声やGoogleの画像認識サービスでもジェンダー問題が指摘されていましたのでご紹介いたします!

ジェンダーギャップ事例① AIアシスタントが女性である問題

2019年、ユネスコからの報告書で、AppleのSiriを筆頭としたAIアシスタントのデフォルト音声が女性であることが『支援の役割を果たすのは女性である』というジェンダーバイアスを強化してしまう、として問題視されました。
その報告書のタイトルは「I'd blush if I could(赤面できたらしています)」という、Siriがセクハラ発言を受けた際に返すフレーズで、声だけの問題ではなくセクハラ発言への受け答えへの指摘も含まれています。
参考元:https://unesdoc.unesco.org/ark:/48223/pf0000367416

日本でもセクハラ発言への受け答えに問題があるとして、某駅のAIキャラクターが炎上しました。
同時に設置された男性AIは実写で、受け答えも事務的であるのに対し、このAIキャラクターは可愛らしいアニメタッチで年齢や恋人の有無などプライベートな質問にも応答します。
このことが「同じ駅員でも、女性にはプライベートなことを聞いても笑顔で応対する」という価値観を広めているのではないかとSNSで話題になり、炎上に繋がりました。

ジェンダーギャップ事例② 画像識別AIの精度によるジェンダーギャップ

Googleのクラウド型画像認識サービスに女性と男性それぞれの写真を認識させると、男性については「オフィシャル」「ビジネスパーソン」などのタグがつくのに対し、女性は「美しい」「若い」など身体的な外見に関するラベル付けの数が男性の3倍になるとの研究結果があります。
参考元:2020年11月の論文https://journals.sagepub.com/doi/10.1177/2378023120967171

また、タグ付け以外にも顔分析ソフトウェアで肌の色と性別による精度の違いが報告されていて、色白の男性では0.8パーセントのエラー率(顔認証失敗などの確率)に対し、浅黒い肌の女性では34.7パーセントのエラー率になると言われています。

これらのソフトウェアは犯罪容疑者の特定や電話のロック解除などにも使用されるため、AIバイアスの影響で、エラー率の高い浅黒い肌の女性は誤認逮捕の危険性や、別人に電話のロックを解除される可能性が高まり、色白の男性よりも不利益を被る確率が上昇してしまうのです。
参考元:マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らが2018年2月に発表した研究結果


2分17秒あたりからご覧ください。

2020年米ミネアポリスの白人警察官による黒人男性を射殺するという事件があり強い抗議や反発がおこりました。その事件が発端となり、顔認識AI開発について大手企業が対応を発表しました。
アマゾンとマイクロソフトは警察が使用するアマゾンの顔認識テクノロジーについて1年間の提供停止を実施しており、IBMは今後、汎用の顔認識や分析ソフトの提供を行わないことになりました。

ここまでジェンダーバイアスが引き起こした事例をいくつかご紹介しましたが、ジェンダーレスに向けた開発も行われています。

ジェンダーレスに向けた取り組み① ジェンダーレスボイス「Q」

前述したAI音声が問題視された流れもあり、新しく開発された機械音声です。
自らを男性でも女性でもない“ノンバイナリー”と認識している人々の声を録音し、デジタル合成することで、一般的な男性と女性の声域の中間に位置する声を作り出しています。

ジェンダーレスに向けた取り組み② Googleの男女別翻訳

Google翻訳でスペイン語やフランス語、イタリア語などのように、性別による語句の差がある言語へ翻訳する際、男性名詞のみで表示されるということが問題視されていました。
たとえば、「My friend is a doctor(=私の友人は医者です)」と英文で入力し、それをスペイン語に変換すると数年前までは「Mi amigo es doctor」と男性名詞のみが表示されていました。
2020年4月以降は、女性名詞「Mi amiga es doctora」も同時に表示されるよう改善されています。

ジェンダーレスに向けた取り組み③ ライティングアシストツール「Writer」

ジェンダーバイアスの見られる要素を排除するライティングアシストツールも開発されています。
ライティングアシストツールとは、AIによって文法上の誤りや書き間違いを見つけられるオンラインツールです。
例に挙げた「Writer」では、スペルチェック、文法チェック、オートコレクト機能などの一般的な機能に加えて、ジェンダーバイアスの見られる要素を確認するオプションが付いています。
現在、日本語版のリリースはありませんが、今後このようなAIが日本でも登場するといいですね。

調べてみて

開発されたもの自体は機械でも、人が開発し、機械学習のデータも根幹は人の手で蓄積されたものです。経済産業省の令和2年発表の調査によると、日本のITエンジニアの男女比は約8:2(78.9%:21:1%)と女性が非常に少ないので、1人の女性技術者として差別的な要素に気づいたら、積極的に声を上げていきたいと思います。
参考元:https://www.jisa.or.jp/Portals/0/report/basic2017.pdf

また、提供されるIT技術に含まれるバイアスを疑うことや、自らがバイアスを生み出す価値観を発信しないことは、誰でも始められる意識づけだと思います。
みなさんもぜひ、身近なソフトウェアをじっくり観察してみてください!

note_菊池さん


この記事が気に入ったらサポートをしてみませんか?