AIにおけるジェンダーバイアス

ガートナーの調査によると、2022年までに、AIプロジェクトの85%が、データ、アルゴリズム、またはそれらを管理するチームの偏りが原因で、誤った結果をもたらすことになると発表されている。

よく考えてみるとAlexaやSiriなどの音声アシスタントのその多くが女性である。
人種的なデータの偏りも見られる。例えば、さまざな顔認識アルゴリズムの入力画像データのうち、白人の画像が80%、男性の顔が75%の割合を占めている。その結果、男性の顔認識精度は99%と高精度であるのに対し、黒人女性を認識する能力は65%にとどまっており、その精度に差が出ている。
GPT-3の研究例では、機械は、銀行員や名誉教授など有能」と認められた職業は、男性の傾向が強かった。


今後AIによって、多くのサービスの自動化が進むことで、雇用慣行からローン申請、刑事司法制度に至るまで、AIを活用したあらゆるサービスが偏ったアルゴリズムの影響を受ける可能性がある。そして、その結果がユーザーの性別によって大きく変わると予想される。それも、目に見えにくい場所で。

AIにおけるジェンダー・バイアスを減らす5つのステップ

Step 1: AIの開発に関わる女性を増やす
Step 2: データの男女バランスを整える
Step 3: AIを利用した仕組みを多様な人々によって検証する
Step 4: AIを活用してジェンダー問題に取り組む
Step 5: よりダイバーシティーに対応した仕組みを作る

きむにいの成長を優しく見守っていただける方はよろしければサポートもお願いします! 頂いたサポートは自分が新しい知見を得るための本への投資に使わせていただきます。