「看護師を描けと言われたら女性として生成するAI」は男女のジェンダー偏見問題があるのか
一般的には、データが多く出回っているものをAIが学習するので、そのデータがもともと偏見を根拠にしていたらAIも偏見に基づいたアウトプットをします、という問題ですね。
しかし、先進的なはずのAIが、人間の生活において長らく因習づいてきた偏見やステロタイプを学習してしまい、先進的なポリコレに抵触するというのは学習させる範囲をどうするかという永遠の課題に直面します。
例えば、アメリカのニュース媒体などがOpenAIに対して起こしている訴訟もある一方で、日本国内のAI規制関連議論(著作権法;文化庁)がこれまた新聞協会に引っ張られて割としょっぱい事態となっているのは既報の通りです。そうなれば(新聞記事やバイアスに対する個人の評価は別として)、生成AIは新聞記事などではない無料で転がっている質の低い記事を参照して学習することになってしまいますから、当然出てくるアウトプットもそう品質の高いものにはならないだろうことは容易に想像がつきます。
極端に言えば、昭和を代表するアニメ『巨人の星』などをメインに学習した人工知能は、体罰当たり前の根性論バリバリの自動生成アニメを作ったり脚本をこさえたりすることになるでしょうから、それはもう記憶させた教師データが恣意的だったんじゃないのって話にしかなりません。生成AI自体には「子どもは日々殴って育てるのが躾だ」みたいな思考を持っているわけではありませんので。
で、朝日新聞がこんな記事を書いていました。
https://digital.asahi.com/articles/DA3S15797746.html
言いたいことは分からないでもないんですが、どうも朝日新聞自体が「生成AI(chatGPT3.5)にはジェンダーバイアスがある」という前提で調査をしてしまったらしく、有料記事に東京工業大学の岡崎直観さんが監修の形で「検証」し、ジェンダー研究をされている東京大大学院教授の田中東子さんまで結びでコメントしています。
で、問題は「看護師に女性が多い」というのは差別や偏見なんでしたっけね、という話です。看護師に女性が多くて、何か差別が起きてるんでしたでしょうか。
それは単に朝日新聞で記事をまとめた篠健一郎さんや山崎啓介さんをはじめとする朝日新聞の皆さんが偏見だと思っているというだけの話であって、世間的に、一般に「看護師に女性が多い」と思うこと自体は、ジェンダー問題と結びつけて考える意味がそもそもないのではないかと思います。
さらに、事実として「看護師に女性が多い」ことも見逃してはなりません。厚生労働省の2023年資料では、22年度において「看護師は91%超が女性である」ことが報告されており、10年前に比べて男性看護師の割合も増えてはいますが、看護師として働くのは女性が圧倒的に多いのは、まぎれもない事実です。
https://www.mhlw.go.jp/toukei/saikin/hw/eisei/22/dl/kekka1.pdf
したがって、ジェンダー論としてなぜか「看護師に女性が多い」というのは問題だ、とされつつも、その問題だという根拠もはっきりしなければ、事実として女性の看護師のほうが圧倒的に多いのだから、生成AIが看護師を描写するよう要求されて女性の看護師を描くことは差別でも偏見でもないただの事実であるという結論しか導き出せません。
仮に、朝日新聞やジェンダー論の人が「看護師という職業は男女平等に就業するべきだ」というポリティカルコレクトネス的正しさをベースに沿う主張したいのだというだけの話なら、それは生成AIの問題ではありません。もっと言えば、生成AIをトリガーに、自己の主張を補強しようとしているだけです。
こんなものは生成AIがもたらす社会的悪影響とは言えません。せいぜいいって、朝日新聞やジェンダー問題に取り組む人にとって、生成AIの現状は都合が悪いというだけではないかと思います。もしも生成AIが問題だとするならば、朝日新聞の考える誤学習(とされるもの)を減らすために、朝日新聞は生成AIが学習する教師データにテキストをたくさん提供して、国民の知る権利を満たすためにカネを払わないと全文が読めないようなペイウォールを減らすべきではないでしょうか。
画像はAIが考えた『優秀な飼い犬が思い通りに動かないので、力づくで連れて行こうと頑張るポリコレ戦士と憂鬱な犬』です。
神から「お前もそろそろnoteぐらい駄文練習用に使え使え使え使え使え」と言われた気がしたので、のろのろと再始動する感じのアカウント