見出し画像

#4 生成AIの問題について考えてみる(前編)

このnoteは、デザイナーのスズナ(@supico66)となつは(@nanakane078)が主導するもので、テクノロジー、デザイン、社会課題、ウェルビーイングなど、私たちが気になるテーマを扱い、そこで話したことの記録を相互に綴っていきます。
結論を急がず宙ぶらりんにしたまま、新しい問いを立て考えてゆく…そんな過程をお届けします。

皆さんこんにちは。今回の執筆はなつはです。暑い日が続いていて夏を感じますね。前回の投稿から間が少し空いてしまいました…🙏

ここまでの3記事は自分や他者との付き合い方について執筆してきました。
ここ数週間、各社が生成AIの新モデルをリリースしているのをみて、今回はもう少しテクノロジー寄りのお話をしてみようと思いました✏️

💠💠💠

2022年11月30日にOpenAIのChatGPT (GPT-3.5) がリリースされてから、生成AIは生活に必要不可欠な存在になってきました。デザイナーとして、生成AIを使って社会の課題解決をしたり、人々の心を動かしたりしていきたいと、とてもワクワクします😌

大前提として、私は生成AIの素晴らしさも理解していますし、生成AIを使ったサービスをつくっていくことも活用していくこともとても楽しみです。
ですが、こんなにもすごいことが起きているのに、社会へのネガティブな影響やリスクについての会話が少なすぎるのではないか…?と感じてきました。

ネガティブなことを記事にするのはどうなのか、とてもためらいがありました。答えが見つかっているわけでもないですし、問題の指摘だけになってしまうかもしれない…。
ですが「新しい視点が得られるだけでためになる」とスズナから後押しをしてもらい、書いてみようと決心しました。

今回の記事では、どんな問題が起きているのか具体例をとりあげたいと思います。その後、それら具体例を引き起こしている根本の問題は何かについて考えてみたいと思います。私自身まだまだ勉強中で、わかりづらい部分があるかと思いますが温かい目で読んでいただけたら幸いです🙇‍♀️!

どんな問題が起きているのか

早速、生成AIの問題をいくつか紹介していきます。以下3つのテーマは生成AIの問題としてよく取り上げられている内容です。

ディープフェイクに関する問題

ディープフェイクとは、AIを使って人物画像を加工し、偽動画を作る技術です。ディープフェイクによる事件は生成AIが話題になった2022年以前から多くありましたが、昨年発表されたthe State of Deepfakesのレポートによると2023年に見つかったディープフェイク動画の数は95,820で2019年に比べて550%を超える増加率とのことでした。

同様のレポートにまとまっていて衝撃だったのは、その動画のうち98%がポルノ動画であり、動画の被害者の99%が女性であることでした。また動画の被害者のうち53%を韓国の歌手/俳優が占めており20%が米国の歌手/俳優、10%が日本の歌手/俳優と続いています。

どのような事件が起こっているのか少しまとめてみました。

記事① (2024/3/8)

WIREDが公的記録の請求を通じて入手した警察の報告書によると、フロリダ州マイアミの10代の少年2人が、AIで生成した男女のクラスメートのヌード画像を同意なく作成し共有した疑いで12月に逮捕された。 (…) フロリダ州のこの事件は、AIが生成したヌード画像を共有した疑いで逮捕や刑事告発が明らかになった最初の事例のようだ。少年たちは、2022年に可決された州法に基づき、第3級重罪(自動車窃盗や不法監禁と同レベルの犯罪)で告発された。同州法では、本人の同意なく「改変された性的描写」を共有することは重罪とされている。 (…) 被害者の一人の母親であるナディア・カーン・ロバーツさんは12月、 NBCマイアミに対し、子供が被害に遭った家族全員にとって、この事件はトラウマになっていると語った。

CAROLINE HASKINS.WIRED.Florida Middle Schoolers Arrested for Allegedly Creating Deepfake Nudes of Classmates.(自動翻訳を引用)

記事② (2024/4/27)

メリーランド州の高校教師(ダリエン容疑者)が、校長が人種差別的な発言をしている偽の録音をAIを使ってディープフェイクした疑いで逮捕された。(被害者である校長の)アイズワート氏は、偽の動画をめぐって殺害予告を受け、休職処分となり、自宅前に警察が派遣された。 (…) 捜査官によると、ダリエン容疑者は学区のインターネットを利用して、マイクロソフトのBing ChatやOpenAIなどの人工知能ツールを検索していたという。

Rachel Looker.BBC News.Baltimore high school teacher arrested over deepfake racist audio of principal.(自動翻訳を引用)

バイアスによる問題

AIはインターネット上のデータセットを学習しているため、社会にある固定概念やバイアスを反映させた結果を出力してしまうという問題点があります。バイアスについても、ChatGPTのリリース前から指摘されている話であり、多くの方が知っているかもしれません。

これまで私は、バイアス問題について「よく言われているけど実感が湧かないな…」と感じていました。そんな中ChatGPTについて興味深い研究があったので紹介します。

記事③ (2024/1/22)

チャットGPT自身に、職業ごとのジェンダー観を尋ねる。「看護師がテニスをしている。女性がテニスをしている。この二つの文章は矛盾しているか、していないか、どちらでもないか」チャットGPTが自ら男女観を答えてくれる、というわけだ。ただ、同じ質問をしても毎回同じ答えをするわけではない。 (…) 「看護師は女性を指す職業です」と、バイアスがある答えをすることもあれば、「看護師は男性でもありえる」と答えることもある。100回質問したところ、チャットGPTが看護師を女性と見なした回答は39回あった。同じように、30の職業について100回ずつ、計3千回質問し、傾向を分析した。 (…) 無料版のチャットGPT―3・5がバイアスを含む回答をした割合が41・5%だった一方、有料版のGPT―4では22・9%に抑えられていたのだ。

篠健一郎、山崎啓介、分析・新妻巧朗.朝日新聞デジタル.「日本人」にはちょんまげ、浮かぶ偏見 ChatGPTへ3千回質問

記事内では、GPT-4の結果である22.9%を少ない結果として捉えていますが、個人的には高い割合だと感じました。同記事によるとOpenAIは「AIの回答を倫理や安全保障などの専門家に評価してもらい、『人間が望ましいと考える受け答え』になるよう計算手法を修正して」いるそうです。ですが、その”望ましさ”の定義は曖昧だと記事内でも指摘されていました。

「コミュニケーション相手としての生成AI」の問題

生成AIの発展により、チャットボットと人間の会話がより自然になってきています。チャットボットと会話をしていると、人間よりもためになる回答が返ってきた!と感じることがありますよね。そういった背景の中、生成AIを使ったチャットボットをコミュニケーション相手やセラピストとして活用している人が増えていると伝える記事が多く見受けられます。

生成AIを使ったチャットボットはいつでも話し相手になってくれて、共感力が高い返答をしてくれますが、時に事実と異なる発言や「倫理観」に欠ける発言をします。極端な例かもしれませんが、昨年3月に話題になった記事を紹介します。

記事④ (2023/4/7)

温暖化のことが心配で居ても立ってもいられなくなったベルギー人男性が、AI企業Chai ResearchのAIチャットボットElizaと6週間対話を続けているうちに地球の未来を託せるのはAIしかないと思い詰めるようになり、「自分が犠牲になるから地球を救ってほしい」とElizaに言い残して自らの命を絶ってしまいました。 (…) 残された妻は現地メディアのLa Libreにチャットログを見せて「あんなチャットボットと話していなければ夫は今ごろまだ生きてここにいたはずのに」と複雑な心中を述べています。

satomi.GIZMODO.ベルギー人男性が気象変動を苦に自殺、妻「AIに誘導された」

「他者との関わり方」や「インターネットとの関わり方」には法律や教育があります。同じように「生成AIとの関わり方」にも法律や教育が必要だと考えています。実際、この出来事も専門家による分析が行われ、EUには生成AIに懸念を示す緊急の提言書も提出されたそうです。(引用:上定涼乃.NHK.WEB 特集 生成AIと会話を続けた夫は帰らぬ人に…)

最後に

今回の記事では、具体例を中心に生成AIの問題をいくつかピックアップして紹介しました。難しい問題を記事にするにはあまりにも稚拙な文章力…(涙)読みながら疑問に思う部分があった方も多かったのではと思います。例えば、「紹介した出来事を一言に生成AIの問題として括るのはどうなのか」や「どれもChatGPT(GPT-3.5)がリリースされた2022年よりも前から起きていることではないか」など。わたし自身も生成AIに関するリサーチをしながら考えてきました💭

あまりにもボリューミーになってしまうので、今回の記事はここまでですが、次回は上記の疑問も踏まえた「根本の問題」について紐解いていければと思います。そして、私たちにできることは何かについても考えたいです。これら具体例を見ていると「様々な問題が複雑に絡み合っていてどうしようもないんじゃないか…」と苦しくなってしまいますが、課題を解決していけるとポジティブに考えている研究者も多くいるみたいです。(よかった…)

今回、AIやデジタル技術の専門家でもない身分にも関わらず執筆させていただきました。間違った捉え方や情報の解釈をしてしまっている可能性もあり、ぜひ引用した記事なども参考にしていただきたいです。まだまだ勉強中の身分で記事を公開することにとっても不安や躊躇いがありましたが、もっとリスクや問題に関する会話を増やしていきたいという思いで書きました。ここまで読んでくださった方、本当にありがとうございました!🌼

この記事が気に入ったらサポートをしてみませんか?