見出し画像

4月19日 AIはわりといい加減 そんなAIを信じる人々もいる

 Netflixで『AIに潜む偏見』というドキュメンタリーを見た。

 「AI」について聞かない日はない。AIは魔法のようなもので、これを導入すれば仕事も生活も劇的に素晴らしいものになる……という宣伝を私たちは日々聞かされている。しかし、もしもAIに「欠陥」があったとしたら……? AIに盲信し続けることが、将来の世界における落とし穴になるかも知れない。そういう警鐘を鳴らすのがこのドキュメンタリーだ。

 まず前提として、AI技術の基礎を築いたのは白人の男性で、現在もAI研究をやっているほとんどが白人男性だ。この時点でAI研究にはある一定の「偏り」が生じてしまう。
 どういうことかというと、「顔認証」技術は白人男性なら100%検知。そこから白人女性、黒人男性……とパーセントが落ちていき、黒人女性になるとほぼ「検知不能」になる。これがAIが孕んでいる「欠陥」であり、「偏り」だという。AI研究者のほとんどが白人男性で、まわりにいるのも全員白人男性、技術の検証をするのも白人男性だから、AI技術にこういう偏りが認識されないまま世の中に出てしまっている。
 これが世に出てしまうと、ある種の問題を生み出してしまう。ここまでの話でピンと来ると思うが、AIは「黒人女性」を人間扱いしない。つまり、AIが差別を生み出す原因になってしまうのだ。

 AIって実はかなりいい加減なものだったんだな……。

 とにかくも現状のAIはあまりにも不完全すぎて、社会が潜在的にもっている「差別」と「偏見」を増幅してしまう結果をもたらす。つまり「白人男性」が有利で、「黒人女性」が不利な社会だ。
 この現状はすでに世の中で顕在化しており、Amazonは一時、送られてくる履歴書をAIで診断させていて、採用・不採用を決めさせていた。しばらくしてその結果を人の手で確認してみたところ、AIは女性の求職者をまるごと全員不採用にしていた。男性ばかりを採用していた。
 もしも「人種」記入欄があったら、AIは「白人男性」のみを採用する機械になっていただろう。
 職場の評価システムにもAIは採用されている。しかしその基準がわからないことが問題となっている。
 とある学校教師は長年の勤務で教え子や親から高い評価を得ているのに、AIは「危険な教師」という判定を下した。その理由がわからない。AIの評価システムは本当に正しいのか……という疑念にも繋がっていく。

 そういえば最近は広告もAIが診断し、その人の好みに応じた内容の広告が出てくるらしい。でも私にとって「正解」だったことはほとんどない。興味を持ってクリックした経験は数回……10回を越えることはない。だいたいがスルーされるか、ノイズでしかない。「その人の好みに応じた広告」になっていない。

 問題の1つ目は、AIがこういう明らかな欠陥を抱えているのにも関わらず、研究者達はこのAIシステムをさも素晴らしいものであるかのように色んな企業に売り込み、経営者は採用してしまっていることにある。おそらくは研究者自身も、AIに欠陥があることを気付いていない。もしかしたら、研究者にも「早く名を上げたい」という欲望に取り憑かれて、功に焦って売り込んでいる……という背景もあるかも知れない。

映画『マイノリティ・リポート』。将来犯罪を犯す可能性のある人を、事前に逮捕してしまう……という未来を描いた作品。しかしそのシステムに欠陥があったら?

 もう一つ問題は、ドキュメンタリーが指摘しなかった話だけど、その一方で「AIを信用してしまう人間」がいる。AIを信用しているから、様々な企業は採用している。人間の言うことはあやふやで信用ならないが、AIが言うなら正しいのだろう……。そう思ってしまう人間心理がある。AIが「権威」の代理になってしまう。
 もしも優秀な社員に思えた人が、AIによって「危険人物です」という認定をされたら? それを経営者が信じてしまったら?
 この問題は現実に起きてしまっている。真面目に働いていたのに、AIによる診断で低評価を受けて、減給されたり、解雇されたり……という話はすでにあるようだ。真面目に働いて成果も出しているのになぜ? 最終的な決定を下すのは人間だが、その人間がAIによる判定を鵜呑みにしてしまう危うさがある。
 AIによる評価システムはよくわからない。設計したエンジニアでしかわからない。ほぼブラックボックスになっている。よくよく考えたら、いったいどういう根拠や基準を持っているかわからないようなものの評価を、どうやって信じる気になれるのか……という問題だ。でも信じちゃっている、というのが問題となっている。
 「AIが言うのだから」……と信じてしまう人達がいる。なぜならAIが現代社会における「神の託宣」になってしまっているから。AIが言うなら正しいのだろう……と。

 私は知らないのだが、毎回様々な「問題」について議論するテレビ番組があったそうだ。その問題の内容は、要するに「トロッコ問題」のように「正解のない問題」で、毎回出演者がどちらかの側に立って、相手と議論する……という内容だったようだ。
 その番組ではAIも議論に参加するのだが、AIは基本的に「神の託宣」という扱いだった。AIが下した結論だから必ず正しい。AIが下した判定に対して、人間がどのように解釈するか……という内容だったそうだ。知らずのうちに「AIの発言を批評してはならない」というルールが出現していたそうだ。
(私は該当の番組を見ておらず、それを見た人の記事で知ったが、こういう内容だったそうだ)

 私も「AIが判定します」と言われると、「人間が判定するよりもきっと公正な答えを出してくれるんだろうな」……とか思ってしまう。でもAIは実は判断基準も曖昧でいい加減なものだったとしたら……? というか、よくよく考えたら、その「判断基準」を設定しているのは人間じゃないか。その人間は、本当に公正な判断力を持っているのか?
 そう考えると、AIの意見や診断を無闇に信じるのはわりと危ないな……とか考えてしまう。

 イギリスではロンドン中に監視カメラが設置されていて、通行人の顔をスキャンし、AIが指名手配犯画像を照合し、警察に通報してくれるそうだ。便利なシステムだが、このシステムの本当に素晴らしいところは“不正答率98%”というところだ。つまり、ほとんど間違っている。100回中2回くらい正しい情報を送ってくれるというポンコツシステムなんだそうだ。
 この時もはやり黒人は不利に立たされる。まったく犯罪歴のない有色人種をAIにスキャンさせると、20%くらいの確率で犯罪者認定するそうだ。つまり、黒人は街を歩いているだけで通報されてしまう。

 この監視カメラのシステムは、発表された時ゲームメディアにも掲載されていて、それを読んだ記憶がある。監視カメラで通行人の顔や、体の動きをスキャンし、もちろん指名手配犯画像とも照合するし、不審な行動……つまり窃盗や爆弾を設置しようとしている人がいたら、即座に認識して通報する……という。
 この話を聞いた時は「凄いものがあるんだな……」と感心したものだが、しかしこういった世界の基本的常識――「カタログスペックと実際はぜんぜん違う」。
 この場合の「カタログスペック」とは人間の動きも検知し、窃盗犯や爆弾を設置しようとするテロリストを事前に特定します……というところ。実際は“不正答率98%”というポンコツシステム。テロリストの特定にはまったく役に立たない。
 でもAIが警察に通報してきたら出動しなくてはならない。なぜなら「AIは正しい判断をしてくれる」はずだからだ。上層部がそのように信じて、この仕組みを作ったのだから、下っ端の警官は出動しなければならない。そしてAIが通報した人を逮捕し、拘留し、しばらくして指名手配犯とまったくの別人だったと気付いて解放する……。
 これって、かえって警察の負担を増やしてないか?
 でも上層部にいる人間ほど、AIの効能を信じているから、ポンコツAIシステムは使われ続ける。
(余談 今時の泥棒のプロは、髪型もきちんと整えて、スーツを着て住宅街を歩いている。「営業に着ているサラリーマン」の格好だ。なぜなら、そういう格好のほうが通り過ぎる人に不審がられないからだそうだ。AIはこういうスーツを着て道を歩いている泥棒を……おそらくは検知できないだろう)

 AIに関して否定的、批判的なドキュメンタリーだったが、私はそこまで悪くないんじゃないか……という気がいている。もちろん「正しく使えば」という話だが。

 例えば中国には「社会信用度」というものがある。中国はネットを使う時は必ず顔面認証が必要で、アカウントは作ったり消したりはしない。一つのアカウントを一生背負うもので、あらゆるものがポイントとして紐付けされている。だからどこかで窃盗やテロ行為なんかをやらかすと、「社会信用ポイント」がマイナスされてしまう。だからSNSでうっかりな発言はできない。常に行動や発言が監視され、評価されてしまう。
 人間のあらゆる行動や発言が管理されている。これこそディストピア的監視社会だ……とドキュメンタリーは語る。
 でも、この社会信用ポイントはある良い面もあるんじゃないか、という気がする。まず人々が街でゴミのポイ捨てをしなくなる。これも社会信用度と関係してしまうから、街でのゴミのポイ捨てはしない。暴言も言わなくなる。中国人にマナーを教えるのはなかなか難しい……というのは昔から言われていることだが、この仕組みを制度化しているのは、実は案外良いのではないだろうか。
 ただ、これが政府によって制度化されているから、「共産党を称賛する」ことも信用ポイントになってしまう。この辺りが共産主義国家ゆえの歪みではあるのだが……。

 でもこの「社会信用度」というものを可視化すること自体は悪くないな……という気はしている。この仕組みがあるなら、街中でゴミのポイ捨てはしなくなるだろう。立ち小便もしなくなる。イジメは……なくせるのか? ちょっとわからない。
 この社会信用度によって将来の就職活動に影響する、利用できるサービスの質に差ができる……と言われると、みんな普段からの生活をより良くしよう、と考えるだろう。

 確かに危険な側面もある。この制度を「言論」や「行動」にまで干渉していくと、「言論の自由」を統制してしまうことになる。うっかり「ウンチ」とか言えなくなる。「ウンチ」と発言する場合は、ジョークで言う場合もあるし、もしかしたら「健康上の問題」でそう発言することだってあるかも知れない(ウンチの状態は健康面を確かめる上で非常に重要)。どんなものでも、言葉には多様な側面があるわけで、言葉の切れ端だけを規制する……というわけにはいかない。
 TwitterやFacebook、YouTubeではすでにこの「言論統制」をやっている。特定のキーワードを口にすると、その途端アカウント停止……ということもある。
 コロナウイルスが流行り始めた初期の1年くらい、コロナウイルスについてブログに書いたり、YouTubeで発言すると、グーグルの検索から外される……という現象が起きた。コロナウイルス関連の話題を取り敢えず書いて注目されよう、儲けよう……という連中と一緒という扱いを受けるからだ。それで私も当時は「なんとかウィルス」と表現していた。
 最近はウクライナ情勢の話題がこの対象になっていて、ウクライナ問題について話したりするとYouTubeからペナルティを受けてしまう。それで、とあるウクライナ人が、いま自分の国で起きていることを伝えようとYouTubeで動画を作成したところ、「収益から外された」という。YouTubeが使っているAIが、内容を確かめず、「過剰にウクライナの話題をする人」という条件だけで外したのだ。
 私が知っているとあるYouTuberは、サブチャンネルを作っている。なぜそんなものを作っているのかというと、YouTubeのアルゴリズムがあまりも謎すぎて、ある日突然、過去動画の何かが「問題だ!」ということになってチャンネルごと閉鎖されるかも知れない。そういうときに備えてサブチャンネルを作っておく、という。
 TwitterでもFacebookでもYouTubeでも、どんなSNSでもAIを使っており、その設定次第で突然アカウントを停止する、ということがある。世の中のSNSはなにが禁止ワードに入ったのか……なんて公にしてくれない。いったい何が問題で、どの発言が禁止ワードに触れたのかもわからない。とにかくも突然、アカウントを閉鎖させてしまう。
 とにかくもTwitterやFacebookが言いたいことは1つで、「問題になりそうなことは口にするな」だ。その“言葉”自体をなかったことにすれば、問題も起きることはない……この理論をTwitterやFacebookを運営している。
 最近はTwitter買収の話が出ており、現状のTwitterでは「言論の自由に反するのではないか」という意見が出ていて、それを変えたい……という理由のようだ。私はこの話には賛成する。現状のTwitterだと、うっかり「ウンチ」とも言えない。ウンチのようなわかりやすいものならともかく、Twitterは本当に不可解なキーワードを突然禁止ワードに加え、それを発言した人を無条件にアカウント停止にしようとする。客観的に見て、どう見ても真っ当なことを言った人ですら、アカウント停止……ということも起きている。
 政治的な面の話をすると、「左翼的」発言はどんなに過激であってもアカウント停止されることはないが、「右翼的」発言は真っ当と思われる意見でもアカウント停止処分が下ることがある。するとTwitterは、「公平」ではなく、かなり左翼的思想の人間が運営しているのではないか……という疑いも出てくる。左翼的言論はOKで、右翼的言論はNG……こんなSNSが公平であるわけがないし、「言論の自由がある」とはとても言えない。こういうのも、運営側の思想や偏見が運営そのものに影響を与えている事例であると言える。
 この現状を変える……というなら賛成だ。

 『銀魂』名物「ネオアームストロングサイクロンジェットネオアームストロング砲」。これをFacebookに投稿しようとすると、おそらく「性器」と判定してペナルティを喰らう。実は以前、『監獄学園』のあるギャグシーンの画像をFacebookに載せようとした。すると本当にペナルティを喰らってしまった……ということがある。「エロシーンっぽく見えるギャグシーン」……ということをAIは見抜けない。

 事実として、この「社会信用度」システムはすでに存在していると言える。
 例えば浜辺に捨てられたゴミを集めて、その様子をTwitterで公開する。そこに「いいね」が集まる。この時の「いいね」の数が、社会信用度に置き換えられる。話題になれば、「あのツイートをした人ですね」という名刺代わりになる。いまTwitterやInstagramで有名になる人……というのはこういう人だ。
 普段からTwitterやInstagramで「いいね」が多い人は、「信用できる人」と認識される。実際に、それで「仕事が来た」という人は世の中に一杯いる。
 すでにTwitterやInstagramの「いいね」が社会信用システムと言えなくもない。ただ、それを「制度化」しているかどうか……の話だ。

 もしも制度化したら、ポジティブな面としては、人は街でゴミのポイ捨てとかもしなくなるし、暴言も吐かなくなる。ネガティブな面を見ると、言論の自由、行動の自由が統制される。自由に物事を言ったり、行動したり……ということができなくなる。これがある時、問題として顕在化する瞬間もある。
 例えば、とある消防隊員が、プライベートで災害に遭遇し、救命活動をして人命を救った。するとこの消防隊員は懲罰を喰らった。なぜなら職務時間以外のときに活動してはならないという規定があったからだ。
 もしも行動の自由がかせられている時に、事故に遭遇した、災害に遭遇した……その時、人はどうする? 「規定」に従って何もしないか、それとも「規定」を破って問題に対処するか。目の前で倒れている人がいても、規定があるから救わない……か? その選択を突きつけられることになる。
 いやいや、そういう問題に葛藤する前に、そもそもそういう問題になりそうな「行動の自由」を統制しようとするな……という話だ。
 もしも人の行動が監視され、行動の一つ一つが評価される時代が来たら、いつかそういう問題に直面することになる。そもそもAIには「ジョーク」と「本気」を見抜くだけの賢さがない。そんなものに、あらゆる発言、行動を監視させると、間違いなく面倒になる。
 そして、その「設定」をするのは、AIではなく実は人間。AIはそれに従うだけ。そもそもの設計をする人間がどのように判定するか、ということになる。こういう設定をする人間がそれだけ賢くなくてはならないが……。それこそ一番期待できない。究極的には、AIではなく、人間の知性や価値観に全てが委ねられている。
 AIを使って無自覚に白人男性が有利な社会を作ろうとしてしまっていた……という前例を聞くと、なかなかそういう期待はできそうにない。

 今のところAIが活用できそうなところ、といえばやはりゲームの世界……くらいなものだろう。現実世界のAI使用は、不完全すぎてディストピア社会にしかならない。所詮は人間の作りしもので、そのもともとの人間がそこまで賢くないのでは、AIは今以上に有用なツールにはなりそうにないね。


とらつぐみのnoteはすべて無料で公開しています。 しかし活動を続けていくためには皆様の支援が必要です。どうか支援をお願いします。