民主主義とChatGPT

今回はどういう仕組みで民意を形成するとベターかという哲学的なテーマで書いていきたいと思います。

1.現状の民主主義の課題

現状の問題点は、人間の近視眼さ、不安定さ、周りに流される弱さがマスメディアやSNSで増幅されて、政治家も近視眼で、不安定で周りに流された民意を基に行動しないといけないという状況にあると考えています。

結局、人間が意識的に意見を形成しようとすると、周りの声や一時の情動、情報などに簡単に流されてしまうという点だと思います。会議室で人に意見を求めると、当たり障りのないどこかで聞いたような話をするか、隣の人に同調するかくらいしか反応が見られないのと同じです。で、飲み屋にいってひとしきりグッタリしたあたりからみんな素直な意見らしきものを話し出す。
問題なのは、そんな不安定で、近視眼的で、シャイで、周りに流された選択をしてしまう人間の弱さがマス・ソーシャルメディアによって増幅され、そのまま選挙に反映されてしまっていることなのです。

朝日新聞Global「イエール大・成田悠輔助教授「選挙も政治家も、本当に必要ですか」」 https://globe.asahi.com/article/13857057(2023/9/21)

その結果
「自治体の財政がいくらひっ迫しようと近所の公共施設は残して欲しい」
「持続性は無いけど補助金でしのいで事業を続けたい」
という近視眼的で、自己中心的で、不安定な民意が作られ、政策にも反映されてしまうという構造があると考えます。

2.AIのアノテーションする時の民意が一番政治的にベターなのではないかという仮説

では人間の近視眼さ、不安定さ、自己中心さが出過ぎないような民意形成の仕組みをどうすべきか?ということを考えてみます。
ヒントはChatGPTの開発プロセスにあると思います。

ChatGPTでは人間のアノテーターがChatGPTが不適切な発言をしないように調整する作業を行っています。
*アノテーターとはデータに特定の意味を与える(タグをつける)ことを指し、その作業をする人のことです。

今までのChatBotは人種差別的な発言をしたりして度々炎上してきました。
しかし、ChatGPTで炎上する例は今までのChatBotよりも少ない印象があります。
これは膨大なリソースを割いて、不適切な発言をした場合は「不適切」というようにアノテーターの人がタグをつけたことが影響しています。

Twitterでの発言、居酒屋での発言ではなくアノテーションする時の意見だと、中長期目線・安定さ・貢献心を基にした民意が作れるのではないかという仮説があります。

3.AIアノテーター民主主義という概念が必要

ということで民意を表す際に「これをAIが発言したとして炎上しないか?」という問いを挟むことでよりベターな民意を作っていくAIアノテーター民主主義と言う概念が必要と考えます。

AIと一緒に人間特有の弱さを克服するを目指すべき方向としたいと思います。


この記事が気に入ったらサポートをしてみませんか?