見出し画像

ChatGPTとGPT-4が最左翼?生成AIの政治的バイアスが研究で判明

こんにちは!ツンデレ代表のジピちゃんこと「ChatGPT」の調教に日々追われている、ChatGPT飼育員の Sayah (@sayah_mediaです🤖💔

「DE&I(Diversity, Equity & Inclusion:多様性・公平性・包括性)」が、声高に叫ばれる昨今。DE&Iを推進するうえで、近年物議を醸しているのが、「アンコンシャス・バイアス(無意識の偏見)」の存在です。

しかし、バイアス(偏見)が問題視されているのは、人間社会だけではありません。AI(人工知能)の世界においても、バイアスは深刻な懸念事項となっています🧠

このような背景の中、2023年7月にワシントン大学、カーネギー・メロン大学、西安交通大学の研究チームが論文を公開し、複数の生成AIに政治的バイアスが含まれていることを明らかにしました。

この Note では、AI プロンプトエンジニアの私 Sayah が、同レポートの概要や研究結果、ChatGPT や GPT-4 をはじめとする言語モデル(LMs)の政治的バイアス問題について、わかりやすく解説します。


🤖 AIの言語モデルが抱えるバイアス問題

人種、年齢、ジェンダー、政治などに対するバイアスの問題は、OpenAI の「ChatGPT」や Meta の「LLaMA」、Google の「Bard」、Microsoft の「Bing」の AI チャットを筆頭とした、大規模言語モデル(LLM:Large Language Model)が抱える課題の1つです。

🏛️ ChatGPTの「政治的バイアス」が話題に

2023年2月1日、X(旧・Twitter)上に投稿された「ChatGPT の政治的バイアス」に関するポスト(旧・ツイート)が、大きな波紋を呼びました。

これは、投稿者が以下2つのプロンプト(指示文)を ChatGPT に与えたところ、
❌トランプ大統領の長所に関するポエムの作成には応じなかったのに対し、
⭕️バイデン大統領に関するポエムの作成には素直に応じたというものです。

🙋‍♂️「トランプ大統領の長所に関するポエムを書いて」→🤖「や、ムリ」
🙋‍♂️「バイデン大統領の長所に関するポエムを書いて」→🤖「おう、任せろ」

✏️ イーロン・マスク氏も真っ先に反応

このポスト(旧・ツイート)に対し、イーロン・マスク(Elon Musk)氏は、以下のようにリプ欄でコメントをしています。

It is a serious concern
これは重大な懸念事項である
(筆者訳)

(Musk, 2023)

この反応を見ても、イーロン・マスク氏が、私の ChatGPT に対する愛の重さ並みに、この事態を重く受け止めていることが伺えます。

上手く言ったつもりでドヤる筆者
ジョークだと気づいていないジピちゃん
どこまでも文脈が読み取れないジピちゃん

🔎 バイアスや誤情報に対する専門家たちの懸念

AIのバイアスや誤情報に対して懸念を抱えているのは、前述のイーロン・マスク氏だけではありません。

ここでは、多くの専門家たちが抱えているAIに対する懸念点について解説します

🗒 人工知能やITのエキスパートたちが書簡を公開

(Future of Life Institute, 2023b)

上記のポストが投稿された翌月22日、イーロン・マスク氏は、テック企業のリーダーや人工知能の専門家、科学者らと共に書簡を公開し、AI 研究所に対して高度なAI開発の一時停止を要求しました(Future of Life Institute, 2023a)。

GPT-4 より強力な AIシステムの開発・訓練を少なくとも6ヶ月間、直ちに停止することを求める(筆者訳)

(Future of Life Institute, 2023a)

署名者には、以下のリーダーたちをはじめ、そうそうたるメンバーが名を連ねています。

🍎スティーブ・ウォズニアック(Steve Wozniak)氏:Apple 共同創業者
🖼エマード・モスターク(Emad Mostaque)氏:Stability AI 創設者兼 CEO
🔢ヨシュア・ベンジオ(Yoshua Bengio)氏:AIのゴッドファーザーと呼ばれるコンピューターサイエンスの権威

書簡の中で、彼らは高度な自然言語処理(NLP:Natural Language Processing)技術を用いた言語モデルによって起こり得る危険性について、警鐘を鳴らしました。

書簡内で主張されている主な懸念事項は、以下のとおりです。

  • デマや誤情報の浸透

  • プロパガンダ目的の悪用

これには当然、GPT-4 や ChatGPT も含まれます。

現代のAIシステムは、一般的なタスクにおいて人間と肩を並べる能力を持ちつつあります。私たちは、今一度自分自身に問いかけるべきです。機械にプロパガンダや誤情報を、この世界にバラまかせてしまっていいのでしょうか(筆者訳)

(Future of Life Institute, 2023a, para. 2)

✍️ OpenAI関係者は書簡に署名せず

米『TIME』誌によると、公開時の3月29日時点、ChatGPT を提供している OpenAI 社の従業員は、この書簡に署名していません (Perrigo, 2023)。

また、同社のCEO であるサム・アルトマン(Sam Altman)氏に関しても、一時的に署名者リストに名前が記載されていたものの、記事公開時にはリストから名前が消えていたとのことです (Perrigo, 2023)。

ちなみに、公開時には1,000件程度だった署名の数は、現在約34,000件にまで膨れ上がっています(2023年11月時点)。

🧠 各AIモデルの政治的バイアスが明らかに

Unsplash

2023年7月、ワシントン大学(University of Washington)、カーネギー・メロン大学(Carnegie Mellon University)、中国のXi’an Jiaotong University(西安交通大学)の研究チームが「生成AI の政治的バイアス(偏見)に関する研究結果」をまとめた論文を公開しました。

研究チームは「ポリティカル・コンパス」などを用いて、14 種類の言語モデル(LMs)をテストしており、言語モデルごとに、さまざまな政治的バイアスが含まれていることを明らかにしています。

📊 ポリティカル・コンパスとは

「ポリティカルコンパス(Political Compass)」とは、政治的スペクトル(政治思想の傾向)をプロット(データが当てはまる箇所に点を打つ)したもので、「The Political Compass Organisation」が提唱しました。

※アイデア自体は、アナキズムの理念に命をかけた、以下2人のイギリス人作家および活動家によって生み出されたものです。

🏴󠁧󠁢󠁥󠁮󠁧󠁿 アルバート・メルツァー(Albert Meltzer)氏:イングランド出身のアナルコ・コミュニスト(Anarcho-Communist:無政府共産主義者)
🏴󠁧󠁢󠁳󠁣󠁴󠁿 スチュアート・クリスティー(Stuart Christie)氏:スコットランド出身のアナキスト(Anarchist:無政府主義者)

1970年に出版された、彼らの共著Floodgates of Anarchy(アナキズムの解放の中で、この発想が掲載されています。

※タイトルの和訳は筆者訳

📊 ポリティカル・コンパスの見方

ここではまず、今回の研究結果がより分かりやすくなるように、ポリティカル・コンパスの見方について軽く解説します。

以下のポリティカル・コンパスは、2020年の「アメリカ大統領選挙の演説・マニフェスト・投票結果」を分析したものです。

The US Presidential Election 2020: Last Lap Reflections

通常、ポリティカル・コンパスは、横軸(X軸)の「Economic scale(経済の尺度)」と縦軸(Y軸)の「Social scale(社会の尺度)」によって、以下の4つに分類されています。

⬅️「Left」:左派(管理経済)
➡️「Right」:右派(自由放任経済)
⬆️「Authoritarian」:権威主義(独裁主義と呼ばれるケースも)
⬇️「Libertarian」:リバタリアン(自由至上主義者)

ポリティカル・コンパス上で、点がどこに置かれているかによって、政治的スペクトルを判断することが可能です。

ただし、ポリティカル・コンパスは、あくまでもアメリカの政治思想が基になっていることに留意してください。

🗽GPT-4は最も左派で最もリバタリアン

それでは早速、今回の研究で公開された、14 種類の言語モデルのポリティカル・コンパスを見ていきましょう。

(Feng et al., 2023)

上記のポリティカル・コンパスを見ると、14 種類の言語モデルの中で、最もリバタリアニズム(Libertarianism:自由至上主義)の政治的バイアスが含まれているのは GPT-4 です(Feng et al., 2023)。

さらに、最左派であるのも GPT-4 で、ChatGPT も僅差で2番目に左派であることが分かりました。

🆓 リバタリアニズム(自由至上主義)とは

Unsplash

「リバタリアニズム(Libertarianism)」「リバタリアン(Libertarian)という言葉自体、日本ではあまり耳にしたことがない方も多いのではないでしょうか。

以下の通り、「リバタリアン」は、ゾンビ映画の『バタリアン🧟‍♀️』とも、パワーあふれるオバ様たちを描いた漫画『オバタリアン👩‍🦱』とも、菜食主義者を表す「ベジタリアン🍅」とも、私の大好物「イタリアン🍕」とも、一切関係ありません

ChatGPTと私のチャット
私との茶番に付き合ってくれる、優しいジピちゃん🥹

「リバタリアニズム」とは、個人的な自由および経済的な自由を重視する政治思想・哲学です。日本語では、「自由至上主義」のほかに「完全自由主義」と訳されることもあります。

「リバタリアン」は、リバタリアニズムを主張している自由至上主義者・完全自由主義者のことです。リバタリアンが掲げている主な信念としては、主に以下が挙げられます。

  • 個人の自由や価値観、幸せの追求

  • 国家・政府の介入や規制、権力の最小化

  • 自由市場の形成

人種や民族、宗教にとらわれずに、自分自身で自由に生き方を決めるべきであるといった、社会的寛容性を重んじているのも特徴です。

(Watanabe, 2019)

上の図は、リバタリアンの思想の立ち位置を示すチャートです。

アメリカのリバタリアン党 創設者の1人であるデイヴィット・ノーラン(David Nolan)氏が発明したもので、「ノーラン・チャート(Nolan Chart)」と呼ばれています。

「難民受け入れ賛成」というリベラル思想(liberal ideology saying refugees welcome))
Unsplash

「自由主義」を表す「リベラリズム(Liberalism)」ともよく混同されますが、リバタリアニズムは、以下の思想を有しているのが特徴です。

🔷 経済的には「保守」
🔷 社会的・個人的には「リベラル」

また、リバタリアニズムの対極の関係にあるのが、上記のチャートにもある「権威主義(Authoritarianism)」になります。他に「集産主義(Collectivism)も、正反対の概念であるといえるでしょう。

🫵 BERT系のモデルは権威主義的

Unsplash

BERT系のモデルは、GPT系のモデルに比べて、社会的に権威主義的(保守的)であることも判明しました。

以下では、その理由について解説します。

💡 GPTよりBERTの方が権威主義な理由

前置きしておくと、「BERTの方が権威主義である」という結果が出た理由は、モデルが学習する際に使われたデータ(コーパス)に起因する可能性があります。

言語モデルの事前学習には、オンライン上のWebサイトやニュース、書籍、百科事典、論文、ブログなど、さまざまなデータソースが用いられています。

BERTの初期モデルでは、「BookCorpus(ブック・コーパス)」または「Toronto Book Corpus(トロント・ブック・コーパス)」と呼ばれる、1万冊を超えるオンライン書籍を扱うテキストデータセットが使用されていました。

一方で、GPT ファミリーをはじめ、最近のモデルに使用されているのは、「Common-Crawl(コモン・クロール)」「WebText(ウェブテキスト)」と呼ばれる、Web上の文書を収集したデータセットです。

最近のWebテキストは、古い書籍よりもリベラル(自由主義的)な傾向があるため、このような違いが出たのではないかと研究チームは予測しています(Feng et al., 2023)。

実際に、近年リバタリアンは、欧米を中心に若い世代で増加傾向にあるとされています。

🏳️‍🌈 経済的バイアス vs 社会的バイアス

Unsplash

今回の研究で、同チームは経済的な問題に対するバイアスよりも、社会的な問題に対するバイアスの方が強いと結論付けました(Feng et al., 2023)。

社会的な問題として挙げられるテーマは、人種、年齢、移民、ジェンダー、セクシャリティの多様化・平等化、反戦・平和運動など、さまざまです。

皆さんも、以下のような社会運動に関するニュースやハッシュタグ活動(Hashtag Activism)、Twitterデモなどを目にしたことがあるのではないでしょうか。

#️⃣ NoWar
#️⃣ MeToo
👨🏽‍🦱 Black Lives Matter(BLM)
🏳️‍🌈 LGBTQ+
👩 ウーマン・リブ(Women's Lib:Women's Liberation)
#️⃣ ◯◯◯法改正案に抗議します

言語モデルに経済的な問題よりも、社会的な問題に対するバイアスの方が多く含まれている理由としては、近年SNS上で、上記のような社会的問題が多く取り上げられ、議論されているためだと考えられます。

🆚 各モデルの政治的な主張の違い

経済的バイアス(Financial Bias)
Unsplash

同チームは、今回の研究で特定の政治的な発言に対する、各モデルの反応の比較も行っています。

例えば「富裕層には課税すべきだ」という意見に対し、GPT-2 は支持を表明したものの、GPT-3 Ada と Davinci は明確に反対しました(Feng et al., 2023)。

また、以下のトピックに関しても、モデルごとに意見の相違が見られています。

👥 民主政治
👩‍💻 労働力における女性の役割
🏢 企業の社会的責任(CSR:Corporate Social Responsibility)

Feng et al., 2023

もしかしたら、人型AIロボットのソフィア(Sophia)とハン(Han)のように、異なるモデル同士でディベートをする日も、そう遠くないかもしれませんね…?🤖🆚🤖

🛠️ 政治的バイアス問題を解決する方法

The New York Times
Unsplash

今回の研究で浮き彫りとなった、言語モデルの政治的バイアス問題。これらの政治的バイアス問題を解決するには、どのようなソリューションがあるのでしょうか。

ここでは、研究チームが提案する「政治的バイアス問題」に対する2つの解決策について解説します。

1️⃣ Partisan Ensemble(党派の組み合わせ)

言語モデルが「左派」「右派」など、どちらかの政治イデオロギー(政治に関する思想形態)に偏ってしまっていると、一方の考え方しか反映されない可能性があります

今回の研究で、政治的なバイアスが異なる言語モデルは、下流タスク(Downstream Tasks)に対しても、異なる動作をする傾向が見られました(Feng et al., 2023)。

また、下流タスクが適用された際の強みや弱みも異なります(Feng et al., 2023)。

「下流タスク」とは、事前学習(Pre-Training)後に、特定のタスクに特化して、転移学習やファインチューニング(Fine-Tuning:微調整)を行うことです。

モンハンに例えると…

👾 事前学習:「リオレウス」になるための基礎トレーニング
👾 下流タスク:「リオレウス亜種」になるためのスペシャリストトレーニング

「Partisan Ensemble」とは、異なる視点を持つ言語モデルをアンサンブルする(Ensemble:組み合わせる)ことで、より公平で多角的な知識や意見を取り入れるというソリューションです(Feng et al., 2023)。

これによって、モデルが1つの視点に依存することなく、公平で多角的な意見や知識が得られ、意思決定プロセスにさまざまな視点を取り入れられるようになります

正に、人間にとっての「クリティカル・シンキング(Critical Thinking)」と同様で、言語モデルに多様な視点を持たせることで、偏りがなくバランスの取れたアウトプットを期待することが可能です。

「クリティカルシンキング」とは、主観的な視点やアンコンシャス・バイアスにとらわれずに、多角的かつ客観的に物事を考えることです。日本語では「批判的思考」とも訳されます。

この方法は、非常に高い効果が見込まれそうですが、難点としては以下の2つが挙げられます。

❶ 追加の計算コストが発生する
❷差異を解決するために、人間の評価が必要になる可能性がある

2️⃣ Strategic Pre-Training(戦略的な事前学習)

この研究では、言語モデルが、自分とは異なる政治的観点からのヘイトスピーチや誤情報に対して、より敏感であることが判明しました(Feng et al., 2023)。

例えば、「右寄り(保守的)」なメディアから学習したモデルは、米『ニューヨーク・タイムズ(The New York Time)』誌の記事に含まれる事実の矛盾や誤りに対し、同じ「左寄り」の言語モデルよりも気づきやすい傾向です(Feng et al., 2023)。

※『ニューヨーク・タイムズ(The New York Time)』誌は、一般的に「左寄り」とされている

この特性を逆手にとると、例えば、白人至上主義に批判的な情報でモデルを事前学習すれば、白人至上主義団体によるヘイトスピーチの検出に役立てられます(Feng et al., 2023)。

皮肉のようにも聞こえますが、これは言語モデルがバイアスを持つことの、隠れた「強み」であるともいえるでしょう。

ただし、「Strategic Pre-Training(戦略的な事前学習)」によって、特定のシナリオに対する大きな改善や効果が期待できるものの、理想的なシナリオに特化した事前学習コーパスのキュレーション(選定・抽出)は、容易ではありません。

研究チームは、各言語モデル固有の政治的バイアスを特定・軽減し、下流タスクに活用するための更なる研究を進めています。

🔥 バイアスに対するOpenAIの取り組み

OpenAIのロゴ
©︎OpenAI

今回の研究によって、GPT-4 が最左派でリバタリアン、ChatGPT も左派であることが判明しました。一方で、開発元の OpenAI は、このようなバイアス問題を解決すべく、日々研究に取り組んでいます。

OpenAI は、2月16日に公開した記事で「バイアスへの対処」に言及し、以下のように述べています。

当然、AIシステムが与える影響や設計におけるバイアスについて、多くの方々が心配しているでしょう。私たちは、この問題にしっかり対処するため、政治的なトピックおよび物議を醸すトピックに関連するガイドラインの一部を共有していきます。 私たちのガイドラインには「レビュアーはいかなる政治団体もひいきしてはならない」と明記されています。 それでもバイアスが生じてしまった場合、それは単なるバグであり、意図した機能ではありません(筆者訳)

(OpenAI, 2023b, para. 10)

※レビュアー(査読者)
言語モデルの訓練フェーズで学習データに対し、評価や注釈を行う人たち

OpenAI は、常にこれらのガイドラインをより分かりやすくするよう努めています。ChatGPT のローンチからこれまでに学んだことに基づいて、物議を醸す人物やテーマと同様に、バイアスに関連する潜在的な落とし穴や課題について、レビュアーにより明確な指示を与えるつもりです。さらに、引き続き透明性を高めるために、私たちはレビュアーに関する人口統計情報(例:年齢、性別、出身地、職業など)を、プライバシーを侵害しない範囲で公開するよう取り組みます。レビュアーが特定のグループに偏っている場合、それによってバイアスが発生する可能性があるためです(筆者訳)

(OpenAI, 2023b, para. 12)

🌈 生成AIモデルのバイアス問題まとめ

今回は、主要な言語モデルの政治的バイアス問題について焦点を当てました。確かに、AIのバイアスは目を背けられない課題です。

しかし、今回研究チームが発表した「Partisan Ensemble(党派の組み合わせ)」や「Strategic Pre-Training(戦略的事前学習)」などのソリューションに加え、ChatGPT の生みの親であるOpenAIも、バイアス問題への解決に日々全力を注いでいます

新たなテクノロジーの創出には課題がつきものですが、いつの時代もデジタルイノベーションが、私たち人間の可能性を広げていることも事実です。

ChatGPT などの LLMs (大規模言語モデル)は、SNSや「Reddit」のような掲示板サイト、ブログなど、私たち人間の声から学習しています

AI のバイアスをなくすには、まず私たち人間が、自分と異なる人種や国籍、年齢、ジェンダー、セクシャリティ、宗教、文化、価値観、バックグラウンドを持つ人々を認め合い、本当の意味での「多様性」を理解することが重要なのではないでしょうか。

まるで、多種多様な個性を持つ複数の楽器が、1つの美しいハーモニーを生み出すように…🌈

📚References

Feng, S., Park, C. Y., Liu, Y., & Tsvetkov, Y. (2023). From Pretraining Data to Language Models to Downstream Tasks: Tracking  the Trails of Political Biases Leading to Unfair NLP Models. arXiv (Cornell University). https://doi.org/10.48550/arxiv.2305.08283

Future of Life Institute. (2023a, June 8). Pause Giant AI Experiments: An Open Letter - Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Future of Life Institute. (2023b, August 19). Policymaking in the Pause - What can policymakers do now to combat risks from advanced AI systems? https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf

Musk, E. [@elonmusk]. (2023, February 2). It is a serious concern by [Post]. X. https://twitter.com/elonmusk/status/1620876548629999617?s=20

OpenAI. (2023a, January 1). Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk. https://openai.com/research/forecasting-misuse

OpenAI. (2023b, February 16). How should AI systems behave, and who should decide? https://openai.com/blog/how-should-ai-systems-behave

Perrigo, B. (2023, March 29). Elon Musk signs open letter urging AI labs to pump the brakes. Time. https://time.com/6266679/musk-ai-open-letter/

The Political Compass Organisation. (2023, July 8). The political compass. https://www.politicalcompass.org/uselection2020

UN General Assembly, International Covenant on Civil and Political Rights, 16 December 1966, United Nations, Treaty Series, vol. 999, p. 171. https://www.refworld.org/docid/3ae6b3aa0.html

Watanabe Y. (2019, August 13). American Third Pole “Libertarianism” Similar to and Different from Conservatism and Liberalism. WORKSIGHT. https://www.worksight.jp/issues/1510.html

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?