見出し画像

Public Perceptions of Gender Bias in Large Language Models: Cases of ChatGPT and Ernie

  1. 本研究の学術的背景は、大規模言語モデル(LLM)が急速に普及している一方で、その応答に性別バイアスが見られるという問題です。そこで、「大規模言語モデルの性別バイアスに対する公衆の認識は何か、そしてそれは異なる文化的背景で訓練されたモデルではどのように異なるか」という問いを立てました。

  2. 本研究の目的は、大規模言語モデル(LLM)の性別バイアスについての公衆の認識を詳細に把握し、異なる文化的背景で訓練されたモデル(アメリカのChatGPTと中国のErnie)でのバイアスがどのように異なるかを明らかにすることです。独自性と創造性は、性別バイアスの公衆の認識という視点からLLMを研究し、さらに異なる文化的背景で訓練されたモデル間でのバイアスの比較を行っている点にあります。

  3. LLMが広く普及する中で、その機能と使用方法についての倫理的な問題が提起されてきました。 特に性別バイアスの問題は、広範囲の人々に影響を及ぼす可能性があるため、重要です。 このような背景から、本研究では、異なる文化的背景(アメリカと中国)で訓練されたLLMの性別バイアスを比較的詳細に分析しました。

  4. 本研究で明らかにしたのは、大規模言語モデル(LLM)の性別バイアスに対する公衆の認識と、それが異なる文化的背景で訓練されたモデル(アメリカのChatGPTと中国のErnie)ではどのように異なるのかということです。ChatGPTは男性と女性を異なる職業名と関連付けるなど、より暗黙的な性別バイアスが見られました。一方、Ernieでは、女性の結婚志向を過度に推進するなど、より明示的な性別バイアスが見られました。

  5. 本研究の有効性は、ソーシャルメディアの議論を内容分析することで検証しました。具体的には、利用者たちが自身の使用体験や科学的な知見を基に性別バイアスの存在を議論している様子を網羅的に分析し、その結果をもとに性別バイアスの認識やパターンを洗い出しました。

この記事が気に入ったらサポートをしてみませんか?