見出し画像

論文紹介: ソーシャルメディアは人々の意見を過激化していないかもしれない

「エコーチェンバー(反響の部屋)」という言葉を聞いたことがあるでしょうか。これはオンライン上で、自分と似た関心を持つユーザだけをフォローしたり、自分の意見に合致した情報のみを消費した結果、自分の意見が拡大/強化されてしまう状況/現象です。
(閉じた小部屋で音が反響するみたいな状況からのネーミングです。定義参考

しかし、多くのアメリカ人がこのエコーチェンバーを認識しているにも関わらず、エコーチェンバーに関する懸念は、提案されている解決策も含めて、ほとんど定量的に検証されこず、あくまで仮定に基づいていて論じられてきたのが実情でした。

そこでNature誌に掲載された本研究では、選挙期間中における米国の全てのアクティブな成人Facebookユーザのデータを使用し、彼らが目にしたコンテンツが意見の変化に影響があるのかどうかという検証を行いました。

Nyhan, B., Settle, J., Thorson, E. et al.
Like-minded sources on Facebook are prevalent but not polarizing. Nature (2023).


結果

実際にこの研究が行ったことは: 

  1. アメリカの全成人ユーザのデータを用い、彼らがFacebook上でどれくらいlike-mindedな(同じ考えを持つ)情報を消費しているかを定量的に検証

  2. 参加者を募り(n = 23,377)、彼らのフィードからlike-mindedな情報を意図的に減らした結果、彼らの行動や政治的志向に影響があるかの検証

です。

ユーザが見るコンテンツのマジョリティはlike-mindedなものではあったものの、そこまで超極端な分布でもなかった

まず、ユーザを「保守」、「リベラル」、「その他」に分け、ユーザが見る情報を「Like-minded」か「cross-cutting」か、「どちらもでない」かに分類しました。

その結果、Facebookの中央値では、Like-mindedなソースからのコンテンツが50.4%であるのに対し、cross-cuttingなソースからのコンテンツは14.7%であったそうです(= ユーザが見るコンテンツのマジョリティはlike-mindedなものではあった)。
また、Facebookで人々が目にするもののうち、政治的なコンテンツとニュースコンテンツが占める割合はそもそも比較的小さいこともわかったそうです(中央値はそれぞれ6.9%と6.7%)。

下図は、どの情報を消費しているかについての人口分布を示しています。
横軸は、各ソースをどれくらい見ているかで分割されたグループであり、縦軸はそのグループが全体の何%を占めるかを示しています。

例えば、一番左上のグラフ(黒いバーグラフ)を注目してみましょう。
この図の一番左側のバーは、Like-mindedな情報を普段0-10%くらい見ている人が、全体の12~3%くらいいることを示しています。
そして、この割合は、どのバーでも(80-90%など)同じくらいであり、Like-mindedな情報を見る割合の人口分布は「万遍ない」といえる状態であります。
つまり、「Like-mindedな情報ばかり見ている人が非常に多いわけではない」ということを示しています。(= そこまで超極端な分布でもなかった)

一方で、一番上真ん中のグラフを見てみると、cross-cuttingなソースからのコンテンツへの接触はまれであり、例えば0-10%しかcross-cuttingなコンテンツを見ない人は、全体の40%近くにもなるがわかります。

これらの結果は、統合すると、エコーチェンバーに関する最悪の懸念とは一致しない、と筆者らは述べています。
確かにcross-cuttingなソースへの露出は少なく、like-mindedな情報に接する機会が多いことは間違いないですが、それでもlike-mindedなコンテンツに非常に高いレベルで接しているユーザは少数派であるとしています。

Like-mindedなコンテンツへの露出を減らすと、cross-cuttingなコンテンツへの接触はわずかに増加しただけであり、むしろ「どちらでもない」コンテンツへの接触がより増加した

次に、Facebook上で参加者を募り、彼らの一部に対して、like-mindedな情報をフィードから減らす処置を行いました。
下図はその結果を示しており、処置開始後(9月中旬)からlike-mindedな情報のviewが減っていることがわかります。


下図は、その影響のうち、「露出に関する変化」をまとめたものです。
これを見ると、like-mindedのソースへの露出は減り(0.77 s.d.)、cross-cuttingのソースへの露出は増えますが(0.43 s.d.)、それ以上に「どちらでもない」ソースへの露出が多く増えていることがわかります(0.68 s.d.)。

Like-mindedなコンテンツへの露出を約3分の1に減らすと、イデオロギーの極端や、党派対立的、感情的偏向などに特に影響は見られなかった

最後に、参加者に施したサーベイをもとに、彼らの選挙に対するさまざまな態度(≒意見)に関して、Facebook上での情報露出との関係性を分析しました。
下図はその結果です。

分析した項目は、
- 感情的偏向
- イデオロギー的極端性
- イデオロギーの一貫性に関する3項目(争点ポジション、集団評価、投票選択と候補者評価)
- 党派対立的信念と見解に関する3項目(選挙不正行為と結果、選挙制度に対する考え方、選挙規範の尊重)
の8つです。

しかし、どれも有意な結果は得られず、Facebook上でのlike-mindedな情報の露出は、人々の政治的態度(意見)に影響を与えるとは言えなさそうであるということがわかりました。
また、これらの結果は、回答者の政治的イデオロギー、政治的洗練度、デジタル・リテラシー、政治的または同志的な情報源からのコンテンツへの処置前の暴露によって有意に異なることはなかったとのことです。

議論

2016年の米国大統領選挙以降、特にこの問題の懸念は高まっており、オンライン上のエコーチェンバーが政治/制作に対する意見を分極化させているという見解はアメリカ人の間で共有されてきました。
また、ソーシャルメディア・プラットフォームは、政治的に同調するコンテンツへの人々への露出を減らすことで、この問題に対処すべきであると主張する人も多いです。
しかし、これらの懸念も主張も、定量的な結果に基づいたものではなかったとのことです。

本研究の意義としては以下が述べられていました:

  1. Facebookは米国人の7割以上が使う大規模なプラットフォームにも関わらず、研究者がほとんどアクセスできないためコンテンツ露出の体系的な測定法がなかった。Twitterは一般人の23%しかいないし、自己報告に基づいたサーベイは、それはそれで測定誤差が生じやすい。

  2. ニュースとエコーチェンバーの関連性に関する研究はあったが、(永続的な)因果関係を示す研究はほとんどなかった。模擬コンテンツを使用した実験室的な検証はあったが、これらの知見が現実の環境に一般化するかどうかを知ることは困難であった。

  3. like-mindedなコンテンツを減らしたと結果として、人々が政治的に中立なコンテンツを見るのか、それとも政治的傾向の異なる(cross-cuttingな)コンテンツに接する機会が増えるのかはわかっていなかった。

一方で筆者らは、ソーシャルメディア・アルゴリズムの変更によって、ユーザーが好意的な情報を探し、それに関与しようとする傾向を完全に打ち消すことはできないということを強調しています。(noteには載せませんでしたが、)処置群の参加者はlike-mindedなコンテンツに遭遇した場合、より多く関与(クリックなど)する傾向が発見されてます。

また、著者らは今回のFacebookコンテンツの政治的意見への影響力のなさについて、以下の考察をしています。

  1. 政治的な情報や党派的なニュースは、Facebookで人々が目にするもののごく一部

  2. オンライン情報を以ての説得が単純に困難

  3. 最後に、倫理的な理由から、like-mindedの情報に接する機会を増やすのではなく、減らしたことが原因(増やすのと減らすのでは、曝露の効果は対称的ではない可能性がある)

所感

最後の締めくくりが面白かったので、そのままDeepL翻訳を載せます:

これらの知見は、現代のアメリカ民主主義の問題をソーシャルメディアのエコーチェンバーのせいにする一般的な物語に挑戦するものである。同じような情報源に接する機会を減らすアルゴリズムの変更は、こうした問題の単純な解決策にはならないようだ。ソーシャルメディア上で目にする情報は、私たちが表明する意見の情報源というよりも、私たちのアイデンティティを反映したものなのかもしれない。

実際、最近出たGoogle検索に関するNature論文(今度noteにまとめます)も同様の結果を言おうとしており、トレンドを感じます

手法など

(Note筆者メモ用)

  • 今回共著者にMeta社の社員は入っていますが、実験のコントロールはMeta社員以外の著者にあることや(final sayっていうんですね)、Meta社に都合が悪い結果も公表できること、社員以外の著者はMeta社から何も金銭的incentiveを得ていないことなどを徹底して実験を行ったそうです

  • Like-mindedなコンテンツを「増やす」ことはせず、「減らした」のは、倫理的観点からのようです

  • 米国の成人として18歳以上を対象としたそうです

  • アクティブユーザの定義は、月に1回以上Facebookを利用するユーザとのこと

  • ユーザ群は、2020年8月17日以前の30日間に少なくとも1回Facebookにアクセスした米国の成人に焦点を当てているそうです

  • ユーザの政治的偏向は、Facebook内部で使用されている分類器を使用したそうです

    • 分類器は、0(左寄り)から1(右寄り)までのユーザレベルを予測し、予測値が0.5より大きいユーザーを保守派、それ以外をリベラル派と分類しました。

    • 友人、ページ、グループのスコアは、そのページをフォローしている、もしくはそのコンテンツをシェアしているユーザーの平均スコアです。

    • 予測値が0.4以下であればリベラルに分類し、0.6以上であれば保守的に分類したそうです

  • サーベイに参加してもらった処置群と対照群の参加者には、2020年の大統領選挙の前後に、政治的態度や行動を評価する5つの調査に回答してもらったそうです。

    • 処置前の調査は、第1波(8月31日~9月12日)と第2波(9月8日~9月23日)の2回実施。

    • 処置期間は9月24日から12月23日まで。

    • 処置期間中、さらに第3波(10月9日~10月23日)、第4波(11月4日~11月18日)、第5波(12月9日~12月23日)の3回の調査が実施された。

    • すべての共変量は第1波と第2波で測定され、すべての調査結果は選挙後、処置が継続されている間(つまり第4波と第5波)に測定された。

    • また、実験期間中、参加者のFacebook上でのコンテンツ露出とエンゲージメントに関するデータも収集した。

  • 本研究のサンプルは、2020年8月と9月にフェイスブックのフィードの一番上に表示された調査招待によって募集され、インフォームド・コンセントを得て、選挙後の調査ウェーブを少なくとも1回完了した、米国在住の成人フェイスブックユーザー23,377人

この記事が気に入ったらサポートをしてみませんか?