ソーシャルメディアの光と影

 TVなどのマスメディアであれば、消費者(視聴者)に届く情報(番組)は、TV会社の発信する情報であり、TV会社の管理下にあります。デジタルメディアが決定的に違う点は、消費者(閲覧者)に届く情報(コンテンツ)は、プラットフォーム企業の発信する情報ではなく、個々のコンテンツの担い手(ブロガー・企業などの組織の広報担当など)が発信する点にあるのは言うまでもありません。そして、周知のことですが、デジタルメディアにおけるコンテンツの担い手は、きわめて匿名性の高い不特定多数人であり、担い手になるために必要なアカウントの取得は、例外的な場合を除いてほとんど無審査で簡単に取得できます。

簡単に自らコントロールすることが可能なコンテンツのオーナーになれるということは、気軽に自分の意見・感想を表明できるというソーシャルメディアの『光』の側面を体現すると同時に、フェイクニュース・ヘイトスピーチなどの『影』の側面が容易に侵入してくるのを避けられない、という事で、こんな分かり切ったことが今まで放置されてきたことの方が余程不思議ではないでしょうか。マスメディアが暴走した時の恐ろしさ(歴史上有名な例では、ピューリッツァーのニューヨーク・ワールド紙とハーストのニューヨーク・ジャーナル紙が発行部数を競ったイエロー・ジャーナリズム)と同等かそれ以上の害悪が、選挙介入・分断社会という形で突き付けられてからでは遅い。

とは言え、この問題も、結局、自由と規制、権利と義務の問題ですから、記事にもある通り『バランス』の取れた慎重な対応が絶対必要だと思います……

・不適切なコンテンツを排除するために、入り口の部分、アカウントの取得の段階で審査を厳しくするのは、現実的ではないと思います。ソーシャルメディアへの敷居が一気に高くなってしまいますし、嘘でかわしてアカウントを取得するのは、容易ではないでしょうか?

・やはり、最も有効なのは、精度の高いAIを構築して、不適切な投稿を、投稿されて間もないうちに検出・ブロックすることだと思います(口で言うのは簡単ですが)。

・定義の問題などで実現は難しいでしょうが、万が一企業の広告が不適切なコンテンツの中に掲載された場合、一定のペナルティを科す、という条項を広告掲載契約書に入れられたら、プラットフォーム企業には業務改善に向けた強力なプレッシャーが掛かる……ただし、プラットフォーム企業が過剰反応したら、不適切でないコンテンツまで削除されてしまう……

・それよりは、不適切なコンテンツの中に広告が掲載された場合の損害賠償のようなものが判例として積み重なっていく、という形の方が好ましいかも……

・『不適切なコンテンツの中に自社の広告が掲載される』ことは、広い意味でのコンプライアンスにかかわる問題で、企業倫理の観点から広告主企業自ら立ち上がる時が来ている、と思います。

・AIによってコンテンツがブロックされた場合に、当然AIの誤認もあるはずで、コンテンツ復旧のための扉(復活申請の仕組み)は開いておかなくては駄目ですね。

・最後に忘れてならないのは、閲覧者がフェイクニュースに騙されない事、いい意味で疑り深い事、複数の情報を突き合わせて真実を見極める力を養う事だと思います。

https://www.nikkei.com/article/DGXMZO26835520T10C18A2000000/

この記事が気に入ったらサポートをしてみませんか?