SNS上の誹謗中傷への規制のあり方
『テラスハウス』に出演していた木村花さんが、SNS上での誹謗中傷を受けて自殺したのではないかとされる問題で、SNS上の誹謗中傷に社会がどう立ち向かうべきかが話題になっています。
与野党も迅速にこれに反応し、「憲法が保障する「表現の自由」に配慮しつつ、海外の事例を参考に、SNSのサービスを提供するプラットフォーマーと呼ばれるIT企業に一定の責任を課す方法や、誹謗中傷した人への罰則を設けるなど法整備も含めて検討する。」と調整に向かっていることが報じられています。
しかし、私にはどうも事の本質が追及されていないのではないか、そのせいで別の方向の解決策にたどり着いてしまうのではないかというモヤモヤ感を抱き、真正面から、まだあまり語られることのない新しい自由(あるいは権利)、すなわち「見たくないものを見ない自由」の保障について語ってみたいと思います。
そもそも論-既存の法律での解決策について
憲法で保障される「表現の自由」も絶対的な聖域ではありません。他者の人権との衝突が生まれる場合には制約を受けることがあります。
既存の法律においても、一定の誹謗中傷(名誉毀損、プライバシー侵害等の表現や脅迫や業務妨害にあたる表現)については、その削除請求や発信者の開示請求が認められています。つまり、日本社会においてこういった表現をする自由は保障されないということです。
プロバイダーの責任を制限する法律の存在
しかし、明らかに名誉毀損やプライバシー侵害といった人格権の侵害と思えるような表現でも、SNS上で削除されないままコンテンツが残り続けるということがあります。それは、そういったSNSサービス等を提供する事業者(法的には「プロバイダ」と言われます)に対して、コンテンツ掲載や削除に関する責任を制限する法律(いわゆる「プロバイダ責任制限法」)があるからです。
この法律の趣旨は、総務省の解説資料(以下)がわかりやすく説明しています。
出典:総務省「インターネット上の違法・有害情報に対する対応(プロバイダ責任制限法)」法律の図解資料
たとえばこういうケースを考えてみましょう。SNS事業者等のプロバイダが、SNS上で名誉毀損をされたという被害者から「この投稿を削除してください」と言われ、投稿を見てみたところ、本当に名誉毀損に当たるかどうかがよくわからない、素朴な批判とも受け取れる内容でした。にもかかわらず、これを放置した場合、プロバイダはこの被害者から損害賠償請求を受ける可能性があります。他方で、これを削除してしまった場合、今度は表現の自由を侵害されたとして、投稿者から損害賠償請求を受ける可能性があります。
そこで、この法律は、プロバイダに対し、①明らかに権利侵害が起きているといえる場合以外は削除しなくても被害者に対して責任は負いませんよ、また、②削除すべきといえる場合には削除してしまっても投稿者に対して責任は負いませんよ、ということを定めているのです。
しかし、おそらく多くの方が問題視しているのは、①に関して、明らかに名誉毀損やプライバシー侵害といえることですら、SNSや掲示板を運営するプラットフォーマーが見て見ぬ振りをしているという点でしょう。「表現の自由を守る」という大義名分のもと、実際には多くの違法な表現が放置されているのが実情です(私も実際に紛争経験がありますが、やはり削除や発信者開示の請求には非常に金銭的、時間的、精神的コストがかかります)。
ナンセンスな規制方法の数々
前置きが長くなってしまいましたが、ここからが本題です。
こういったSNS上の誹謗中傷コンテンツへの規制方法については、解決したい問題に対して、いくつかの処方箋があります。しかし、現在議論されているもののほとんどが問題の本質を解決できておらず、ナンセンスです。
①削除や発信者開示に対するコスト削減、プロセスの簡易化
これは、裁判所に申し立てる請求のプロセスを簡素化し、違法な表現を行っているコンテンツの削除や発信者開示を容易にするという解決方法です。高市早苗総務大臣もこれに言及していたようです。
しかし、結局これは事後的な解決策に過ぎず、誹謗中傷によって傷つく人をどこまで減らせられるのか、誹謗中傷コンテンツを予防できるのかは不明です。また次に述べるとおり、名誉毀損やプライバシー侵害に当たらない表現も「誹謗中傷」には多数含まれる中で、このような規制では今回の事件は解決できていなかったと思います。
②「誹謗中傷」に対する罰則制定・規制強化
名誉毀損やプライバシー侵害のみならず、「誹謗中傷」表現に対して罰則を設けるという規制方法です。
しかし、そもそも「誹謗中傷」と「批判」の違いは何でしょうか。そこに明確な線引は可能なのでしょうか。社会は批判なくして発展せず、批判することを萎縮させてしまっては社会は大きく後退します。この線引が曖昧なままに「誹謗中傷」に対する規制を強化すると、表現に対する萎縮効果が生じ、非常に危険です。
③プラットフォーマーに対するコンテンツ削除の義務付け
例えばドイツがプラットフォーマーに対し、ヘイトスピーチ表現を24時間以内に削除する義務付けているように、一定のコンテンツについてはプラットフォーマーに削除を義務付けるという規制方法です。
しかし、これも結局、誹謗中傷コンテンツが掲載されてからの事後的な解決策である点、そして「誹謗中傷」の定義が明確にできない点でやはり本質的な問題は解決できていません。
このように、すでに議論されている規制方法からあぶり出される、この問題の本質とは、(1)誹謗中傷と批判を区別できない、(2)曖昧な線引で萎縮効果が生じてはならない、(3)事後的な解決よりも予防的な解決を目指すべきである、ということになります。
念のため、私が(3)にこだわる理由をもう少し記載します。今回の木村花さんの件を、どのようにすれば防ぐことができただろうかと考えたところ、彼女に対する爆発的な一斉攻撃(口撃)にこそ恐ろしさがあるという結論に至りました。つまり、実際には誹謗中傷と批判の区別にそこまで異議はなく、いずれにせよ膨大な数の否定的な、ネガティブな口撃が短時間の間に彼女を襲ったのです。だからこそ、私は事後的な削除や発信者開示ではなく、事前にそのような一斉攻撃を予防したいと考えるのです。
けんすうさんが「誹謗中傷かどうかよりも、批判の量のほうが問題じゃないかなという話」で記載されていたことと全く同じ趣旨です。
「見たくないものを見ない自由」の保障
私は、そろそろこの社会において、「見たくないものを見ない自由」が真正面から語られるべきではないかと考えます。
プライバシーという新しい人権は、かつて、「私のことは放っておいて」という自由権的に捉えられていましたが、現代においては、「自らの情報をコントロールする権利」として請求権の要素も含んだ形で再構成されています。
同じ発想です。私たちは、自ら発信し、受信する情報についてコントロールする権利が与えられるべきです。自分が発信した情報に対して、リプライを受信するかどうかは自分でコントロールできるべきです。
すでにこの自由を実現するアーキテクチャは、多くのプラットフォーマーで実装されています。たとえばTwitterのブロック、ミュート機能やYoutubeのコメント禁止機能などは「見たくないものを見ない自由」を保護するものです。これを拡大し、たとえばTwitter上で私たちが発信するツイートについても、リプライやリツイートを私達自身がコントロールできるべきではないでしょうか。たとえば1分に10通以内にはリプライを受け取らないだとか、フォローしている人以外のリプライは受け取らないなど(これは通知設定の問題ではありません)。
(実際に、Twitterはリプライ相手を制限できる機能のテストを開始したとされています。)
法律でも同じような発想に基づく規制があります。特定電子メール法と言われるもので、簡単に言うと、同意していないメールマガジンは配信してはいけないといったことが定められています。これもやはり「見たくないものを見ない自由」に当たります。
見たくないものを見ないようになると、フィルターバブルやエコーチェンバー現象が生じるという声も上がるでしょう。私が所属するスマートニュースも、フィルターバブルを解決するためのアーキテクチャを模索・開発し続けています。もちろん、そのような現象が起きないようにアーキテクチャの設計は慎重に行われるべきですが、大量の一斉攻撃とフィルターバブルを同列に扱うべきではありません。
そして、このように自らの情報の発信・受信をコントロールできる機能の実装をプラットフォーマーに求めることで、予防的に一斉攻撃を防ぐことができるのみならず、「誹謗中傷と批判の線引って…」といった定義などが不要になり、萎縮効果も防ぐことができます。換言すれば、目にする情報の取捨選択を国家やプラットフォーマーに委ねることなく、自ら主体的に選択し、ユーザーがイニシアティブを取るということです。情報の大海の舵取りは、ユーザーと国家、プラットフォーマーの役割分担で行うべきであり、ユーザーに委ねる裁量を大きくしていくことで、「見たくないものを見ない自由」を保障していく社会にしていきたいと強く思います。
P.S.乙武さんの情熱教室でこのあたりをお話ししたつもりでしたが、口下手で伝えきれていないかと感じ、改めてnoteでも思いを書かせていただきました。
図書館が無料であるように、自分の記事は無料で全ての方に開放したいと考えています(一部クラウドファンディングのリターン等を除きます)。しかし、価値のある記事だと感じてくださった方が任意でサポートをしてくださることがあり、そのような言論空間があることに頭が上がりません。