見出し画像

アバターを皆が使う社会での「表現の倫理」を考える:表現の自由と見たくない物を見ない自由

おはようございます、思惟かねです。
普段はVRが人にもたらす無限の自由とその可能性に大いに夢を見ている私ですが、そんな私にとって非常に耳痛いツイートを朝から拝見して考え込んでしまいました。

よーへんさんのツイートを私なりの言葉でまとめると、つまりは外見を始めとして様々なものが現実よりも自由になるVR世界の中で、この表現の自由に対して、見たくないものを見ない自由はどう守られるべきか?ということになるでしょうか。

言うまでもなく、これは大変難しい問題です。現実世界でもしばしレーティングやゾーニングなど、いわゆる表現規制として議論の的になるものです。今後、VR空間が社会インフラとして世間の大半の人に使われるようになった時、この問題は避けがたいものとなって私たちの前に立ちはだかるはずです。

最も極端な例を上げると、VRChatにおけるゲテモノアバター問題というのが既に存在します。VRChatは今もっとも自由なVR空間の一つとして時代の先端にいますが、その中で、例えばゴキブリクモといった大半の人が「ウエッ」となるようなアバターをあえて使う人が存在しています。
参考画像はかなりソフトなイラストですが、3Dのリアルなゲテモノアバターの"ヤバさ"はこの比ではありません…。私もタランチュラのアバターとゴキブリのアバターに遭遇したことがあり、さすがにビックリしました。

ゴキブリ

画像2

彼らが何の意図をもってそうしたアバターを使っているかは分かりません。ただ面白半分の嫌がらせの可能性もありますが、一方でそうした虫を愛好しているからその姿になりたいという可能性も事実存在します。これが「自由」であることか…と、VRChatの自由さとその代償についてしみじみ感じた覚えがあります。
さて、そうした表現の自由を私たちは否定することができるのか?特に後者の場合、当人には何ら悪意がないわけですから。

これは非常に極端で、おそらく分かりやすいケースです。それは「普通クモやゴキブリは気持ち悪いと思うだろう」という共通認識が私たちの間にあるからですが、そうでない場合は?
つまり冒頭のよーへんさんのツイートに戻り、「美少女であること」や、あるいは「過剰な露出や過激な服装」というような、「ある特定の人だけが嫌悪感を抱く」ような現代のアニメ的表現規制問題に通じるようなケースがひとつ焦点となってくるわけです。
私たちは、こうしたVR世界における表現の規制についてどう考え、向き合うべきなのか。

今回は、この非常に難しい問題に、私なりの考えを著してみたいと思います。


◆大前提:表現の自由と規制に対する考え

さて、まずこの問題の根本にある、表現の自由とそれに対する規制についての私のスタンスを明確にしましょう。

私は表現規制はいかなる理由があっても反対します。ただし、ゾーニングやレーティングは行われて然るべきでしょう。ただしそこには最大限可能な熟慮の上、最大公約数的かつ最低限に留めるべきであり、ましてや断じてノイジー・マイノリティの意見が反映されるべきではない。

語弊を承知で言えば、「見たくないものを見ない自由」よりは「表現の自由」が優先であり、その衝突を回避する手段としてゾーニングやレーティングは正当化されるということです。
なぜ表現の自由が優先されるかといえば、そこには明確な線引きをすることが不可能だからです。ある表現を「いいな」と思うか「気持ち悪い」と思うかは人それぞれであり、TPO次第では同じ人でそのラインは変わります。そしてこうした線引きが不可能なものに無理矢理線を引くということは、「誰かの基準」を全員に適用するということであり、極論すればありとあらゆる表現の規制が可能になってしまうからです。

つまり、表現の規制は「しなくてよい」のではなく「したくても(公正な形では絶対に)できない」のです。ゆえに私はいかな表現規制にも反対という立場をとっているわけです。
だからこそその裏返しとして、ゾーニングやレーティングといった配慮も必要不可欠であるというのが、私の意見です。

もちろん皆さまには異論反論あると思いますが、まずは私の考えがこうであるということを踏まえた上で以降の話を聞いて頂ければ幸いです。


◆VRにおける「表現の自由」問題の重大さ

さて、こうした私の表現の自由はいかな規制もされるべきでないという考えは、しかしVR空間において大きな脅威になります。なぜならVRでは現実とは比べ物にならないくらい表現の自由の度合いが大きいからです。

この自由度は良い方向に活かされれれば想像をそのまま形にしたような素晴らしい創作に繋がります。VRChatの幻想的なワールドやアバターを見て感動したことのある方なら、大いにこれに頷いてもらえるでしょう。

他方、この自由度が悪い方向に働いた結果が、先程紹介したゲテモノアバター問題です。しかし私の論に従えば、こうしたゲテモノアバターですら表現の自由として保護されるべきである。そういうスタンスをとらざるを得ません。
その理由は、繰り返しになりますが、上記の素晴らしい創作ゲテモノアバターを分かつ判断基準は、結局の所「誰かの意見」にならざるをえないからです。人の内心がどこまでも自由である限り、全ての人にとって納得できる「誰かの判断基準」は存在しません。ゲテモノアバターを規制するなら、素晴らしい創作をも規制される可能性を甘受する必要があるのです。


◆VR空間での「見たくないものを見ない自由」への配慮は?

ではVR空間では、どんな嫌な物でも目にしなければいけないのか? そうではありません。これも既に述べた通り、現実がレーティングやゾーニングという手段でこの衝突を回避している通り、VRでもやはりこうした緩衝地帯の存在は必須であり、あるいは現実世界よりも重要でしょう。

ここで再び冒頭のよーへんさんのツイートに戻ると、そこで言及されているのがフィルタリングという手法です。

フィルタリング、つまり「見たくない表現」を本当に見えなくしてしまうということです。具体的には、例えばゲテモノアバターであれば「このアバターを表示しない」あるいは「汎用アバターに置き換えて表示」というオプションを用意するのです。これが既にVRChatでも実装済みであることは、ユーザーならご存知のことでしょう。
これを考えると、実はこのフィルタリングという言葉は正確にはフィルタではなく、いわば認識置換(Cognitive Replacement)とでも言うべき、「見たくないもの」を「見てもいいもの」に変換するという手法であることを理解しなければなりません。

もちろん現実世界ではこんなことは不可能であり、せいぜい目をつむるのが関の山ですが、認識を直接操作できるVR世界は表現の自由度が大きい分、規制の自由度も大きいのです。

ここで生じてくるのが、上記のツイートのような、はたしてあらゆる「見たくない物」を見えないようにしてしまうこと、あるいは「見たいもの」に強制的に変換してしまうことがが正しいのか?という、VR空間におけるフィルタリングの問題です。
(なお以後、「フィルタリング」という言葉にはこの「認識置換」の意味も含むものとして記述を続けます)

一見するとこれは「それは個人の自由なのだから自由にすればいいじゃないか」とも思えます。しかし、実はそうではないと私は考えます。その理由を「倫理」という新たなキーワードとともに説明します。


◆そもそも「倫理」とは何か?

そも、倫理(ethics)とはなにか?世に広く言われる言葉なのに対して、これに明確な答えを返すことができる人は余りにも少ないです。漠然と「なんとなくやってはいけないこと」というイメージが大半でしょう。
例えば、皆が列に並んでいるところに横入りすること。これは法律で禁止されているわけではありません。けれども恐らく皆さんは口を揃えて「それは良くないことだ」と言うかと思います(少なくとも日本的な価値観の下では)。法的に禁じられるようなものではないが、皆が「よくない」と思う。そして時には都合よく無視されるもの。倫理とは、そうしたやや曖昧ながら皆が持っている概念です。

さて、この曖昧な「倫理」を、世に諸説あるのを認めた上で、私は一つの定義として内に持っています。これは尊敬する先輩からの受け売りなのですが、倫理に反するとは「皆がそれをしてしまうと社会が成り立たなくなる行為」である、とする定義です。私の実感として、これは概ね一般的な「倫理的でない行為」の定義として適当であると思います。

では、この定義に照らし合わせてVR空間におけるフィルタリングの「倫理」を考えるとどうなるか?
結論から言えば、そこには一定の規制が加えられて然るべきであるというのが私の考えです。


◆本題:VR空間におけるフィルタリングの倫理

いよいよ本題です。なぜ自由度=危険度も大きいVR空間において「見たくない物を見ないようにする」フィルタリングが、しかし一定の規制をされるべきなのか?

ここで、先程の私が言及した「倫理」の定義を思い出してください。その上で、例えばこんなケースを考えてみましょう。

VR空間の中でも皆が会話や仕事や買い物、生活を営むことが当たり前になった社会。そこでありとあらゆる人が、自分の「見たくないもの」を自由にフィルタリングした時、一体何が起こるか?
このフィルタリングの定義が人によって異なるということは、言い換えれば人によって物の見え方が違ってくるということになります。極端な例を上げれば、フィルタリングの結果、あなたが「白」に見えている色が、ある人には「黒」に見えている可能性が生じてくるのです。より現実的な例では、あなたが例えばメガネをかけた女性のアバターをまとった人を見ている時、同じ人物が別の人からはただの棒人形に見えているということが実際にありえるのです。

画像3


画像4

これは、実は相当に危険なことであるということがお分かり頂けるでしょうか?

私たちの社会は、実は意識していないだけで沢山の共通認識があってこそ成立しています。例えば人は基本的には嘘をつかないとか、人と人はコミュニケーションが可能であるとか……あるいは私たちが同じものが同じに見えている、とか。

つまり、無制限のフィルタリングがもたらすのは「私たちは同じものを同じに見ている」という前提の崩壊です。私が目の前のものを「リンゴ」だと言った時、相手が「いや、それはオレンジだ」と反論することが当然であることを受け入れる必要が出てきます。
これがもたらす社会的混乱がどれほどのものか。おそらくこれを完全に想像できる人はいないと思います。しかしこれは比喩的に言えば、これはバベルの塔の崩壊による言語の分裂に等しい衝撃を、私たちの社会に与える可能性を持っています。
常に相手と自分の認識に差異があることを前提にコミュニケーションをとる必要がある世界。それがどれほど社会生活を営むのを難しく、意思疎通を阻害するものであるか。具体的な想像ができた方は、背筋に寒気が走るのを抑えることができないのではないでしょうか?

つまり、個々人に無制限の認識フィルタリングを許容するということは、私たちの社会生活に著しい困難を生じさせる可能性を生むのです。
それはあまりに極端な例じゃないか、という反論もあるでしょう。しかし人の意志が自由である以上、可能性があればそれは実際に起こるのです。そしてそれを外見的に判別する方法がない以上、無制限のフィルタリングは一定の割合で社会生活に困難をもたらすことは否定できない事実なのです。

「皆がそれをしてしまうと社会が成り立たなくなる行為」を倫理的でない行為と定義するのであれば、VR空間における無制限の認識フィルタリングは倫理的でないと言うべきでしょう。

ここでついにVR空間におけるフィルタリングの倫理の必要性が生じてくるのです。


…しかし一方で、VR空間における表現の自由と、見たくないものを見ない自由の緩衝地帯として、フィルタリング自体はやはり必要不可欠です。ですから、私たちは具体的な解決策、あるいは妥協案を提案する必要があります。
次の項では、これについて私なりの提案をして、本稿のまとめとしたいと思います。


◆VR空間における認識フィルタリングの規制とその具体的な方法について

まずここで「フィルタリングを規制するというのは、貴方の尊ぶ個人の自由の侵害ではないのか」という反論にお答えします。
倫理的な規制は、個人の自由よりも優先される。それは倫理違反が社会的な困難をもたらすが故に、最大多数の幸福や公共の福祉いう原則から導かれる結論です。ここで我々の憲法から一条を引用しましょう。

日本国憲法13条
すべての国民は、個人として尊重される。生命、自由及び幸福追求に対する国民の権利については、公共の福祉に反しない限り、立法その他の国政の上で、最大の尊重を必要とする。

ゆえに私は、認識フィルタリングの規制を正当なものであると考えます。

では、その規制はどのような形であるべきか?
表現の自由についての項で述べたように、私は規制とは原則すべきではないものであり、万一行うのであれば最大限可能な熟慮の上、最大公約数的かつ最低限に留めるべきであると思います。

こうした理念から、私が提案するのは「公的に認証された幾つかの種類の認識フィルタを、個々人が選んで使う」という形です。
つまり、例えば「ゲテモノフィルター」「セクシャルフィルター」といった、ある程度社会的に合意ができるフィルターをプリセットとして用意し、それを使いたい人が選んで使うのです。そしてそのフィルタリングの基準となる「フィルタータグ」を、アバターを始めとするVRオブジェクトに埋め込む。

例えば「セクシャルフィルター」を選択した女性は、VR空間で自分の好ましくない性的に強調された表現を見ず、変わってよりマイルドな表現として認識できるようになります。当然、この認識置換の結果である「マイルドな表現」もフィルターとセットで用意する必要があります(でなければ便益を果たすことができませんから)。
そういう意味でこのフィルタリング手法は、認証済みタグ式認知置換(Certified Cognitive Replacement by Tag: CCRT)と呼ぶべきでしょう。

この利点は、公的に認められた特定のフィルターを皆が使うことで、VR空間でのフィルターの濫用による認識の齟齬が可能な限り小さく抑えられるということです。その上で個人の裁量で(さらに他人に迷惑をかけない形で)選択可能であり、表現の自由とバランスを取ることができます。
既に述べた通り、無制限のフィルタリングの倫理的問題点は、個々人での認識の齟齬に歯止めがかからなくなり社会が混乱することにあります。これに一定の枠組みを与えることで解決する方法として提案するのが、認証済みタグ式認知置換 (CCRT)なのです。

勿論、実際には課題は山ほどあります。
フィルタリングの源泉となるタグをどう付与するかは、結局の所製作者の判断に委ねられることになります。
また誰が、どう判断して、どれだけのフィルターを用意するか、どのようにそこに社会的な合意を取るか。
宗教、社会、地域、人種、そういった文化的な差異についての配慮も非常に難しいです。
が、それは私たちが既にゾーニングやレーティングといった形で現実で行っている対処方法の延長上にあるものです。

決してこれは夢物語的な提案ではありません。VR世界が一般化し、現実に近づくにつれて真剣に向き合わなくならねばならない課題への、私なりの真剣な回答です。


【2020/5/24追記】
Twitter上のコメントと会話で非常に面白い意見を頂きました。
こうした認証済みタグ式認知置換 (CCRT)は、実際には幾つかのフィルタを個々人が選んでインストールして使う形になるでしょう。例えば幾つかのフィルタをまとめてセット化する(例えば「セクシャルフィルタ」「インフォーマルフィルタ」などをまとめてビジネスTPOフィルタセットとする)と、利便性や公共性は大きく上がるでしょう。

そしてよくよく考えると、私たちは例えばビジネスの場であればそれにあった「ビジネスの常識」を、冠婚葬祭の場であれば「冠婚葬祭の常識」を、というように、現実世界でもいわばこうしたフィルタセット(≒常識、共通認識)をインストールして使っているとも考えられます。
CCRTのフィルタセットは、いわばこうした現実世界で暗黙のルール化されてきたTPOといったものを明示的・具体的にしたものとも考えら得るかもしれません。
だとすれば、例えば「この場では○○のフィルタセットを使うようにお願いします」というように、明示的にTPOや共通認識を定めることができるという可能性も出てきます。これはバーチャルならではの可能性かもしれませんね。


◆おわりに

今回は、私の「表現の自由は最大限に尊重されるべきである」というスタンスと、倫理に反するとは「皆がそれをしてしまうと社会が成り立たなくなる行為」である定義から、VR空間における認識フィルタリングの是非について論じました。
その上で「表現の自由」と「見たくないものを見ない自由」、両者をバランスを取って成立させるための仕組みとして、私は認証済みタグ式認知置換 (CCRT)という一つの枠組み、システムを提案しました。

ただしこれは、あくまでフレームワークの提案でしかありません。
もし、万が一私の発想が実行に移されるとしたら、現実世界と同じで侃々諤々の議論の上で「何が規制されるべきか」という現実的な議論に明け暮れる必要が出てくるでしょう。
それを厭うてはいけません。そして規制とは原則すべきではないものであり、万一行うのであれば最大限可能な熟慮の上、最大公約数的かつ最低限に留めるべきという原則の下、なんとか私たちは現実的な解を出さなければいけません。


VR世界は、無限の可能性の塊です。
私たちが今までしたくてもできなかったこと、表現したくてもできなかったこと、作りたくても作れなかったもの、あらゆることを可能とする新しい宇宙です。

そこに規制という世知辛さを持ち込まなければならないのは正直断腸の思いです。けれども私たちの社会がVR世界というものを真に受け入れていく上で、これは避けては通れない議論であり、私たちがすべき努力です。

どうか願わくば、未来の人々がVR世界の自由と可能性を愛し、守りながら、一方で社会とうまく折り合いをつけてその素晴らしい世界の芽を枯らすことなく守っていけることを、一人のVRを愛する人間として願わずには居られません。

画像6

---------------------------------------------------------
今回も長文にお付き合いいただきありがとうございました。
引用RT、リプライでのコメント、マシュマロも喜んでお待ちしています。
よろしければぜひTwitterのフォローもお願いします。

画像5

○引用RTでのコメント:コメント付のRTとみなしますのでご自由に(基本的にお返事はしません)
○リプライでのコメント:遅くなるかもしれませんがなるべくお返事します

この記事が気に入ったらサポートをしてみませんか?