見出し画像

第一回バーチャルくそまじめ雑談会:xRとバリアフリー

先日、Ichi-Tasuni-Waさんの配信枠をお借りして配信された「バーチャルから見るバリアフリーとその未来について」というタイトルの座談会?雑談会?ですが、2時間ぐらいある上に私も自分から見てあんまりまとまって上手にモノが言えた気がしなくてですね…笑、あらためて、文章でざっくり私の考え方とかをまとめようと思います。
音声より文章の方がいいという方も絶対いらっしゃると思うので(それこそバリアフリー的な意味で)

音声でのアーカイブはこちら↓です。


さて、ことの発端はZenmaiさんの以下のツイートでした

なので、話の中心は「盲目の人に対してVR空間(ないしVRChat)はどういうふうにアピールできるんだろう」ということだったのですが、そこからかなり裾野を広げて「VRには何が出来るんだろう」「視力や聴力、その他いろんな障害のある人にとってVRはどういうjoyを提供できるんだろう」という話へと飛躍していきました。
簡単にいくつかに分けて、私の考えや想像を述べていきます。


【聴覚障害の場合】
1つめの鍵<受話>:音声toテキストの変換技術の精度の向上
2つめの鍵<発話>:動作toテキストの変換技術の開発?

例えば、現実で今しゃべっている人字幕やフキダシをつけたりすることができるARグラスはすでに実現しているので、ひとの声を「聞く」ことに関しては一定の打開策が得られています。

もちろん、場にある音というのは声だけではないので、「いま後ろから車が近づいていますよ」だとか「後ろで大きな音がしましたよ」だとか、そういった情報を正確に取捨選択して字幕化する技術などもあればさらに良いものになると思います。
(余談ですが、この技術を利用すれば「相手が誰か思い出せない…」というときに相手の名前や肩書をARグラスに表示する、みたいな使い方もできそうですよね)

次に、聴覚障害者が発話するとき、全聾の方でもかなり声での発話を訓練されているので、ある程度は声での発話が可能ですが、これは健常者側がもっと歩み寄ることが出来るはずだと私は思っています(それに、これは身振り手振りや表情を加えたトータルのボディランゲージとして受け取っているから聞き取れるのであって、音声だけになった場合その正確さはかなり下がります)。
健常者側も聴覚障害者側も、「自分が一番スムーズに発話できる方法」で発話できるのが一番だと思っているので、例えば手話。手話の動作をテキスト化して、例えばそれを健常者側のARグラスに字幕として表示するとか。そうすれば、互いの「言語」に対して互いのARグラスに字幕が表示される状態になるので、うーん、いいかんじ…!

今はARグラスの話をしましたが、この変換技術は実現すればVR空間でも簡単に再現できるはずです。音声toテキストの変換、動作(手話)toテキストの変換。一度テキストに変換してしまえば、好きな形でアウトプットできます。例えば健常者側が音声で発話しながらアバター上では手話として出力することだって可能なわけです。(もちろん逆に、聴覚障害者側が手話で発話したものをアバター上では音声で出力することも可能です)これはかなりサイバーでイケてると思います。


【視覚障害の場合】
正直これはかなり難しくて、VRやARの大半をまだ視覚分野が占めている以上、どうしても想像力が必要な話にはなってくるのですが…
1つめの鍵<目以外>:VR空間の視覚以外のリアリティの精度
2つめの鍵<音声化>:視覚情報をそれ以外の情報(主に音声)へ変換する

VRChatをベースに話を進めると分かりやすいので、VRChatで進めます。
現在、VRChatは視覚情報では奥行きや広がりがとてもリアルに感じられますが、触覚・嗅覚・味覚の3感は完全に0ですし、聴覚情報もそれほどリアルな音場を感じられるものではありません。視覚障害者へのVRのアプローチとしてまず1つ考えられるのは、この「視覚以外の残り4感」の精度を上げていくことです。これは健常者としても俄然興味のある分野ではあります。
仮にこの4感覚が充分に精緻に再現可能になったVRChatが実現したとしたら、視覚障害者の方が身につけるVR機器にはゴーグルだけが無いという、なんだか不思議でサイバーな世界観で、ちょっとわくわくしますね。
VR空間に足を踏み入れると、ものすごくリアルな距離感の音声で「こっちこっち」と友達が導いてくれて、足を踏み降ろせば草の触感があったり、手を引いてくれる友人の手の感触があったりする…そんな感じです。
これはただ「新しい世界に踏み出す面白さ」を提供するだけではなく、例えば「転ぶ心配なく大草原を走り回れる」ですとか「溺れる心配なく水の中に潜れる」といったような、今まで体験したことのなかったアクティビティを視覚障害者に可能にするはずです(もちろん、視覚障害があっても現実にそれらを実行している人はいますが)

さて一方、別ベクトルの話として、聴覚障害者の方への字幕技術と同じように、視覚障害者の方への「読み上げ技術」も少しずつですがすでに実現化に向けて開発が進められています。
例えば「目の前に段差がありますよ」とか「遠くから友人が歩いてきますよ」といった、距離感のある視覚情報(近距離なら白杖などで把握できますが、距離があると一気に情報が限られてくるので)を耳元で読み上げてくれる。スーパーでお菓子の箱を手にしたとき、それがクッキーなのかチョコレートなのか、味は何なのか、賞味期限はいつまでなのか、そういった印刷情報を読み上げてくれる。そういったデバイスです。

これはVRというよりはARの技術です。現実に対してもう1枚、音によって情報のレイヤーを与える。この音情報レイヤーが、視覚障害のある人が「世界」を認知するための目になる感じです。


【ここまでのまとめ】
聴覚障害のある人には、音情報を可視化する。
視覚障害のある人には、視覚情報を可聴化する。
この2つを繋ぐのは情報のテキスト化。
一旦あらゆる情報をテキスト化することができれば、そこから自由な形でアウトプットすることもできる。目下、「音声のテキスト化」「視覚情報(ex.手話の動き、文字、色…)のテキスト化」の精度を上げまくるのが、いい感じの未来への近道。


【VRが私に与えてくれたもの】
私は視覚・聴覚ともに大きな障害はありませんが(強いていうなら右目の視力が0.1無いぐらい)、ひとつ大きな身体的特徴として「日光に当たることができない」という条件を抱えながら生活しています。重度の日光アレルギーです。
そのため、例えばこんなに音楽が大好きで体を動かすのも大好きなのに、憧れの「夏フェス」というものには一度も行ったことがありません。行こうと思えば無理ではありませんが、長袖長ズボンに手袋、ネックウォーマーみたいなのを巻いてスカーフをかぶり、日傘をさして、夏フェス。ちょっと現実的ではありません。
ピクニックもできませんし、登山もできない。ディズニーランドも少し難しい。そんな中、私はVR空間で太陽が燦々と降り注ぐビーチを走り回ることだってできます。現在まだその「太陽」は視覚情報に限られていて現実の太陽の持つあの力強さには及ばないかもしれませんが、それでも私はとても嬉しかったのです。こういった、さまざまな理由で外出できない(あるいは、特定の場所に行くことができない)人にとって、VR技術は間違いなく夢を叶えてくれるデバイスなのです。

【で、何だったっけ…?】
そんな感じで、話の主軸はあっちいったりこっちいったり、結構ふんわりした「こういうのが実現したら楽しそうだよね〜」という雑談配信だったのですが、皆さんはこういう技術や未来について、どんな想像をされているでしょうか?
私は、新しいものが好きですし、技術が人間の不足を補うのは面白いし、どんどん進んでほしいなあと思っています。UnityにWatsonのSDKが追加されたことで、音声認識はさらに身近なものになってきたイメージがありますが、どうでしょう。私はわくわくしています。
よかったら、「こういうものが開発されているらしいよ」とか「私はVRでこういう夢を叶えたよ」とか「こんなことが出来たらいいのになあ」とか、未来に向けてわくわくするような話題、どんどんお話しできたら嬉しいです。聞かせてください。

【最後に】
配信でも紹介されていますが、音無雪さんという聴覚障害のあるVtuberの方がおられますので、ご興味があれば是非!アクセスしてください!

おでこが知的で可愛いのじゃ^〜

あと、これは私も比較的デカい盲点だったんですが、Vtuberというコンテンツにおいて最大の断絶は「目の見えない人はYoutubeを(ほぼ)見ない」ということでした。不覚。
そうなってくると、例えば音情報だけでバーチャル生命体をやったとして、それはバーチャルなの?ただのラジオじゃない?みたいな、根本的な話になってくるのでそれはまた別の話…ん〜〜〜…

とりあえずアレですね、やっぱり本人に話が聞きたいですよね。誰か、バーチャルYoutuber(あるいはVR)に興味のある視覚障害者の方がいらっしゃったら、ぜひ紹介してください。私も探してみます。

追記:
「生きにくさを乗り越える」「不便を捨てて生きることができる」という点において、トランスジェンダー等の人にもVRは比較的ダイナミックに生きやすさを提供してくれる強力なツールですよね。そういう議論もまたいつかやってみたいです。

一旦おわり

この記事が気に入ったらサポートをしてみませんか?