見出し画像

感覚再現のインターフェース

先日イーロン・マスクが、脳にチップ……というには大きすぎるデバイスを埋め込んで、脳がうけとった電気信号をそのデバイスで「受信」する様子を披露しました。

タイトルが若干ミスリードですが、「念じるだけで車を操作」というのは将来的な構想であって、今回の発表会はあくまで脳波の読み取りができるデバイスの発表です。

このように脳とコンピューターをつなげる技術を BMI(Brain Machine Interface)といいます。

BMIは実は結構前から研究されている分野で、たとえば、脳から何かしらの電波の信号を読み取るためには人によってパターンが異なる脳の「しわ」が技術的な障害でしたが、その「しわ」を仮想的にのばし平面にした上で脳波の位置を特定する、というなんとも難解そうな方法で切り抜けたのがなんと10年前の2010年頃なのです。

主にゲーム・医療の分野を中心に研究が続き、「受信(=読み取り)」については冒頭紹介した通りの成果がでており、まだ「appleという文字を考えている」レベルの読み取りはできませんが、順当に技術が進化していくとそれも可能となり、キーボード入力や音声入力に代わって誰もが憧れた「脳入力」が誕生するでしょう。

画像3

一方、目下私たちが注目すべきは、デバイスから脳への「発信」の方ではないでしょうか。

それはたとえば、腕のない人が義手で熱いコップをもったときに、脳に対して「熱い」という感覚を与えるようなシステムです。

熱さだけではなく、重さ、痛さ、柔らかさ、なめらかさなど、実際に身体が刺激を受けているわけではないのに脳にそう感じさせるので、一言でいえば「感覚再現」とでもいいましょうか。

画像2

「感覚再現」の技術はBMIの分野から生まれると思われますが、その性質上XR(AR/MR/VR)の分野にも大きく活用されると予想できます。

現状のVRは人間の「視覚」と「聴覚」2つの感覚をだまして現実感を再現していますが、もし五感の残りの「嗅覚」「味覚」「触覚」の再現ができればもっと没入感がでますよね。

AR/MRにおいても、現実空間の上に出現するディスプレイを押して操作する「触覚」のありなしだけで体験の心地よさ・操作しやすさが格段に違うことは想像にたやすいです。

スマートフォンでさえも触覚の再現にこだわっており、たとえばiPhoneで3D Touch(画面を押し込むようにタッチ)したときにカチッとiPhone自体が若干震えるのは、物理的に触った感を再現しようとしているのです。

AppleはARメガネの開発を進めているという噂があり、最近のOSアップデートによりその布石とみられるようなインターフェースに変更しています。

そのARメガネにおいても、きっとiPhoneと同じように何かしらのかたちで触覚の再現をしてくれると私は期待しております。

さて話を戻して、その「感覚再現」の挑戦をしている研究者のひとりが、カリフォルニア工科大学のリチャード・アンダーセン氏です。

彼の研究室では、全身麻痺にかかっているティム・ヘメスさんという被験者と共に、脳波によってロボットアームを動かすことに成功したことがあります。

先述したようにまだ文字入力レベルでは難しいにせよ、「動かせ」「持て」のような信号の違いは識別できるようで、その信号をもとに機械が定められた動作をすることはすでに可能なのです。

そしてアンダーセン氏の研究室では、ロボットアームが物に触れた感覚を患者の脳にフィードバックさせる……すなわち「感覚再現」の研究も行われています。

物理的な情報を「解析」して、人間的に「解釈」して、身体をとばして脳に直接信号を送り「感覚再現」させる一連の流れが実用化されるのは、実は遠くないのかもしれません。

身体をとばして、と書きましたが、コンピューター⇔身体⇔脳 というように身体を経由する場合は、見れる・触れる「インターフェース」が必要でした。

画像3

では、 コンピューター⇔脳 で直接やりとりをするようになった場合、そのインターフェースはどのようになるのでしょうか?

脳に直接「感覚再現」の信号を送るのですから、見る必要も、触る必要もないですよね。

私たちが現時点では想像もつかないような「脳インターフェース」のような仕組みが出てくるのかもしれないし、もはや人間とコンピューターをつなぐインターフェースというもの自体、未来では一切不要となるのかもしれません。

この記事が気に入ったらサポートをしてみませんか?