見出し画像

TV画面をスマートフォンで撮るように、脳と機械をくっつける

学生の頃に友人からASIAN KUNG-FU GENERATIONのCD-Rを渡された。
なんの話かと言うと、インターフェースの話だ。

20年ほど前は楽曲をCDに焼くのも一般的だったし、今現在クラウドが普及してもUSBメモリをまだ使う。
CDも場合によっては出番が回ってくる。
物理の記憶媒体。
データをやり取りするのに、TwitterやmessengerなどのSNSネット、メールに添付することもできるし、Googleドライブにアップしてリンクを教えてもいい。
いずれにしてもデータを移動する手段は増えつづけ、速度はあがり大量の情報を容易に移動できる。
コンピューターの操作もマウスやキーボードはもちろん、タッチパネルだってある。
彼らは入力された命令を実行し、結果をモニターやスピーカーから出力する。
そうしたすべてのインターフェースは交換可能で目的にあったものを自由に組み合わせて使うことができる。
今、アジカンの曲を聴きたければ、スマートフォンの画面をタッチしてSpotifyを起動し検索すればいい。
あるいはApple MusicでもAmazonでもなんでもいい。

人間の脳に情報を出し入れするためのインターフェースは交換がきかない。
脳にある神経細胞の信号は、末梢の運動神経をつうじて全身の筋肉に指令を送る。
そうして手足を動かし、鉛筆を握って文字や絵を書く。
今ここでなにかしらの文章を作成するためにキーボードを叩いているのも、手の筋肉というインターフェースによって、私の神経活動がアウトプットされた結果だ。
逆に外部からの情報を受け取るために、人間は感覚器と感覚神経を持っている。
網膜で受け取った光は視神経をとおして伝わるし、音は内耳と聴神経で受信することができる。
匂いも痛みも味覚も受け取れるし、感触だって温度だってわかる。

攻殻機動隊の主人公、草薙素子は脳以外すべてが義体だ。
脳だけが生身であとは機械のパーツ。
作中、草薙素子は自分が人間か否かで悩む。
生身の人間がもつ五感や運動器官といったインターフェースは、訓練するほどに脳に馴染み、すばやく正確に多くの情報を伝えられるようになる。
脳視点で見れば、体はよきインターフェースであり、エネルギーを供給してくれる存在だ。
そう割り切れば、インターフェースを機械に変えただけの草薙素子は疑いの余地なく人間だ。
フィクションの世界ではわりと、脳は簡単に機械とつながる。
機械をインターフェースとして易々と使いこなし、草薙素子は徒手格闘から銃撃戦までこなしてしまう。

生物のもつインターフェースは自由に交換ができない。
目の代わりにカメラを搭載することはまだできないし、聴覚は部分的には機械に交換可能だが、かぎりがある。
少しずつ技術は進歩しているのでいずれはできるようになるかもしれないと思う。
傍目からは、脳とインターフェースをつなぐのに研究者たちはとても苦労しているように見える。
目や耳や筋肉はあまりにエレガントに、そして胎内で神経組織ができるのと同期して成長し、細胞単位で互いに接合している。
マイクロメートルオーダーの分解能で、必要な場所に、必要な部品が、必要なだけ設置され機能するよう設計されているのには、驚くほかない。
脳にかぎらず、胎内で体ができる過程は発生学と呼ばれ、生物学の中では百年前から変わらず人気の分野だ。
それだけ精緻な仕組みなのだと思う。
個人的には三次元の構築を頭に思い浮かべるのが苦手なために、発生過程の図を何度見ても理解できずに途中で放り投げてしまったけれど。

ロボット工学の分野が発展し、人間のような動きをする技術は完成しつつあるように見える。
ロボットアームは卵だってそっと掴めるし、二足歩行するロボットも誕生してずいぶんたつ。
安定性のよい四足歩行であれば、ネコ科の動物のように美しく移動するロボットがすでに市販されている。
しかし、これらの工学技術をヒトの脳につなごうとしてもうまくいかない。
ブラックジャックのように脳神経を一本ずつ抹消の神経につなぐ技術は当然ないし、それができないとしたら相当に粗い方法しかない。
例えば、頭に電極のたくさんついた帽子をかぶり脳の表面の電流を感知することで、おおざっぱに脳の活動を知ることは可能だ。
すでに、頭に思い浮かべるだけでドローンを飛ばしたり、ロボットアームを動かしたり、文字をモニターに表示させたりできる。
これは本当にすごいことだ。
頭蓋骨の中、つまり脳の表面に直接電極をおくことでより細かい脳の様子を知ろうとする研究も進みつつあるらしい。
それでも、本当にすべての情報を脳とやり取りするためには解像度が10倍から100倍くらい足りない。
その上、そのやり取りは間接的だ。
脳に流れる電流を感知するのは、PCのモニターやTV画面をスマートフォンのカメラアプリで撮影するようなものだ。
ケーブルに繋ぐなりもっとスマートで正確な方法があるはずだと、きっと文句を言われてしまう。
それくらい、機械のインターフェースと脳をつなぐのは難しい。
それでもたぶん、あと何十年かすれば解決する問題だと思う。
10年くらい前、思い浮かべるだけでドローンを飛ばせるなんてどう考えても無理だと思っていた。
そんな細かい指令を、頭にかぶった電極が受け取れるわけがないと思っていた。
それがここ数年であっという間に技術が進歩し可能になった。
おそらく義体化の最後の関門である、脳と機械の接続の問題が解決すれば、思い浮かべるだけでコンピューターに指令を出したり、機械を動かしたりできるようになると思う。

神経の一本一本をつなげる接続方法ではなく、脳の表面の電流を眺めることで何を考えているのかを知る。
その方法が突きつめられていくのだろう。
そもそも人間が手を動かそうとするとき、脳がまず考え、それが小脳や脊髄、末梢神経を伝わり筋肉が動く。
エンジニアたちは途中過程をすっとばして、脳の考えを直接機械の動きに変換する方法をとった。
手の中に電極をつっこんで、今まさに手を動かそうとしている筋肉の活動をモニターするわけでもなく、脳から筋肉に向かって長く伸びてくる神経繊維の電流を一本一本測るわけでもない。
人間の体というインターフェースをすべて無視して、機械のインターフェースにつなぐのだから、結果的にもっとも効率がよいのかもしれない。


この記事が気に入ったらサポートをしてみませんか?