記事1__2_

ロボット工学の研究者が、発達障害の理解に取り組む理由|研究者インタビューVol.3・長井志江

AI(人工知能)が学習していくとき、プログラムどおりにいかない「エラー」が起こることがあります。そのエラーが起きる理由と、発達障害のある人の行動やコミュニケーション上の困りごとが起きる理由は、もしかしたら近いところにあるのかもしれないー 。そんな発想から、ロボット工学と発達障害という異なる分野が相互に研究を深めています。

LITALICO研究所の「研究者インタビュー」第3回は、東京大学ニューロインテリジェンス国際研究機構 特任教授、長井志江先生にお話を伺いました。

現在、LITALICO研究所は、長井先生とCREST(戦略的創造研究推進事業)「認知ミラーリングプロジェクト」において、共同研究を進めています。認知ミラーリングとは、自分が見ている世界を、鏡(ミラー)に映すように客観的に表現する技術。その技術を用いて、発達障害のある人の、他者からは見えにくい困りごとを理解し、支援に繋げていくのがCREST認知ミラーリングプロジェクトです。長井先生は同プロジェクトの代表として、LITALICO研究所による障害者支援グループや当事者研究グループ、計算モデルグループと協働して研究を進められています。

ロボット工学と発達障害、かけ離れて見える2つが同居している長井先生の研究所で、実際のロボットを前にしながらお話を伺いました。

ロボットを通じて理解していく「意外と知らない自分のこと」

― はじめに、先生が取り組んでいらっしゃる研究について、教えてください。

私が取り組んでいるのは、認知発達ロボティクス研究です。計算論的神経回路モデルの設計と、それを実装したロボットの実験....、ということをしていますが、まずは私が実験に使っているロボットをご紹介しましょう。iCub(アイカブ)です。

画像1

画像2

iCub は今、私の視線方向を計算して動いています。モニターには、iCub から見えている私の視線の向きが示されています。私のことを見ているのがわかりますね。

今、iCub はまばたきをしていますが、適当にやっているわけではありません。iCub から見える私のまばたきに同期してまばたきするように設定したことによる動きなんです。表情も、私の表情を真似ています。私が笑えば口角が上がるし、まじめな顔をすればまじめな顔になります。

人の認知科学の研究では、発達障害のない、いわゆる定型発達の人同士ではまばたきの同期が起きやすく、自閉スペクトラム症の人は、まばたきの同期が低いことがわかっています。まばたきの同期は、無意識に行われていることですが、コミュニケーションの中で相手との親和性を感じることにつながるといわれています。そこで、まばたきの同期によってお互いがどんな行動をとり合うか、を実験しているわけです。

画像3

― ロボットへの態度が変わるかもしれないのですね。それにしてもiCubは子どもみたいな見た目でかわいいです。

「子どもみたいでかわいいな」と感じることは、実はとても重要なんです。子どもに対して話すとき、自然とわかりやすい言葉で話しませんか? もし、これが大きくておっかない感じのロボットだったら、人は、子どもに向けるようなやさしい振る舞いとは違う行動をするかもしれない。そうすると、ロボットの学習の仕方も違ってきます。

人の振る舞いを見てロボットは学習するし、そのロボットの振る舞いを見て、人が何をどう感じているかも分析することができます。

認知ミラーリングとは、「人の感覚から運動に至る認知プロセスを鏡のように映し出し観測可能にする情報処理技術」。ロボットやシミュレータを使うことで、人が見ている世界や感じていることを外在化して客観視できるようにする技術のことです。

自分の思考や行動パターンにどういう癖があるか、人は普段、ほとんど意識していないですよね。でも、ロボットが私のまばたきや表情をまねする(ミラーリングする)様子を見ることで、「私ってしょっちゅうまばたきしているんだな」とか「悲しげな顔に見えるのかも」といった気づきにもつながるわけです。

このように、認知ミラーリングの技術によって、さまざまな形で、その人自身が自分を理解する助けになるのではないかと考えています。また、周りの人が、その人のもっている感覚過敏のような困難さを理解することにもつなげられるのではと思っています。

画像4

子どもの頃、父の姿を見てプログラミングのおもしろさを知った

― ところで、長井先生はいつからロボット工学に興味を持たれたのですか?

ロボットの研究をしたいと思ったのは、大学に入ってからでした。機械工学科でいろいろな先生の授業を受けているうちに、富山健先生(現 千葉工業大学未来ロボット技術研究センター研究員)の授業に出会いました。内容は非常にむずかしいけれど、授業がものすごくおもしろかったんです。この先生のところでぜひ研究したいと思ったら、それがロボットの研究でした。まさに出会い。先生あってのことだったんです。

― はじめは別の研究をしたかったのでしょうか?

漠然と、車の開発などに携われたら、と思っていました。もともと、物を作ったり手を動かしたりするのが好きでした。高校時代に F1 グランプリを見るのが好きだったので、車のデザインとかもいいかな、と思っていたくらいです。

そもそも機械やコンピュータに興味をもったきっかけは父でした。私の父は、今でいうオタクの人で、秋葉原で部品をいろいろ買ってきては、家でコンピュータを作っていたんです。私は1974年生まれなので、子どものころはまだパソコンなんて無い時代でしたが、そんな父の姿を見ているのが好きでした。

父の本棚に、マンガでプログラミングを解説している本があったんです。小学生のころ、それを見ながらプログラムを書いていたのを覚えています。文字の並び通りに書くとプログラムできるということがおもしろかった。それがいまの道につながっているんだな、と思いますね。

実験の中で気づいた。「人ってすごいことをしている!」

― 今、LITALICO研究所とも協働する認知ミラーリング研究をされているわけですが、ロボット工学と発達障害の研究分野がどうやってつながったのか、もう少し詳しく教えてください。

私がはじめに研究していたのは、人工知能です。人が考えて計画することを、どうやってプログラム上で行うのか、それをシミュレーションする研究です。

たとえば、モデルが迷路の中で目的地にスムーズにたどりつくにはどんなプログラムが考えられるか、というものを作っていました。ところが、簡単な迷路探索なのに、プログラムを書こうとすると行き詰ってしまう。私たちが想定したルール以上のものが必要でした。その時に、「人ってすごいことやっているんだ」と気づいたんです。人の頭の中では、こういうときにはこうしよう、と意識的に考える以外にも様々なことが働いて、行動計画を立てたり、日々のコミュニケーションをしたりしているんだと気づきました。

そこから、ロボットの知能を作るだけではなく、人はどのように物事を考えて行動しているのか、それを理解したいという方向へ興味が移っていきました。

人が学習・発達するメカニズムについて脳科学や発達心理からヒントを得ながらロボットの研究はできないかと思い、大阪大学の浅田稔教授(現 大阪大学 先導的学際研究機構 特任教授)を訪ねました。浅田先生のプロジェクトの中で、神経科学や発達心理の専門家など人の研究をしている研究者と、ロボットの研究者が一緒に脳の働きや人の活動を解析していくというアプローチを知ったんです。

そのアプローチの中で、プログラム上でうまくいかないことが生じたときに、うまくいかないメカニズムは、発達障害の人の脳の働きと似ているかもしれない、ということも分かってきました。 

画像5

ASD視覚体験シミュレータの発想を得るまで

― CRESTの共同研究では、ASD(自閉スペクトラム症)の人が見ている世界を体感できるASD視覚体験シミュレータが大事な役割を果たしていますが、このシミュレータの発想はどこから得られたのでしょう?

自閉スペクトラム症の当事者の方が、Youtubeに “自分には世界がこう見えている” という視覚過敏や鈍麻の映像をアップしているのを見つけたことが、このアイディアの発端でした。CRESTの当事者研究チームで研究員をされている自閉スペクトラム症当事者の綾屋紗月さん(*1)とはこのプロジェクトが始まる前からお話しする機会がありましたが、彼女がおっしゃっていることは、彼女だけのことじゃないんだなとも思いました。

ただ、場所や明るさなど条件によって見え方が変わったり、常に視覚過敏・鈍麻の状態に見えるわけではなかったり、個人差もあることが分かりました。そこで、特定の誰かがこう見ていた・感じていたというだけでなく、より深くそのメカニズムを調べてみたいと思ったんです。もっとたくさんの事例を分析して、「自閉スペクトラム症の人には世界がこう見えている」という理解を進められないか、と。

その当時、たまたま研究室にいたのが、VRに興味を持っている学生さんでした。発達障害のある人が新しい場所に行ったときパニックにならないための道案内を、VRを使って作れないかと言っていたんですね。

でも、確かにそれは役に立つのかもしれないけど、私は「トキメキ」を感じなかったんです。そこで、発達障害のある人の「見え方」とVRとを繋げたら、第一人称表現のVRができるのでは、と思い立ったのです。

トキメキがあることが、人間の理解へとつながる

― 「トキメキ」、ですか?

はい。私が「これを研究したい」と思う決め手は、トキメキがあるかどうかなんです。「こういうプログラムを作ったら、ロボットはこう動くよね」と、予想がつくことにはトキメキません。

予想した通りに動くものを作るだけでは、発達の理解、人間の理解ということにはつながっていきません。自分の想像を超えそうだと感じる時、トキメキが浮かぶんです。これは絶対おもしろくなる、という感覚ですね。

― もっと理詰めで研究テーマや方針を作っていくのかと思っていました。

そう見えるかもしれませんね。でもこの「トキメキ」、大事だし、なかなか出会えないんです。せいぜい年に1回か2回。研究室の中だけではなく、たとえば一緒に研究しているまったく違う分野の先生から、こういう面白さがあるんじゃないの?と気づかされることもあります。

自分たちが予想していることと違う結果が出て、その理由がどうしても私たちでは理解できない時に、脳の働きを臨床で見ている先生方から「こういう現象も起こりうる」という指摘を受けることもあるんですね。そういうことが、共同研究している中で得られる「トキメキ」の一つですね。

画像6

LITALICO研究所との共同研究で、報われたような経験

― LITALICO研究所との共同プロジェクトで、ASD視覚体験シミュレータを使ったワークショップを展開してきましたが、どんな収穫がありましたか。

私たちの研究は、研究室の中だけで完結していることが多いんです。特に基礎研究の部分は、誰の、何の役に立つ研究なのかを見失ってしまうことがあります。しかしこのプロジェクトでは、ASD視覚体験シミュレータによる障害の理解について、アンケートでデータをとることができた、ということが大きな収穫でした。

ワークショップでも、実際にASD視覚体験シミュレータを使った親御さんが「うちの子はなんでこんな行動をするんだろう、と分からなかったことが、すっと胸に落ちました」と涙ながらにおっしゃる姿を見て、ああ、この研究をやってきてよかったなと、報われる感じがありました。これはほんとうに、当事者研究グループの熊谷晋一郎先生(*2) や綾屋さん、そしてLITALICO研究所のおかげで得られた大きな成果だと思っています。

どんなにいい技術を作れたとしても、社会に対してこうしたアウトプットをしていかなければ受け入れてもらえないんですね。違う分野の専門家の方々の力を借りられるということは、得るものがたくさんあります。ありがたいことです。

経験ベースだけではない、科学的な理論からの、子どもの理解へ

― 共同研究プロジェクトは、今後どんな展開になっていきますか?

2つの展開を考えています。ひとつは、ワークショップで得たノウハウや現場の声を全国的に共有していくために、情報を書籍化したいということ。

もうひとつは、今までワークショップの形でやっていたものを、教育システムの中に組み込んでいくことです。実際に、いくつかの自治体と共同で、学校の先生方を対象にした研修会を定期開催していくための仕組みづくりをスタートしています。

現場の先生方に話を伺うと、今は経験ベースの教育になっていることが多いといわれます。実際にやってみて効果があったから続けている、ということ自体はすごいことですが、それは100%の効果ではありませんよね。どうしてもこぼれている数パーセントがあります。

今後、現場で起きていることに一対一の解決策をつくるというよりは、脳のしくみや感覚機能、工学的な技術による研究など理論にサポートされた実践教育を、現場の先生方と一緒に作っていこうとしています。

画像7

人とロボットのスペクトラム、その橋渡しとなる技術

― LITALICO研究所とは別に、先生自身の今後の研究課題はありますか。

これからも、人間の理解を追求したいです。コミュニケーションについてのモデルの研究は、まだ断片的なものです。ひとつひとつの現象については矛盾なく説明できても、それはまだ、人の全体を理解するという意味では、「理解できていたらいいな」という段階です。人のコミュニケーションに関する様々な現象を、共通の原理に基づいて説明できるのか、ということを追求していきたいです。

人とロボットは、今は全然違う2つのものだと考えられていますよね。でも実は人とロボットも、発達障害のある方と定型発達の方のようにグラデーションなのではと、私は考えています。

発達障害と定型発達も、昔は相容れないものだと考えられていました。でもそれがスペクトラムという考え方に変わり、発達障害のある方も定型発達の方と同じ脳の働きや感覚があることがわかりました。

綾屋さんは、自閉スペクトラム症の人は、ただやり方が違うだけで、社会的コミュニケーションもできるとおっしゃるんですね。例えば日本語しかできない人とフランス語しかできない人がいて、二人ともコミュニケーションはできる、けど言語が違うから通じない。それと同じではないか、ということなんです。発達障害に関しては、そういうことが研究で分かってきて、スペクトラムという考え方になったわけです。

脳の中で起こっていることは非常に単純な電気信号のやりとりです。そう考えたときに、人とロボットも、脳と人工知能のメカニズムに関してはスペクトラムになっていくんじゃないかと思うんですよね。

人のようにふるまうロボットを研究するということは、そのスペクトラムの橋渡しになることだと考えています。人の足りない部分や苦手な部分を工学テクノロジーでカバーできる。その代わり人は違うことを創造していく。人とロボットは、「競争」ではなく「協創」するものになるでしょう。発達障害の方と定型発達の方の関係も、両者が理解できるように、その橋渡しになる技術を作っていきたいと思っています。

***

(*1)綾屋紗月
1974年生まれ。2006年アスペルガー症候群と診断される。東京大学先端科学技術研究センター特任研究員。発達障害者が参加・運営する当事者研究会「おとえもじて」の主催者。
(*2)熊谷晋一郎
小児科医。東京大学先端科学技術研究センター准教授。脳性まひで、電動車いすユーザー。綾屋研究員と一緒に、発達障害者の困りごとを第一人称視点から研究する発達障害当事者研究を主導。 

画像8

|長井志江(ながいゆきえ)|
東京大学ニューロインテリジェンス国際研究機構特任教授。大阪大学大学院工学研究科 特任准教授、情報通信研究機構脳情報通信融合研究センター主任研究員などを経て現職。認知発達ロボティクス研究に従事。計算論的神経回路モデルの設計、およびそれを実装したロボットの実験を行う。CREST認知ミラーリング研究では、LITALICO研究所をはじめ他分野の研究者と協働し、自閉スペクトラム症(ASD)などの発達障害者のための自己理解支援システムを開発。


取材・文:関川香織
写真・編集:鈴木美乃里・鈴木悠平

取材日:2019年12月5日

関連記事


この記事が気に入ったらサポートをしてみませんか?