見出し画像

【連載1】統合科学技術としてのニューロテック: ニューロツイン、分散型データ基盤、機械学習

ニューロテックとは、Neurotechnologyの略称で、ブレインテックとも呼ばれ、脳の活動をモニタリングする技術や、脳を刺激し治療や能力向上をうながす技術、またこれらを支援する技術など、”ニューロサイエンス(神経科学)を応用した技術”の総称とされています [1]

Neuralinkに代表されるように大規模な研究開発が進んでおり、ニューロテックが社会で今後どこまで受け入れられるか注目されています。

現在、脳の活動の信号を抽出するためのデバイスの開発競争が特に進んでいますが、筆者は、ニューロサイエンスや医療領域で研究が進んでいるニューロツイン、分散型データ基盤、機械学習などの統合基盤技術も注目すべきだと考えています。

ニューロツインとは、様々なモダリティのデータを統合し、ある人の脳とその活動を模したモデルをコンピュータ上に再現するデジタルツインの一種です。分散型データ基盤は、これまで研究機関や医療機関等が中央集権的に管理していた被験者や患者のデータを、被験者や患者自身が管理するための基盤です。さらに、機械学習においては、様々なデータを統合して個人の脳を再現するデータ同化(Data Augmentation)や、研究機関等に属するデータのプライバシーを守りつつAIの学習を進めるFederated Learning (FD, 連合学習などが提案されています。

これらの技術は互いに補完的に個人に合わせた疾患の治療やリスク計算を可能にし、長期的には統合される可能性が高いと筆者は考えています。

本記事では、ニューロサイエンスで進んでいるプロジェクトの大規模化と統合化という背景をベースに、今後ニューロテックを支えるであろう基盤技術についてこれらの3つの観点から議論し、関連するマーケットについて考察します。

1.1 ニューロサイエンスは大規模化と統合化が進んでいる

ニューロサイエンスはすでに一つの研究室のみで成果物を生み出す状況になく、プロジェクトの大規模化が進行中です。また、各プロジェクトが生み出したデータの統合に取り組む人たちが現れています。

2005年から登場したマウスの皮質神経回路の詳細なモデルを構築するBlue Brain Project (スイスのEPFLのHenry Markramらが主導)を皮切りに、2010年代には大規模な予算に支えられた国のプロジェクトが世界各国で登場しました図1

アメリカにおいて、2013年当時オバマ大統領が大々的に支援を表明したBRAIN Initiativeは、2026年までに総額52億ドルの資金が投入される予定なっています。2022年9月には、2025年までに5億ドルかけて様々な神経細胞の投射などを盛り込んだ人間の脳アトラスを構築する計画を発表しました [2]。ヨーロッパでは、Human Brain Project(HBPが2014年に発足しました。HBPにおいては、Blue Brain Projectや後で詳述するEBRAINSなど脳のシミュレーションを通して脳の理解や疾患の治療につなげるプロジェクトが盛り込まれています。

日本では、2014年から2023年にかけてマーモセットの詳細な脳アトラスを構築したり行動解析などを盛り込んだBrain/MINDSプロジェクトを代表例として、ムーンショット型研究開発事業における「身体的能力と知覚能力の拡張による身体の制約からの解放」など様々な大規模プロジェクトが登場しています。

図1: 各国の基礎研究プロジェクトのまとめ [1]

また、Microsoft社の共同創業者であるPaul Allenが創設したAllen Instituteは、マウスの脳を中心に、神経細胞の種類や結合等の複数のモダリティのデータを統合する基盤を構築しています。このような長期的視座で研究開発できるような研究所は世界でもほぼなく、Allen Instituteが提供するソフトウェア、データや脳座標を標準規格の一つとして利用されることも増えてきています。

ニューロサイエンスはすでに一つの研究室のみで成果物を生み出す状況になく、プロジェクトの大規模化が進行中です。また、各プロジェクトが生み出したデータの統合に取り組む人たちが現れています。

2005年から登場したマウスの皮質神経回路の詳細なモデルを構築するBlue Brain Project (スイスのEPFLのHenry Markramらが主導)を皮切りに、2010年代には大規模な予算に支えられた国のプロジェクトが世界各国で登場しました図1

アメリカにおいて、2013年当時オバマ大統領が大々的に支援を表明したBRAIN Initiativeは、2026年までに総額52億ドルの資金が投入される予定なっています。2022年9月には、2025年までに5億ドルかけて様々な神経細胞の投射などを盛り込んだ人間の脳アトラスを構築する計画を発表しました [2]。ヨーロッパでは、Human Brain Project(HBPが2014年に発足しました。HBPにおいては、Blue Brain Projectや後で詳述するEBRAINSなど脳のシミュレーションを通して脳の理解や疾患の治療につなげるプロジェクトが盛り込まれています。

日本では、2014年から2023年にかけてマーモセットの詳細な脳アトラスを構築したり行動解析などを盛り込んだBrain/MINDSプロジェクトを代表例として、ムーンショット型研究開発事業における「身体的能力と知覚能力の拡張による身体の制約からの解放」など様々な大規模プロジェクトが登場しています。

図1: 各国の基礎研究プロジェクトのまとめ [1]

また、Microsoft社の共同創業者であるPaul Allenが創設したAllen Instituteは、マウスの脳を中心に、神経細胞の種類や結合等の複数のモダリティのデータを統合する基盤を構築しています。このような長期的視座で研究開発できるような研究所は世界でもほぼなく、Allen Instituteが提供するソフトウェア、データや脳座標を標準規格の一つとして利用されることも増えてきています。

ENIGMAコンソーシアムHuman Connectome Projectなど大規模にイメージングのみならず遺伝情報を含めた様々なモダリティのデータを取得し、データを共有するプロジェクトに基づいて大量の学術論文が生産され、すでにこれらのプロジェクトから生み出されたデータはなくてはならない基盤になっています。

大規模なプロジェクトにおける規格化されたデータ共有だけでなく、個々の研究室が取得したデータ共有の規格として神経生理データを対象としたNeurodata Without Borders (NWB)やMRIなどのイメージングを対象としたBrain Imaging Data Structure (BIDS)も提案されています。

筆者は、この大規模化と統合化はすでに避けられない道であり、研究者も一定の対策が必要と考えています。

1.2 プロジェクトの大規模化よる課題

プロジェクトの大規模化伴って、プロジェクトマネジメントデータの共有が難しくなるなどの多くの問題が起きています。筆者は、複数のプロジェクトからいくつかの問題を観察しました。

大規模プロジェクトのマネジメントおいての難しさは、目的が異なる複数の研究室が共同して一つの目標に向かって成果物を構築することと筆者は考えています。それぞれの研究室は、PIと呼ばれる主任研究員の元、ある研究目的を達成するような行動をします。多くの場合、PIは複数のプロジェクトを抱えており、大規模なプロジェクトに最大限貢献するように動くことの間に齟齬が生まれる場合があるわけです。

さらに、伝統的な研究室単位との齟齬がソフトウェア開発という点からも生まれていました。研究室単位で、それぞれの課題を解決するためにソフトウェア開発を行い成果を産みます。プロジェクトが大規模化すると、このようなやり方はかなり非効率になります。なぜなら、その場しのぎのコードが保守のための開発が行われないまま、その都度使い回されることになりプロジェクトが終わればそのまま使われない場合が出てくるからです。年限の短いプロジェクトにおいては、研究の中心となるポスドクが不慣れなソフトウェア開発に担ぎ出され短期的に成果を出さなければならないため、特にこの傾向が高まります。

この解決策として、プロジェクトに参加するメンバーがプロジェクト管理に関する理解を高めアウトプットをデザインすること、プロジェクト内で利用する共通のツールの確保が考えられます。このような背景から、研究のためのソフトウェア開発を担うResearch Software Engineerが求められているわけです [3]

Allen Instituteはある意味で、そのようなマウスに関するプロジェクトに関わるものなら誰しも利用するようなソフトウェアを提供することで知名度とニューロサイエンスの統合的な基盤を築いています。また、実験のプロトコルを共有し、新たな組織運営についての模索するInternational Brain Labのような取り組みは別の参考例になると考えています。

ニューロテックのプロダクト開発という観点からNeuralinkを考えたときに、伝統的な研究室という単位で研究開発を行わないからこそ可能な開発を行なっているのかもしれません。

また、現代においてデータ共有の難しさはデータの再利用をいかに設計するかになっていると筆者は考えています。先に見てきたようにデータ共有の規格やデータのレポジトリについてはすでにいくつか用意されており、利用が広まってきました。しかし、多くの場合、研究において一度取得したデータは外部で再度利用されることはなく機関内のデータレポジトリに放置されます。

いくつか理由がありますが、以下の理由が考えられます。

  1. 外部でのデータの再利用を促す前に研究室内で研究論文を出し切りたいこと

  2. データの再利用の許可を倫理審査委員会において再度得なければならないこと

  3. データを宣伝して再利用を促すには独自のknow-howが必要であること

  4. 現状データの再利用の用途があまり多くないこと

1.については、年数が経てば面倒になり結局外部のデータレポジトリに入れるモチベーションがなくなる場合が多く、放置されることも多くなるでしょう。また被験者のプライバシーや権利に基づいて2.が厳しく制限されているのが現状です。3.と4.については、ソーシャルメディアでの宣伝や研究プロジェクトが他のプロジェクトも含めてどのように活用されるか戦略が必要になっています。

分散型データ基盤は、2.の課題を解決しようとしており、ニューロツインは4.の課題を部分的に解決すると筆者は考えています。機械学習においては、2.と4.の課題と関連しています。それぞれの技術がどのような出自から生まれ、どのような技術なのか一つずつ説明していきます。

次回は、『ニューロツイン』について、Quantified Selfやデジタルツイン等の関連する概念と紐付けならがら紹介していきます。

サポートよろしければお願いします!