見出し画像

ニューロテクノロジーとAIに関する4つの倫理的優先事項

ネイチャー
2017年11月09日

ラファエル・ユステ、サラ・ゲーリング、...ジョナサン・ウォルパウ 著者一覧
ネイチャー551巻、159-163ページ(2017)

元記事はこちら。

人工知能とブレイン・コンピュータ・インターフェイスは、人々のプライバシー、アイデンティティ、主体性、平等性を尊重し、維持しなければならないと、ラファエル・ユステ、サラ・ゲーリングらは述べています。

脊髄損傷者(右)は、脳信号でアバターを操作する仮想自転車レースの準備をする。

次のようなシナリオを考えてみよう。脊髄損傷の男性が、ブレイン・コンピュータ・インターフェイス(BCI)の臨床試験に参加している。彼の脳のチップに接続されたコンピュータは、彼の頭の中で行われる行動のリハーサルから得られる神経活動を解釈するように訓練されている。コンピュータは、ロボットアームを動かすためのコマンドを生成する。ある日、彼は実験チームに対してフラストレーションを感じる。その後、彼のロボットハンドは、研究助手の一人からカップを取り上げた後、それを押し潰し、助手を傷つけてしまう。装置の故障に違いないと謝罪する彼は、チームへの不満が原因ではないかと考える。

このシナリオは仮定の話である。しかし、社会が向かうかもしれない課題の一端を示している。

現在のBCI技術は、脊髄損傷者の支援など、主に治療的な成果を重視している。例えば、コンピューターのカーソルを動かしたり、電動車椅子を操作したりといった、比較的簡単な運動タスクはすでに可能になっています。さらに、研究者はすでに機能的磁気共鳴画像スキャンから、その人の神経活動を初歩的なレベルまで解釈することができる1。

BCIやその他のニューロテクノロジーが私たちの日常生活の一部となるまでには、数年から数十年かかるかもしれません。しかし、技術の進歩は、人の精神的プロセスを解読し、その意図、感情、判断の根底にある脳のメカニズムを直接操作することが可能になる世界、考えるだけで他者とコミュニケーションできる世界、そして、人の脳に直接リンクした強力な計算システムによって世界との相互作用を助け、その精神と身体の能力を大幅に向上させる世界への道のりを意味するものである。

このような進歩は、脳障害や麻痺からてんかんや統合失調症に至るまで、多くの症状の治療に革命をもたらし、人間の経験をより良いものに変える可能性がある。しかし、この技術は社会的不平等を悪化させ、企業、ハッカー、政府、その他誰にでも、人々を搾取し操作する新しい方法を提供する可能性もある。そして、私的な精神生活、個人の主体性、身体によって縛られる存在としての個人に対する理解など、人間の中核的な特性を大きく変える可能性もある。

今、その影響を考えることが重要なのです。

モーニングサイド・グループは、神経科学者、神経技術者、臨床医、倫理学者、機械知能エンジニアで構成されています。グーグルやカーネル(カリフォルニア州ロサンゼルスにあるニューロテクノロジーの新興企業)、国際脳プロジェクト、米国、カナダ、ヨーロッパ、イスラエル、中国、日本、オーストラリアの学術・研究機関の代表者が参加しています。私たちは、2017年5月にニューヨークのコロンビア大学で開催された米国国立科学財団主催のワークショップに集まり、ニューロテクノロジーと機械知能の倫理を議論しました。

私たちは、既存の倫理ガイドラインはこの領域では不十分だと考えています2。これには、人間を対象とする医学研究のために1964年に初めて制定された倫理原則の声明であるヘルシンキ宣言(go.nature.com/2z262ag)、米国の生物医学および行動学研究の被験者保護のための国家委員会が作成した1979年の声明、ベルモント報告(go.nature.com/2hrezmb)、今年初めに発表されてビジネスリーダーやAI研究者などによって署名されたアシロマ人工知能(AI)の注意事項声明(go.nature.com/2ihnqac)などが含まれます。

この赤字に対処し始めるために、ここでは、プライバシーと同意、エージェンシーとアイデンティティ、オーグメンテーション、バイアスの4つの懸念事項に関連する提言を整理しています。国家や宗教、民族、社会経済的背景が異なれば、ニーズも展望も異なる。そのため、各国政府は、社会のあらゆるセクターの代表者が参加するオープンな議論を仲介する審議機関を設置し、これらのガイドラインを具体的な法律や規制を含む政策にどのように反映させるかを決定する必要があります。

知的な投資

世界で最も裕福な投資家の中には、神経科学とAIの相互作用に賭けている人たちがいる。カーネルやイーロン・マスクが今年立ち上げたスタートアップ企業ニューラリンクなど、世界中で十数社が、人間の脳活動を「読む」ことと、神経情報を脳に「書き込む」ことの両方を実現するデバイスの開発に投資しています。現在、営利企業によるニューロテクノロジーへの支出は、すでに年間1億米ドルに達しており、急速に増加していると推測されます。

神経活動を刺激するために脳に電極を埋め込んだ後、アイデンティティの感覚が変わったと報告する人もいる。
他の分野からの投資も相当なものです。2013年以降、米国のBRAINイニシアチブだけでも、5億ドル以上の連邦資金が神経技術の開発に向けて投入されています。

現在の能力はすでに目覚ましいものがあります。筋萎縮性側索硬化症(ALS、別名ルー・ゲーリッグ病または運動ニューロン病)で半身不随になった神経科学者は、BCIを使って研究室を運営し、助成金申請書を書き、電子メールを送信しています3。一方、ノースカロライナ州ダーラムにあるデューク大学の研究者は、電極を埋め込んだ3匹のサルが「ブレインネット」として動作し、アバターアームを協調して動かすことができることを示した4。これらの装置は、インターネットによって無線で信号が送信されれば、数千キロメートルを越えて動作することができる。

せいぜい数十個の神経細胞を刺激してその活動を読み取ることができるような、このような粗雑な装置は、まもなく凌駕されることになるだろう。今年初め、米国国防高等研究計画局(DARPA)は、「神経工学システムデザイン」というプロジェクトを立ち上げた。100万個の電極を使って脳の活動を同時にモニターし、最大10万個のニューロンを選択的に刺激できるワイヤレス人間脳デバイスについて、4年以内に米国食品医薬品局から承認を得ることを目標としている。

一方、Google、IBM、Microsoft、Facebook、Apple、そして多くの新興企業が、これまで以上に洗練された人工ニューラルネットワークを構築しており、入力と出力が明確に定義されたタスクではすでに人間を凌駕することができるようになっています。

例えば昨年、シアトルにあるワシントン大学の研究者たちは、グーグルのFaceNetシステムが、100万人の中から1人の顔を認識できることを実証した。また、同様のニューラルネットワークアーキテクチャを採用したグーグルの別のシステムは、街角の風景が世界のどこで撮影されたかを推測することで、旅慣れた人間をはるかに凌駕し、この技術の一般性を実証している。マイクロソフト社は8月、会話音声を認識するためのニューラルネットワークが、特定の指標において、訓練を受けた専門家さえもその能力に匹敵することを発表した。また、ドイツのフライブルク大学の研究者たちは7月、脳波(EEG)データを用いて、ニューラルネットワークが計画に関連する脳活動を解読し、ロボットを制御できることを明らかにした5。

今後、実際の神経回路網の働きをより深く理解することで、これらの例よりもはるかに強力な神経回路網が実現されることは間違いないだろう。現在使われている人工ネットワークは、50年以上前の脳回路モデルにヒントを得たもので、麻酔した動物で個々のニューロンの活動を記録することに基づいている6。 今日の神経科学の研究所では、光学的手法、コンピューター、分子工学、マイクロエレクトロニクスの進歩により、起きて行動する動物の数千のニューロンの活動をモニターし、操作することができる。

" 世界で最も裕福な投資家の中には、神経科学とAIの相互作用に賭けている人がいる。"

私たちはすでに機械と密接に繋がっている。グーグルの研究者は今年、平均的なユーザーが年間100万回近くスマホに触れていることを計算した(未発表データ)。人間の脳は、聴覚や視覚を制御して音や画像を解読し、手足に命令してガジェットを握ったり操作したりしています。しかし、ニューロテクノロジーとAIの融合は、人の脳と機械知能を直結させ、脳と身体の通常の感覚運動機能を迂回させるという、質的に異なるものを提供することになる。

4つの懸念

ニューロテクノロジーが一般消費者市場に浸透するためには、非侵襲的でリスクが少なく、現在の脳神経外科手術よりもはるかに少ない費用で導入できるものでなければなりません。しかし、現在でも、機器を開発している企業は、その製品について説明責任を負い、一定の基準、ベストプラクティス、倫理規範に導かれなければならない。

私たちは、早急な対応が必要な4つの懸念事項を取り上げました。これらの問題は、ニューロテクノロジーの文脈で提起していますが、AIにも当てはまります。

プライバシーと同意。人々のデータトレイルからは、すでに並外れたレベルの個人情報を得ることができます。例えば、ケンブリッジにあるマサチューセッツ工科大学の研究者たちは、2015年に、パーソナルデバイスのキーボード入力パターンから明らかになる人々の運動行動のきめ細かい分析によって、パーキンソン病の早期診断が可能になることを発見しました7。2017年の研究では、通常の日常生活の中でスマートフォンを携帯している人から得られるような移動パターンの測定が、アルツハイマー病に起因する認知障害の早期兆候の診断に利用できることが示唆されています8。

広告のターゲット、保険料の計算、潜在的なパートナーのマッチングに使用されるアルゴリズムは、神経情報、例えば、特定の注意状態に関連するニューロンからの活動パターンを利用すれば、かなり強力なものになるでしょう。また、インターネットに接続された神経デバイスは、個人や組織(ハッカー、企業、政府機関)が個人の精神的体験を追跡したり、操作したりする可能性さえ出てきます。

私たちは、市民が自分の神経データを非公開にする能力 - そして権利 - を持つべきだと考えています(「エージェンシーとアイデンティティ」も参照してください)。これを保証するために、私たちは以下のステップを提案します。

すべての神経データについて、共有をオプトアウトする能力をデフォルトの選択肢とし、鋭意保護すべきである。人々は、インターネット閲覧、ソーシャルメディア、娯楽などのサービスを提供する商業プロバイダーに対して、自分が何を放棄しているのかを十分に理解しないまま、容易に自分のプライバシー権を放棄している。オプトアウトをデフォルトとすれば、神経データはほとんどの国で臓器や組織と同じように扱われることになる。個人があらゆるデバイスからニューラルデータを共有するためには、明示的にオプトインする必要がある。これには、誰が、どのような目的で、どのくらいの期間データを使うのかを明確にした同意手続きなど、安全でセキュアなプロセスが必要だろう。

このアプローチでも、多くの共有希望者の神経データが、インターネット検索やフィットネスモニターなどからの膨大な非神経データと組み合わされ、共有しないことを選択した個人について「十分な」結論を導き出すために使用される可能性がある。この問題を抑えるために、私たちは神経データの販売、商業的移転、利用を厳しく規制することを提案する。このような規制は、金銭的報酬のために人々が神経データを手放したり、神経活動を直接脳に書き込んだりする可能性も制限するものであり、1984年の米国臓器移植法のような人間の臓器の販売を禁止する法律と類似しているかもしれない。

もう一つのセーフガードは、神経データの中央集権的な処理を制限することである。我々は、ユーザーのプライバシーを保護するために、差分プライバシーや「連合学習」などの計算技術を展開することを提唱している(「プライバシーの保護」参照)。人々のデータを保護するために特別に設計された他の技術の使用も役立つだろう。例えば、ブロックチェーンに基づく技術は、データの追跡と監査を可能にし、「スマートコントラクト」は、中央集権的な権威を必要とせずに、データの使用方法について透明性のある制御を行うことができます。最後に、オープンデータフォーマットとオープンソースコードにより、何が非公開で何が送信されるのか、より透明性を高めることができるだろう。

ボックス型テキスト

主体性とアイデンティティ 脳に埋め込まれた電極による脳深部刺激を受けている人の中には、主体性やアイデンティティの感覚に変化を感じたと報告している人がいます。2016年の研究では、うつ病の治療のために脳刺激装置を7年間使用していた男性が、フォーカスグループ9で、自分の他人との関わり方、例えば、振り返ってみると不適切だと思うようなことを言うのは、装置やうつ病のせいなのか、それとも自分自身の深い何かを反映しているのか、と考えるようになったと報告しました。彼はこう言っています。「率直に言って、自分が誰なのか分からなくなるくらいにぼやけてしまうんです。

ニューロテクノロジーは、明らかに人々のアイデンティティと主体性の感覚を破壊し、自己の本質と個人の責任(法的または道徳的なもの)に関する中核的な仮定を揺るがす可能性があります。

機械学習や脳と連動する装置によって、意図と行動がより迅速に変換されるようになれば、おそらく「オートコンプリート」や「オートコレクト」機能によって、人は自分自身のものとして主張するのが難しいような行動をとるようになるかもしれない。遠距離にいても思考を通じてデバイスを制御できるようになったり、複数の脳が協調して動作するように配線されれば、私たちが誰でどこで行動しているかについての理解は破壊されるでしょう。

ニューロテクノロジーが発展し、企業や政府などが人々に新しい能力を与えようと努力し始めたとき、個人のアイデンティティ(身体的・精神的完全性)とエージェンシー(行動を選択する能力)は、基本的人権として保護されなければならない。

私たちは、1948年の世界人権宣言などの国際条約に、このような権利(「神経権」)を保護する条項を追加することを推奨している。しかし、国際的な宣言や法律は国家間の合意に過ぎず、世界宣言でさえ法的な拘束力を持たないため、これだけでは十分ではないかもしれない。そこで私たちは、「強制的失踪からのすべての者の保護に関する2010年国際条約」に記載されている禁止事項に類似した、ニューロテクノロジーと機械知能に関連する禁止行為を定義する国際条約の作成を提唱しています。関連する国連のワーキンググループは、署名国のコンプライアンスを審査し、必要に応じて制裁措置を勧告することができます。

このような宣言は、ニューロテクノロジーの認知的・感情的影響の可能性について教育を受ける人々の権利も保護しなければならない。現在、同意書は一般的に手術の物理的なリスクのみに焦点が当てられており、気分や性格、自己意識にデバイスが及ぼす可能性のある影響については触れられていない。

オーグメンテーション。自分の身体や脳が他の人とは違う働きをする場合、人々はしばしば偏見を抱く10。持久力や感覚、精神的能力を根本的に拡大できるような強化型ニューロテクノロジーを採用することへの圧力は、社会規範を変え、公平なアクセスに関する問題を提起し、新たな形の差別を生み出す可能性がある。

さらに、オーグメンテーションの軍拡競争も容易に想像できる。近年、DARPAやUS Intelligence Advanced Research Projects Activityのスタッフが、兵士やアナリストに強化された精神的能力(「超知的エージェント」)を提供する計画について議論しているのを耳にしたことがある。これらは、戦闘状況やデータストリームの解読をより良くするために使用されるでしょう。

どの技術が人間の生命に悪影響を及ぼすかを予測することがいかに難しいかを考えると、引かれる線は必然的に曖昧なものになるでしょう。しかし私たちは、ヒトの遺伝子編集で行われているように、国際レベルおよび国家レベルで、実施可能な拡張神経技術に制限を設け、それらを使用できるコンテキストを定義するガイドラインが確立されることを強く求めます。

プライバシーと個性は、ある文化圏では他の文化圏よりも高く評価されます。したがって、規制の決定は、普遍的な権利とグローバルなガイドラインを尊重しつつ、文化特有の文脈の中で行われなければならない。さらに、特定の技術を全面的に禁止することは、単にその技術を地下に追いやることになりかねないため、特定の法律や規制を確立するための取り組みには、綿密で開かれた議論を可能にする組織的なフォーラムが必要です。

" ある種の技術を全面的に禁止することは、単にそれを地下に押しやることになりかねない。"

このような努力は、国際的なコンセンサスを構築し、国家レベルの科学的意思決定に世論を取り入れた多くの前例に基づくべきである11。例えば、第一次世界大戦後、1925年の会議により、化学兵器および生物兵器の使用を禁止する条約であるジュネーブ議定書が作成され、批准されるに至った。同様に、第二次世界大戦後、原子力の平和利用や核兵器の拡散を抑制するために、国連原子力委員会が設立された。

特に、軍事目的での神経技術の利用を厳しく規制するよう勧告する。明白な理由から、モラトリアムは、国連が主導する委員会が主催する世界規模のものでなければならない。このような委員会や類似の取り組みがすべての強化問題を解決するわけではないかもしれないが、自制の必要性を公に認め、技術の開発と実施に広く意見を述べるための利用可能な最善のモデルを提供するものである。



偏見

科学的または技術的な決定が、システム的、構造的または社会的な概念や規範の狭いセットに基づいて行われる場合、結果として生じる技術は、特定のグループを優遇し、他のグループを害する可能性があります。2015年の研究12では、Googleの広告アルゴリズムによって女性ユーザーに表示された求人情報は、男性に表示されたものよりも賃金が低いことが判明しました。同様に、ProPublicaの調査により、米国の法執行機関が使用するアルゴリズムが、同様の犯罪歴を持つ白人の被告人よりも黒人の被告人の方が再犯する可能性が高いと誤って予測していることが昨年明らかになりました( go.nature.com/29aznyw )。このようなバイアスは、神経デバイスに組み込まれる可能性がある。実際、この種の事例を調査した研究者たちは、数学的に厳密な方法で公平性を定義することは非常に困難であることを明らかにしている(go.nature.com/2ztfjt9)。

技術における偏りに対抗するための実用的な手段は、すでに産学で議論されています。このような公の場での議論や討論は、問題となるバイアスの定義や、より一般的な正常性の定義を形成するために必要である。

私たちは、機械学習において、バイアスへの対策が規範となることを提唱する。また、技術開発の初期段階からバイアスに対処することを確実にするもう一つの方法として、確率的ユーザーグループ(特に既に疎外されている人々)がアルゴリズムやデバイスの設計に意見を述べることを推奨します。



責任あるニューロエンジニアリング

これらの提言の多くは、産業界や学術界の研究者が、このような変化をもたらすことができる機器やシステムを考案する責任を負うことを求めています。その際、責任あるイノベーションのために既に開発されたフレームワークを利用することができます。

例えば、英国の工学・物理科学研究評議会は、上記のガイドラインに加えて、「社会的に望ましく、公共の利益のために行われる科学とイノベーションの...機会を促進する」方法で、イノベーターに「予測、考察、関与、行動」を奨励する枠組みを提供している。AIにおける様々な取り組みの中で、IEEE標準化協会は2016年4月に、すべてのAIや自律システムのプロセス設計に倫理を埋め込むことを目的としたグローバル倫理イニシアチブを創設しました。

歴史を振り返ると、企業の世界では利益追求が社会的責任に優先することが多い。また、個人レベルでは、ほとんどの技術者が人類のためになることを目指したとしても、準備不足で複雑な倫理のジレンマに直面することがあります。私たちは、産業界や学術界に倫理的な行動規範を埋め込むことで、考え方を変え、機器の生産者の能力を向上させることができると考えています。

そのための第一歩は、エンジニアや技術開発者、学術研究者の研修生が、企業や研究所に入社した際の標準的なトレーニングの一環として、倫理について触れることです。従業員には、社会を破壊するのではなく、建設的に貢献できるような進歩を追求し、戦略を展開する方法について、より深く考えるよう指導することができます。

このようなアプローチは、基本的に医学の世界と同じです。医学生は、患者の守秘義務、非加害、受益と正義の義務について教えられ、専門職の最高水準を守るためにヒポクラテスの誓いを立てることが要求される。

ニューロテクノロジーの臨床的および社会的な利点は膨大です。それを享受するために、私たちは、人間の最良の部分を尊重し、保護し、可能にする方法で、その発展を導かなければなりません。


追記:  プライバシーを守る フェデレーテッド・ラーニング

テクノロジー企業が機械学習を使ってソフトウェアを改善する場合、通常はユーザー情報をサーバーに集め、特定のサービスがどのように利用されているかを分析し、その集計データをもとに新しいアルゴリズムを学習させるという方法をとります。
グーグルの研究者たちは、人工知能の学習方法として、「フェデレーテッド・ラーニング」という代替方法を試みている。これは、データを一元管理することなく、各ユーザーの端末上で学習処理を行うもので、データから集約された教訓(例えば、「weekly」という単語は形容詞にも副詞にも使えるという知識)はグーグルのサーバーに送り返されるが、実際のメールやテキストなどはユーザーの端末に残るという。他のグループも同様のアイデアを研究している。このように、情報システムの設計を工夫することで、ユーザーの個人情報に対する所有権やプライバシーを強化しつつ、そのデータに対して価値ある計算を行うことができるようになるのです。

参考文献


Kay, K. N., Naselaris, T., Prenger, R. J. & Gallant, J. L. Nature 452, 352-355 (2008).

ADS

CAS

論文

Google Scholar


Goering, S. & Yuste, R. Cell 167, 882-885 (2016年).

キャス

記事

Google Scholar


Sellers, E. W., Vaughan, T. M. & Wolpaw, J. R. Amyotrophic Lateral Sclerosis 11, 449-455 (2010).日本学術振興会特別研究員(PD)。

論文

Google Scholar


Ramakrishnan, A. et al. Sci. Rep. 5, 10767 (2015)。

ADS

記事

Google Scholar


Burget, F. et al. Preprint at http://arxiv.org/abs/1707.06633 (2017)。

Hubel, D. H. & Wiesel, T. N. J. Physiol. (Lond.) 160, 106-154 (1962)に記載されています。

キャス

論文

Google Scholar


Giancardo, L., Sánchez-Ferro, A., Butterworth, I., Mendoza, C. S. & Hooker, J. M. Sci. Rep. 5, 9678 (2015).を参照。

ADS

CAS

論文

Google Scholar


Nieto-Reyes, A., Duque, R., Montana, J. L. & Lage, C. Sensors 17, 1679 (2017).を参照。

記事

Google Scholar


Klein, E. et al. Brain-Computer Interfaces 3, 140-148 (2016).

記事

Google Scholar


パレンス、E. Shaping Our Selves: On Technology, Flourishing, and a Habit of Thinking (Oxford Univ. Press, 2014)。

書籍

Google Scholar


キッチャーP. Science in a Democratic Society (Prometheus, 2011).

書籍

Google Scholar


Datta, A., Tschantz, M. C. & Datta, A. Proc. Priv. Enhancing Technol. 2015, 92-112 (2015).

論文

グーグルスカラー




著者情報


所属団体
米国ニューヨーク州ニューヨーク市、コロンビア大学生物科学部教授

ラファエル・ユステ

ワシントン大学(米国・シアトル)哲学科准教授

サラ・ゲーリング

Blaise Agüera y Arcas 米国カリフォルニア州マウンテンビューのGoogle社に在籍。

Blaise Agüera y Arcas(ブレイズ・アグエラ・イ・アルカス

中国科学技術大学(中国・合肥市

Guoqiang Bi

カリフォルニア大学バークレー校(米国

ホセ・M・カルメナ

モナシュ大学(オーストラリア、メルボルン

エイドリアン・カーター

ワイル・コーネル・メディスン(米国・ニューヨーク市

ジョセフ・J・フィン

ニューヨーク大学(米国、ニューヨーク・シティ

フィービー・フリーセン

カリフォルニア大学バークレー校(米国

ジャック・ギャラント

ミシガン大学(米国・アナーバー

ジェーン・E・ハギンズ

ブリティッシュコロンビア大学(カナダ・バンクーバー

ジュディ・イルズ

フライブルク大学メディカルセンター(ドイツ

フィリップ・ケルマイヤー

ワシントン大学(シアトル

イラン・クライン

オレゴンヘルス&ランプ

Eran Klein & Meredith Whittaker

サイエンス大学(米国・ポートランド

エラン・クライン

カーネル(カリフォルニア州ロサンゼルス

アダム・マーブルストーン

マサチューセッツ工科大学メディアラボ(米国・マサチューセッツ州・ケンブリッジ

アダム・マーブルストーン&ジョナサン・ウォルパウ

ハーバード大学(米国マサチューセッツ州ケンブリッジ

クリスティン・ミッチェル

ヘイスティングス・センター、ギャリソン、ニューヨーク、米国

エリック・パレンス

ワシントン大学(米国、シアトル

ミシェル・ファム

ウィスコンシン大学マディソン校(米国、ウィスコンシン州

アラン・ルーベル

生理学研究所(日本、愛知県岡崎市

貞藤憲弘

ワシントン大学(米国・シアトル

ローラ・スペッカー・サリバン

バーアイラン大学(イスラエル、ラマットガン

ミナ・タイチャー

メリーランド大学(米国、メリーランド州、カレッジパーク

デビッド・ワッセルマン

ペンシルバニア大学(米国、ペンシルバニア州、フィラデルフィア

アンナ・ウェクスラー

AI Now、ニューヨーク、アメリカ

メレディス・ウィテカー

国立適応神経技術センター、ニューヨーク州アルバニー市

Jonathan Wolpaw


対応する著者


Rafael YusteまたはSara Goeringにご連絡ください。



権利と許可

https://s100.copyright.com/AppDispatchServlet?title=Four%20ethical%20priorities%20for%20neurotechnologies%20and%20AI&author=Rafael%20Yuste%20et%20al&contentID=10.1038%2F551159a&copyright=Nature%20Publishing%20Group&publication=0028-0836&publicationDate=2017-11-09&publisherName=SpringerNature&orderBeanReset=true

この記事について

Yuste, R., Goering, S., Arcas, B. et al. ニューロテクノロジーとAIに関する4つの倫理的優先事項. ネイチャー 551, 159-163 (2017)。https://doi.org/10.1038/551159a。

引用のダウンロード
https://citation-needed.springer.com/v2/references/10.1038/551159a?format=refman&flavour=citation

発行日
2017年11月09日発行


関連記事サイト

当記事収録マガジン

この記事が気に入ったらサポートをしてみませんか?