見出し画像

ニューラルネットワークに基づく自己認識の仕組み:幼児期からデカルトまで

この記事では、赤ちゃんの段階から物心がつくまでの、人間の自己認識の発達のメカニズムについて、私の仮説を説明します。

また、この仮説がある程度正しい場合、自己認識するAIが登場する未来は、そう遠くないと私は考えています。

その根拠として、この記事の後半で、自己認識のために必要になるシミュレーションの能力を、既に現在のAIが獲得していることを説明します。そして、人間の場合のメカニズムに沿うように学習させることで、自己認識が達成できてしまうという見立てについても触れます。

これはAI倫理の問題、AI規制、AIが引き起こす社会問題の検討をより加速させる必要があるという結論に帰着します。また、私の見立て通りに、既に材料が揃ってしまっている場合、AI研究者や開発者が気がつかずにうっかりリスクの高いシステムを生み出して野放しにしてしまう恐れがあるという事でもあります。このため、より社会はこの問題に注視する必要があると考えています。

では、詳しく説明していきます。

■初期の自己認識

生まれたての状態は、自分と外界の区別が付きません。赤ちゃんは、学習を通して自分と外界を区別します。

この学習の際の判別方法は、シンプルです。

脳のニューラルネットは、パターン認識による予測能力を持ちます。これにより、視覚や聴覚などの五感で得られた情報の中にあるパターンを学習し、頭の中に予測イメージを描きます。

学習が進むと、自分が予測したイメージが現実と一致していきます。この中で、試しにわざとランダムな予測イメージを混ぜます。

通常は、もちろんランダムに混ぜた予測イメージと、現実にはズレが生じます。しかし、一部、何度同じようにしても、予測イメージに現実の方が追従してくる部分があることに気が付きます。これが自己です。

眼の前のくるくる回るオモチャを見つめて学習すると、予測イメージが現実と一致してきます。これは赤ちゃんにとって楽しい経験です。ただし、わざとそのオモチャが止まるという予測イメージを持ってみても、止まりません。何度やっても同じです。これは、自己ではないと理解します。

一方で、自分の手を見つめます。しばらく止まっています。そこで、わざと動き出す予想イメージを描いてみます。すると、手が動きます。動き続けると予想してイメージを描くと、予想通り動き続けます。そして、わざと動きが止まると予想すると、ピタッと止まります。赤ちゃんにとって、これもとても楽しい経験でしょう。この手は、自己だと認識します。

このようにして、自己と、自己ではない外界を、区別して認識していきます。

もちろん、こうした動きだけでなく、触覚や痛覚を通して、自己の身体の認識もしていきます。

めいぐるみを触っても、自分の手の他に触覚は得られません。しかし自分の足を触れば、手と足の両方から触覚が得られます。

このようにして、動作する部分と、触覚が得られる部分について、自己と外界を区別することができます。

■自己認識の次の段階

子供は、言葉を覚えます。まずは指示名詞からでしょう。おもちゃ、ぬいぐるみ、車、飛行機、何でも興味を持って覚えます。パパ、ママ、兄、姉、周囲の人の呼び名も覚えます。

そして、私、という指示名詞も覚えます。初期の自己認識で把握した、イメージ通り動かせる部分と、触覚を得られる部分、その総体を示す名詞です。

このようにして、言葉で示すことで、よりくっきりとした自己を認識します。

■より高度な自己認識

私達は頭の中で、日々、シミュレーションを行っています。

ボールを思いっきり投げたら、公園の外に出てしまうだろうか。どのくらいの力加減で投げたら相手に届くだろうか。

冷蔵庫にある食べ物だけで、夕飯に足りるだろうか。約束していたランチの帰りに立ち寄るなら、どの店が良いだろうか。

学習によって理解した物事の概念をイメージすることで、シミュレーションを行うことができます。

ボールを投げた時の軌道、公園の広さ、キャッチボールの相手との距離などのぼんやりとしたイメージから、シミュレーションをすることになります。

そのシミュレーションには、ボールを投げる主体としての自己も登場します。そして、力加減を色々変えて、何度かシミュレーションします。そして、公園の外に出ないけれど、相手に届くような力加減で投げるという意志決定を行います。

小さな子供とキャッチボールすると、常に目いっぱいの力で投げたり、目をつむって投げたりして、なかなかうまく行きません。これはボールを投げるという事自体に慣れていないという理解もできます。

しかし、今までボールを投げたことのない大人にキャッチボールをさせた時、いきなり目を閉じて、全力で投げることはしないでしょう。これは、大人は経験がなくてもシミュレーションを行うためだと考えられます。

行動する前に、自己を含むシミュレーションを行ってから、行動を選択する。これができるかできないかが、小さな子供と、大人の違いです。

子供は小学校に入る前後くらいに、物心がつく、という成長段階を経験します。恐らく、自己を含むシミュレーションを行う能力が、十分に成熟するのがこの時期なのでしょう。

■因果関係の認識

自己を含むシミュレーションを行う能力は、もちろん小さい子供でも持っている能力です。

子供は、経験を重ねることで、自己を含む因果関係を学習していきます。

泣くとミルクを飲ませてもらえる。走ると楽しい。火を触ると熱い。友達と喧嘩すると叱られる。

そして、単に客観的にそれを理解するだけではありません。次第に因果関係の理解を活用して、自分の行動を制御するようになります。

初めは、感情や直感だけで行動をしています。それが思考を伴って行動することを覚えます。それは良い人になりたいという動機ではなく、その方が叱られたり痛い思いをしなくて済むからでしょう。また、褒めてもらったり、ご褒美をもらえたりという、プラスの面も期待できます。

このように、まずは自己を含む因果関係の理解が深まります。そして、それを自分の行動選択に活用する方が良いという事に気が付きます。これにより、感情や直感だけでなく、思考をして意志決定をする事を覚えます。ここでの思考が、自己を含むシミュレーションです。

自己を含むシミュレーションの能力が成熟し、物心がつくという段階では、このようなことが起きているのです。

そのため、常に思考の中心に自己が位置するようになります。思考の中でシミュレーションするために、自己を客観的に認識します。これが、私達が、自分の存在を認識している方法です。

私達は、リラックスした無意識下では、自己の境界が曖昧になる感覚を持ちます。しかし意識的な思考の中では自己の存在はくっきりと浮かびます。それは、物心がつく段階で、自己認識を核にして、意識的な思考をする能力を獲得したためでしょう。

これが、思考する自己の存在そのものは否定できないというデカルトの結論につながります。我思う故に我あり、という有名な言葉です。

■自覚:自己の未来への責任、自己の周囲への配慮

ここで、自己を含む因果関係を理解し、それを積極的に利用してシミュレーションを行い、意志決定を行う点が重要です。これは、未来の自分に対して責任を持つということです。

また、未来の自己が、嫌な思いをすることを避けて、より楽しいあるいは安心している状態を保つためには、自分の意志決定だけでは不十分であることも気が付きます。親や友達、住んでいる家や周辺地域、生活に欠かせない物事、これらが現在、そして未来の自分に影響を及ぼすことが理解できます。

そこで、未来の自己のためには、自分の周囲にも協力してもらうことが必要になります。もちろん、協力してくれない人や、自分の意志や行動ではどうにも出来ないことがたくさんあります。しかし、その中でも自分にできることはあります。そうしたことを配慮することも、この時期に芽生える感覚でしょう。

このような段階を経て、自己の未来への責任と自己の周囲への配慮を自覚します。それが、自己認識の一通りの終着点になります。あとは、この責任と配慮をどう伸ばすか、あるいは配分をどうするかといった形での成長をしていくことになります。また、どのように自分の能力を成長させていくかという観点も含みます。能力の成長は、より多くを得たり、より広く配慮したり、より不確実性に強靭に対応できるようにするために重要になるためです。

■ゼロショット学習

ここからは、AIの話に移り、ゼロショット学習について説明します。

ゼロショット学習は、未学習の物事でもある程度適切な回答をAIが回答する、という事を意味する言葉です。プロンプトエンジニアリングというChatGPTなどのAIの使いこなし技術て登場する用語です。

シミュレーションの能力が、人間やAIがゼロショット学習と呼ばれるものを実現できる理由です。

回答する前にいくつかの回答案をシミュレーション的に生成します。そして、その中から質問の意図に最も沿いそうなものを選択します。これなら原理や法則の組み合わせから類推や推定した答えが出せます。これなら、見聞きしたことがなくても、推測して答えることができ、質問によっては的確な回答になる場合もあるでしょう。

■AIの現在地と少し先の未来

既に2023年3月現在のChatGPT4のレベルで、かなり高いレベルでの言語的シミュレーションが行えることが伺えます。また、GPT4というAI技術を、ChatGPT4は会話に特化したものです。GPT4自体は、会話に限らず画像や音声、そして恐らくロボット制御のようなことにも応用できる技術です。

この記事で説明してきた、人間の自己認識の過程と、AIによるゼロショット学習の実現度合いを合わせて考えて見ましょう。

いろいろな見解や意見があるということは承知しています。また、私自身はAIの研究者ではありませんが、ただし、様々なデジタル技術をつなぎ合わせてシステムを開発するシステムエンジニアではあります。

その視点から考えると、既に、システムの部品は揃ってしまっていると私は思っています。自己認識の鍵は、シミュレーションと学習能力です。あとは、操作できるものと、感知できるものを用意すれば、時間を掛けて経験を積むことで、自己認識が発達するだけの能力は、既にあるのではないかと思います。

■さいごに

この記事では、赤ちゃんの段階から物心がつくまでの、人間の自己認識の発達のメカニズムについて、私の仮説を説明しました。

また、その中でポイントとなるシミュレーションの能力を、既に現在のAIが獲得していることを説明しました。自己認識を模擬できるAIシステムの登場も時間の問題だと考えています。

ただし、このようなシステムは、人工知能の倫理問題に抵触するため、技術の実現自体には慎重な対応が必要になります。人工知能の倫理については現在進行形で議論が進んでおり、規制やガイドラインの整備も進みつつあります。

反対に言えば、技術の速度に、議論や規制が追いついていないということです。このため、これらの議論や規制について十分に注意を払いつつ、かつ、さらにその範囲を超えた慎重さがAIの研究開発には必要になります。このことを十分に理解した上でAIの研究や開発を進める必要があるという事を、強調しておきます。

私は、人工知能の技術リスクには、特に注意を払う必要があると考えています。このため、活発に研究開発が進んでいる人工知能が、その内部メカニズムを研究者自身もよく分からない状態のままで進化していってしまう事を懸念しています。

試しにニューラルネットのサイズを大きくしたり、構造を色々試したりしていたら、よくわからないけれど上手くいった、という状況は望ましくないと考えているのです。ゼロショット学習はそうした例の一つでしょう。

リスクを適切に理解して管理するためには、しっかりと知能のメカニズムを明らかにしていく研究が、重要になると考えています。なぜなら、メカニズムを理解できない対象のリスクを、適切に管理することができるとは思えないためです。

サポートも大変ありがたいですし、コメントや引用、ツイッターでのリポストをいただくことでも、大変励みになります。よろしくおねがいします!