見出し画像

次世代AIにも繋がるグローバル・ネットワーク・ワークスペース理論

前回の続きです。意識の解明で期待されているもう1つの理論の解説です。

元記事で例示された「GNWT(グローバル・ネットワーク・ワークスペース理論)」について補足します。

これは神経科学者スタニスラス・ドゥアンヌが提唱させたものです。(厳密には、近い概念を提唱した人も過去いたので、発展させた方)

前回の「IIT(意識の統合情報理論)」と共通項があり、いずれも「情報」を基本単位に置いたことです。

GNWTをざっくりいえば、無意識で処理される情報は通常の「ワークスペース」にあります。
ただし、意識の度合いが高くなる(注意する)と、「グローバル・ワークスペース」に入ります。

ではこのグローバルワークスペースがどのように構成されているかというと、前頭葉・頭頂葉をまたがる神経集団で、自由に様々な脳内に局在する部位にアクセスすることができます。

ここで前回のIITとの違いを強調すると、
意識は脳全体での情報共有状態である
という主張です。

ただ、公開情報で見る限りはまだ定量的な式までにはゆきつけていないようです。1つだけ、参考にした書籍を紹介します。(一般向けですが結構難解です)

実は、この考え方をAIに適用しようとする研究グループもあります。

今流行のChatGPTをはじめとしたLLM(大規模言語モデル)は、言ってしまえば巨大な一枚岩の学習モデルです。(細かくはそれにファインチューニングを施して補正します)

この形態だと、質問の回答になりそうな情報をある程度しらみつぶしに探す必要があります。それを飛躍的に効率化したのが2017年に発表されたTransformerの注意機構でした。

ただ、それをもとに作ったChatGPTでも、数学の問題を出しても間違うことがあります。(あくまで個人的な経験です)

そこで、LLMを用途ごとにモジュール化することで適時呼び出すようなAIを構想している研究者たちもいます。

例えば、「13×21=」という問いを受けたAIは、2桁の掛け算に強いAIのサブモジュールに渡して処理させて返します。
そのモジュール間の司令塔を司るのがまさに上記のグローバルワークスペースという位置づけです。

こういった研究は、LLMに次ぐ新しいAIの可能性を示しています。
それが意識の研究で編み出された機構を参考にしているのは、なんとなく示唆的です。

実際、過去にも触れたとおり、脳の動きを観測することでLLM(Transformer)っぽい挙動は提示されています。

元々のAIは、知性、つまりその源流にあたる脳の解明を志したこともあり、それが人工的な貯水池にいつしかシフトしました。

改めて、AIの母にあたる脳への回帰が行われているのかもしれません。


<参考>

この記事が気に入ったらサポートをしてみませんか?