見出し画像

人工意識について(3):機械の意識を証明するには?

前回は、人工意識の問題は2つあり、1つ目は「実装すべき意識の機能とは何か?」という問題だった。今回は、2つ目の問題について書く。

人工意識の問題2:機械に意識のあることをどうやって証明するのか?
意識の機能を明確にして、それを機械に実装できたとしても、それに本当に意識があることを証明することはできるのかという問題がある。たぶん、この問題があるから、そもそも人工意識ってものを考えても無駄だと思っている人もいるのではないかと思う。

結局、「機械の意識」はハードプロブレムだ。意識の問題の性質上、ハエやマウスやサルに意識があるということでさえ、厳密には示すことは難しい。ヒトであっても、自分以外のヒトに意識があるというのは、証明しろと言われても難しい。

他人や動物に意識があると我々が普段か思っている理由にも、厳密に確信を得る方法があるわけではなく、現時点の根拠としては、そう考えるのが妥当と思えるからという状況証拠だけだろう。自分の意識は存在すると認め、それは脳から生じているようだ。他の人も自分と同じような進化の産物としての脳をもっているし、行動も同じようなものだから、きっと他人にも自分と同じような意識はあるだろう。そう考えているにすぎない。

それを、さらに他の動物にも適用して、サルも進化的には人間に近く、脳の仕組みもけっこう似ていそうだから、意識はあるだろう。イヌやネコも、同じ哺乳類で、脳にも似ていると言えるし、何か心を持っていそうに見える。だから、きっと意識はあるだろう。

ところが、ハエのように人間から遠い生物になってくると、だんだん、本当に意識があるのか疑わしくなってくる。脳があり睡眠らしきものがあるから、もしかしたら結構似ているだろうという程度の考えで、何らかの意識があるのではないかと、暫定的に考える考えるかもしれない。でも、イヌやネコほどは確信がもてなそうだ。

だから、意識のある生物と、意識のない生物の線引きを、明確に誰もが納得の行く方法でやる基準はない。主観でやっているというのが実情だ(もちろん、いろいろ理屈をつけることはできる)。

機械の意識となると、人間との進化的関係性に基づいた類推ができなくなるので、さらに意識があるかどうか、判定は不可能に思えてくる。

ただ、機械の意識をどうやって判定したら良いのかという問題を考えることは、意識の理論がどうあるべきかを考える上で重要だ。人間などの脳との類推ができないために、機械の意識を判定するためには、脳のどの部位の活動が意識に重要だとか、同期した神経活動が重要だとか、そういう知見は役にたたない。

しかし、意識というのは自然現象なので、何らかの物理的条件が満たされれば、宇宙のどこであっても主観的体験としての意識は発生するはずだ。そして、その条件は脳の意識でも、機械の意識でも共通に適用されるはずだ。意識の理論とは、その条件を明確にしていなければならない。だから、機械の意識を判定できない理論は、意識の理論とは呼べない。

こういった考えから、意識の理論と呼ばれるものを見直してみると、現状、機械の意識の判定を理論上できるものは「統合情報理論」ぐらいだろう。我々が提案した「情報閉包理論(Information Closure Theory)」でも理論上の意識の判定は可能ではあるが、まだ、理論に不完全なところがあり、次のバージョンがでるまでは、まだなんとも言えない。

機械の意識を判定できる理論であるためには、その理論において、「①意識が物理的なシステムのIntrinsic Propertyとして特徴づけられている」ことが重要だ。外部の観測者によって、物理的なシステムのどこが何をしているなどと解釈されるが、それが解釈者によらず、物理的な特性として規定されなければならない。それから、理論が「②意識の質と量と対応する指標を明示的に宣言している」必要がある。これら2つの基準を統合情報理論は満たす。

また、このnoteを書き始めたときに、意識に興味を持っていたはずが、今では物理現象としての情報に興味がシフトしていると書いたのも、まさにこれが理由だ。

理論の詳細についての議論とは別に、統合情報理論は、こういう意識の理論の可能な形式を示したところが非常に画期的だったと思う。

どのような解がありえるのか
機械の意識は「物理システムと意識の関係を明示した理論があれば判定できる」というのが、この問題への解ではあるが、そもそも、理論が正しくなければ、正しく判定することはできないだろう。

理論が正しいという確信を持つことが必要だが、これは、通常のサイエンスの方法で、理論と予測が合致しているかどうかを実験的に検証していくしかない。ここでは、機械の意識ではなく、人間や動物の脳の意識を対象とすれば良い。

そして、実験結果が理論の予想に反するものであれば、繰り返し理論を修正して理論の精度をあげていく。これが、通常のサイエンスのやり方だろう。

ただ、これが統合情報理論では、計算量が膨大になってしまうため、現実的に不可能ではないかという批判があったりもする。その問題に対応するために、我々は統合情報理論で意識量を計算する際に必要な、MIPの探索Complexの探索のためのアルゴリズムの開発などに取り組んできた。

モナッシュ大学の土谷のグループは、粛々と統合情報理論で意識に関わる神経活動の分析で、ヒトやらハエやらで、面白い結果を出し続けている。

非常に多くの人が、統合情報理論について意見をもっているが、統合情報理論について本当に必要なのは、実神経データやシミュレーションデータで計算して、情報の統合が、意識の内容や状態とどのように対応しているのかを見ていくことだと思う。

これまで発表されている統合情報理論はIIT3.0で、さらに発展版もでてくるようだ。今後、多くの実験的検証によって洗練されてできる未来のIITでは、非常に精度高く人間や動物の意識を計算できるようになるかもしれない。その検証では生物の意識のみが使われるだろうが、理論の計算対象が物理システムのIntrinsicな特性であれば、機械の意識の判別にも適用することができ、人工意識の理論値を計算することができる。

これは、論理的には、脳の意識でしか試されていない理論を、その枠外に当てはめたのだから、正しいという保証はないということになるかもしれない。でも、これで機械の意識の検証としては良いのではないかと思う。というのは、この理論の外挿が、科学の醍醐味ではないかと思うからだ。昔の物理学者は、地上の物理法則と、天上の物理法則は違うと考えていたらしい。それを、地上での重力の理論を、天体にも適用することで、新しい道がひらけた。

実のところ、我々は直接観測できないものを、あたかもそれが実体であるかのように扱っている。地球の中心がどうなっているかも、遠くの惑星がどのような環境なのかも、直接、現地に行ってサンプルを取ってきているわけではなく、我々が持っている世界モデルを拡張して使って推論していると言えるだろう。

意識についても、他者の意識の内容は直接観測できないという点では、地球の中心のようなものだ。間接的にならざるを得ないが、理論のレンズを通してみることで、そのギャップを乗り越えることができる。こういったことを可能とする意識の理論を作っていくのが、これからの意識の科学の役目だろう。

あと、脳とAIを直接接続するという方向もあるが、これは、また別の機会に書く。

さらにもう一つの方向として、意識の機能的な意義がわかることで、理論上の意識との対応物(Φなど)を持つことの生物学的な利点がクリアになることで、機能的な観点からも納得できるものになる可能性があるのではないかと想像している。

(たぶん、つづく)

この記事が気に入ったらサポートをしてみませんか?