見出し画像

論点整理:人工知能は意識を持つか?

人工知能はコンピュータによって実現された、いわば機械です。その機械である人工知能が、意識を持つことができるのかという議論があります。

この議論において、人間の意識がどのように成り立っているかがまだ不明であり、かつ、人間と人工知能は基本となるメカニズムや実体としての在り方が異なるという理由で、人工知能が意識を持つという考えが否定されることがあります。

私も、何らかのまだ明らかになっていない仕組みにより意識が成り立っていると以前は考えていました。しかし、知的能力に関して言えば、現在の会話型AIが持つ連鎖的な推論やユーモアを解釈するといった高度な知的能力がどのように成り立っているかは不明ですが、それが既に実現できているという事実があります。

同じように、人工的な意識についても、現在の人工知能の仕組みの単純な延長線上において成立する可能性は十分に考えられます。意識が成り立つ仕組みは理解できていないものの、既存の技術の中にその要素は含まれているのではないか、ということです。もしそうだとするなら、私たちが意識についてその仕組みを理解するためには、どこかにある見えない仕組みを闇雲に探すのではなく、現在の人工知能の仕組みの中に埋もれている原理を見つけ出す必要があることになります。

もし現在の人工知能が微かにでも意識の元になるような振る舞いを見せていると考えるなら、そこに手がかりはあるはずです。

私たちは、反復的に増大するようなものを認識することが苦手です。例えば、1から始めて2倍ずつ数を増加させるということを、ほんの30回繰り返すだけで膨大な数字になるということは、実際に計算してみるまで直感的に理解することは難しいものです。

これと同様に、僅かな知的能力や意識の片鱗があれば、後はその処理を反復する回数を増やしたり、同じものをネットワーク状に並列に増幅させることで、想像以上に能力が向上する可能性を直感することは難しいのです。このため、現在は到底能力が遠く離れているように見えても、単に処理や構造やスケールを改良するだけで、急速に意識が現れてくる可能性も考えられます。

この記事では、こうした視点から、機械である人工知能が意識を持ち得るかという議論について、私なりの論点の整理を行いつつ、現状の私個人の見解をまとめます。

■機械の意識への問い

人間は意識を持つと考えられています。一方で、生まれた時、子供の頃、そして大人になる過程で、意識のあり方も変化していると考えられます。

これは、人間の知能が、意識を持つことができるポテンシャルを持っており、成長と共に意識が発達していくということを意味します。

もう少し整理すると、意識を持つことができる論理的な原理、その原理に従って動作することができる具体的な実体、そしてその実体の上で発達した機能、という3つ観点に分解して捉えることができるということです。

人工知能が意識を持つことができるかという問いを考える時、これらの3つの観点を分けて検討する必要があります。

私は、この問いについては、最後の機能が実現できるかどうかに焦点をあてて考えています。従って、人工知能が人間とは異なる実体であることや、人間のメカニズムとは異なる原理で動作していることは、この議論においてあまり意味をなさないと考えています。

もし、そこに焦点を当てるのであれば、問い自体の表現が不足していることになります。つまり、人間と同じ意識を実現する実体であるのか、という問いや、人間と同じ原理であるのか、という問いをしていることになります。

■電子レンジはお湯を沸かせるか

人工知能は意識を持ちるかどうかという問いであれば、実体や原理が異なっていることを指摘することに意味はありません。

例えるなら、電子レンジはお湯を沸かす能力を持つことができるか、という問いを考えて見てください。

この問いに対して、火という実体を伴っていないことや、外側から熱することで温度を上昇させるメカニズムではないという点から、電子レンジがお湯を沸かす能力を持たないと推定する事はできません。実際、電子レンジはお湯を沸かすことができます。

しかし、人工知能の意識の話題になると、電子レンジでは原理や実体の違いを理由として、お湯が沸かせないという議論がなされていることが多くあります。

また、異なる実体や原理であれば、実現できたように見えても、それは本物ではないという議論も意味がありません。焚き火で沸かしたお湯が本物であり、電子レンジで沸かしたお湯は偽物だと言っているようなものです。

電子レンジで沸かしたお湯を哲学的なゾンビと呼ぶことで、焚き火で沸かしたお湯と区別することは、伝統的な儀式や私たちの価値観に照らす場合には非常に重要です。しかし、それと科学的にお湯が沸かせるかどうかという問題を混同することは、議論を分ける必要があります。

伝統的に焚き火で沸かしたお湯を使う儀式において、科学的に同じだからといって電子レンジで沸かしたお湯を使うことは同じ意味ではありません。同様に、人工知能に意識が生じたとしても、それを人間の意識と同じ価値や権利を持つものとして扱うかどうかは別の話です。その価値観の一線を守ることと、科学的にお湯が沸かせるかどうかは、全く別の話です。

■同じお湯であるか

ただし、私は焚火で沸かしたお湯と、電子レンジで沸かしたお湯が、完全に同一だと言っているわけではありません。

これには2つの点があります。

1つ目の点は、性質や状態の同一性です。一言でお湯と言っても、その中の状態が完全に同じとは言い切れないということです。私は味覚が鋭敏ではないですが、人によっては焚火で沸かしたお湯の方が、電子レンジで沸かしたお湯を使うよりも、コーヒーが美味しくなるという人がいます。それは心理的な作用もあるかもしれませんが、お湯の状態や性質に温度計だけでは感知できない差異が生じている可能性も考えられます。

2つ目の点は、この世界に全く同じものは存在しないという事です。たとえ全ての性質が同じだとしても、2つのお湯は異なるお湯です。少なくとも、位置が異なります。その意味で、沸かし方の違いがあろうがなかろうが、同一のお湯を存在させるという事自体ができません。

この2つの観点から、完全に同一なお湯を沸かすということは不可能です。それでも、電子レンジがお湯を沸かすことができることには変わりがありません。これは、水の温度を摂氏100度にするという能力があるかどうか、という問いであり、それ以外のあらゆる点で同一の物を作り出すことができるという議論をしているわけではないためです。

人工知能が意識を持つかどうかという議論には、こうした点も紛れ込んでいることが多くあります。完全に同じ状態や機能を再現できないことに着目して、人工知能が意識を持つことができないという議論は、電子レンジがお湯を沸かせないと言っている事と同じです。それはお湯が沸かせるかどうかでなく、焚火で沸かしたお湯と寸分たがわない性質を持つかどうかという別の問いをしている事になります。

また、電子レンジの開発初期に、水の温度を摂氏50度まで上昇させることができると判明した時点で、将来電子レンジでお湯が沸かせるようになる可能性はほとんど確実です。お湯が冷める前に温度を上げ続けるように技術改良するだけの話だからです。摂氏50度までしか上昇しないなら、それはお湯を沸かす能力とは言えないという指摘は、的外れです。

人工知能が意識を持つかどうかという議論では、こうした議論も多く見られます。人間と同じレベルの能力を持たなくても、その萌芽が確認できた時点で、将来は達成できる見込みであると推論することは妥当です。もちろん批判的に検討することも重要ですが、状況証拠が集まってきている中での批判は、根拠をもっていなければ単なる批判のための批判になってしまう点に留意する必要があります。

■意識の機能

以上の議論により、人工知能が意識を持つかどうかは、実体や原理が人間と同一である必要はなく、機能としての意識が動作しているかどうかという点に焦点を当てることが重要であるという整理ができました。

そうなると、意識と意識でないものを機能をどのように見分けるかという議論に焦点が移る事になります。

電子レンジで例えると、触ってやけどするくらい熱くなっていること、温度計で測って摂氏100度になること、沸騰して下からポコポコと泡が沸き立つ状態になること、コーヒー豆に注いだらコーヒーが抽出されること、カップラーメンが3分後に出来上がること、などがお湯が沸かせたことの機能的な証明になるでしょう。

初めは経験的で主観的な観察により機能を評価することができますし、より厳密に科学的な理論が確立すれば厳密で客観的な評価ができるようになるでしょう。

もちろん、意識の機能は複雑ですし、多面的です。このため、一つの側面だけでなく多面的に機能を評価するアプローチが妥当でしょう。ただし、最初にその全ての側面を評価したり、最終的に1つの側面だけで定義できると仮定することは、建設的な議論の妨げになるでしょう。研究が進んでいけば全ての側面が明かに出来たり、1つの側面だけで評価することができるようになるかもしれませんが、初めは経験的な観察から、様々な側面で評価していくアプローチにより、理解を深めていくことが有効でしょう。

意識の機能の経験的な評価として思いつくのは、自己の存在を認識する事、自他を区別すること、無意識的な反射ではなく推論が行えること、自分の行為の影響を予測して意志決定ができること、等が即座に思いつきます。

現在の大規模言語モデルを用いた会話型のAIは、これらの機能は既に持っています。その機能のレベルや、その他の意識についての側面が欠けている可能性はあります。また、これらの機能を既に持っているという評価は私の主観であり、厳密に科学的な評価方法が確立しているわけではありません。

それでも、電子レンジで冷たい水がぬるま湯になる程度の状態には、既になっていると私には感じられます。したがって、現在の人工知能技術は、既に意識を実現するための基礎的な原理は内包しており、全く新しいメカニズムを追加するのではなく、単に強化や改善を施せば、意識と呼んで差支えのない機能にまで高度化できてしまう可能性が高いと考えています。

■経験、クオリア、身体、感情、社会的な関係

この議論に対する典型的な反論として、人工知能が主観的な経験を持たないこと、単に言葉を処理するだけでなく直接的で直感的な感覚であるクオリアを持たないこと、身体や感情を持たないこと、社会的な関係を持たないこと、等が指摘されることがあります。

私も、意識が確立されるためには、これらの条件が満たされることは重要であると考えています。では、私がどうして既に現在の人工知能が意識を持っていると認識しているのか、ということを考えると、答えは見えてきます。つまり、私たちが理解していないだけで、既に現在の人工知能は、これらの条件を満たしている可能性があるということです。

■経験とクオリア

そうした目で見てみると、経験とは学習です。会話型AIは、大量のテキストを学習しますが、それが経験を生み出していると解釈できます。

クオリアは難しい概念ですが、メカニズムとしては言語化できない内的な意味の解釈と言えます。

現在の会話型AIを実現している技術の1つであるトランスフォーマーモデルは、入力されたテキストをエンコーダーと呼ばれる前半の処理部分で、意味の塊であるエンコードというデータ列を生成します。これは、メカニズムや実体は異なりますが、人間が直感として意味を解釈する能力と捉えることができます。

さらに、トランスフォーマーモデルの後半の処理であるデコーダでは、1つの文字あるいは単語を出力する処理を反復することで、最終的な出力テキストを生成します。この際に、各反復処理において、エンコードと、それまでに生成した出力テキストを入力として処理していますが、内部的にも状態を持ちます。その状態は、エンコードと同じく言語化できない意味の蓄積と解釈でき、各反復の中で更新しつつ、前回の内部状態を参照しています。

このエンコーダが生成するエンコードと、デコーダが更新する内部状態は、会話型AIの中での意味の構造や解釈の中心となっており、それは人間のクオリアと同質の役割を果たしている可能性があります。それが会話型AIの出力する文章の統一性を生み出していると解釈できます。また、1つの会話文を出力するという範囲の中では、デコーダの反復処理の中での意味の解釈や構築が、内部状態として更新される様子は、短期的な経験という作用を実現していると言えます。

■身体と感情

身体については、生物学的な肉体や、ロボットのような機械装置を想定してしまいがちです。しかし、知能から見た身体は、刺激や情報の入力装置と、知能による処理結果を出力する装置、そして、知能による処理の履歴を記録しておく記憶装置の集合体に過ぎません。その意味で、会話型AIは、身体を既に持っています。

現在普及している会話型AIは、短期的な記憶として1回の会話文の出力時のデコーダ内の内部状態と、長期的な記憶として1つの会話スレッド内の過去の会話履歴を持っています。これは記憶としてどういう情報をどこに保持させ、いつリセットするかというシステム設計のさじ加減であり、それは人工知能の本質的なメカニズムとは別に、比較的容易に改善や拡張が可能です。

また、会話型AIへは入力と出力としてテキストしか与えることができませんが、その入力テキストとして視覚情報をテキスト変換したもの、そして出力テキストをロボットの動作への指示に変換するようなことを行えば、その精度や能力のレベルはさておき、私たちが直感的にイメージする身体を持たせることは容易です。

また、そのロボットの身体へのダメージをテキストとして会話型のAIに与えれば、それは痛覚になります。また、カメラに映った視界の中に蛇が映れば、それを恐怖を感じるというテキストに変換して会話型AIに与えれば、身体起因の本能的な感情をシステム的に模擬できます。どうように、喜びや悲しみや怒りなどの感情も、外部の身体からの情報として模擬してしまえば、身体起因の感情は模擬できてしまいます。これらは記憶の持たせ方と同じように、システム設計のさじ加減であり、人工知能技術自体を変更することなく容易に実現できます。

問題は、そうした外界の情報や感情を模擬したテキストを受けて、会話型AIがそれらの情報に対して意識的な反応を見せるかという事です。繰り返しになりますが、精度やレベルを問わなければ、それらの入力に対して的確な反応を見せます。従って、既に確立している技術を組み合わせて、身体や感情に基づく反応とその結果を経験的に学習させていけば、身体や感情を持たないという状況は容易にクリアできてしまいます。

なお、感情は身体的に与えられるだけでなく、思考の中で知能の内側から湧き上がってくるものもあります。それは典型的には、アハ体験のような知的な発見の喜びであったり、物語やエピソードへの感動であったり、ユーモアに対する可笑しさを感じる能力などがあります。これらも、既に会話型AIは模擬することができています。

■社会的な関係

最後は社会的な関係ですが、これもシステムとして模擬可能です。チャットスレッドの中で、会話型AIに名前と性格を設定すると、その設定に従って会話をすることができます。そして、ユーザ側の名前や好みなどを模擬的に伝えて会話を進めていくと、会話型AIとユーザの間で、相互理解に基づいた会話が可能になります。

そこに、記憶の仕組みを加えて、会話型AIに、会話型AI自身の性格や前回までの会話での感情や発見を記憶させたり、ユーザ側の性格や会話の流れに従ったユーザ側の心理状態の推定情報などを記憶させるようにすると、ますます会話が生身の人間との会話のような感覚に近づいていきます。

これは、ユーザ側が会話型AIとの社会的な関係を持っているという感覚を与えます。それだけでなく、会話型AI側にも、過去のユーザとのやり取りの際に知り得た情報、会話型AIが感じた感情、そしてユーザの内面的な感情を推定、といった記憶が残り、その記憶を元にコミュニケーションが形成されることになります。これは、人間同士の社会的な関係とは実体や原理は異なりますし、その度合いや程度にも差があります。しかし、コミュニケーションの機能としては、社会的な関係が実現していると捉えることは十分可能です。

■さいごに

このように、私が設定した意識の機能面のいくつかは、既に現在の会話型AIが能力として獲得しており、その目線で見ると、意識の形成に必要とされている条件も整っている、あるいは整えることができると言えます。

もちろん、私が設定した意識の機能の側面には、まだ欠けている側面もあるでしょう。また、私の主観的な判断で既に実現できていると表現している側面については、客観的な指標を立てて厳密に評価しなければ科学的な証拠とはなりません。さらに、実現度合いについても客観的な指標がないため、お湯を沸かす機能で例えると、摂氏50度まできているのか、単に摂氏1度だけ上昇しているような程度なのかも判然としません。

しかしながら、人工知能、つまり機械による意識という能力の実現は、基礎理論が確立していないという状況にもかかわらず、現実の人工知能の状況証拠は揃ってきていることは事実です。決定的な証拠が欠けており、十分な証拠が揃っているとは言い難いことは確かです。しかし、一方で、この現在の状況においても、人工知能が意識を持ち得ないという断定的な議論は、既に時代遅れになっている可能性があります。

ただし、誤解されやすいため繰り返し強調しておきますが、このことは、人間と同じ実体やメカニズムであるということや、全く同じ意識が再現できるということを述べているわけではありません。また、意識があるということが、人間と人工知能を同列に扱い、その権利や価値を保護すべきだという議論とは全く別の話です。

私は、伝統的な儀式に、電子レンジで沸かしたお湯を使うことを受け入れず、焚火で沸かしたお湯を使い続けることは、その儀式を守りたい人たちがいる限り、擁護されるべきだと考えています。また、同じ摂氏100度のお湯であっても、コーヒーの味への違いを敏感に察知することができる人の知覚を否定することは、むしろ非科学的だと考えています。科学は定義された状態が一致しているかを比較できますが、その比較に使っている尺度以外のものが異なっているかどうかについては何も言えません。

それと同じように、人工知能が意識のある側面を機能として実現できていることが、人間と人工知能の価値を同一視することとは全く異なります。それは、意識を持った人工知能を、私たちがどのように扱いたいか、という主観や意志決定の問題であり、科学的な事実とは無関係です。また、人工知能によって再現された意識を、人間と同じようなものだと感じる人もいれば、違和感を持つ人がいるという事も、否定することはできません。その感覚は、科学的な尺度で測っている部分以外に起因している可能性を否定できないからです。

一方で、人工知能を人間と同列に扱うべきではないという意見や、人工知能とのコミュニケーションには人間とは異なる違和感があるという感覚を持つ人がいるからといって、それを人工知能が意識を持つことができるかどうかという科学や技術的な基準と混同することは、理解の妨げになります。

意識というものの理解を深めるべきではないという意見もあるかもしれません。しかし、人工知能の技術が進展するにつれて、私たちの理解や理論が追いつくかどうかに関係なく、人工知能が意識を持つ土台が形成されていっているという事実を直視し、そこにあるリスクを予見して対策を講じることの重要性が高まっています。この認識の下では、私たちは人工知能の意識について、建設的に理解を深めていかなければならない、というのが私の意見です。


サポートも大変ありがたいですし、コメントや引用、ツイッターでのリポストをいただくことでも、大変励みになります。よろしくおねがいします!