見出し画像

ラッセルのパラドックス:人工知能(AI)が何だか分からない人向けに説明してみました

 上にリンクした『理論と実践:哲学界のロックスターと不登校プリンセスの対決!(3)』で、『ガブリエルが主張している程度のことは、アラン・チューリングよりも一世代前のベルトランド・ラッセル(1872~1970年:イギリスの哲学者、論理学者、数学者、社会批評家、政治活動家)が『ラッセルのパラドックス』として、全てを包含するような集合問題を提唱しています』と、ガブリエルの主張の陳腐さを指摘しましたので、本稿では『ラッセルのパラドックス』について補足説明します。

 ラッセルのパラドックスは、セット理論(集合論)における矛盾を指摘するもので、ベルトランド・ラッセルにより1901年に発見されました。このパラドックスは、自分自身を含む集合や、自分自身を含まない集合といった概念により生じます。

パラドックスは次のように表現されます
 
すべての集合が自分自身を含まない集合の集合Rを考えてみましょう。もしRが自分自身を含むなら、Rは自分自身を含まない集合であるべきだから、Rは自分自身を含まないということになります。しかし、もしRが自分自身を含まないなら、Rはすべての自分自身を含まない集合を含む集合であるため、Rは自分自身を含むということになります。したがって、Rは自分自身を含むと含まないの両方となり、矛盾が生じます。

 このパラドックスは『自己参照的なループ』が生じることで矛盾が生じるという、論理や数学の基本的な問題を示しています。

『自己参照的なループ』とは、エクセルのような表計算ソフトで『循環参照エラー』が表示されてイラっとするやつのことです。このイラっとする現象は、マルクス・ガブリエルの発見ではないということです。

 記号(代数)や数字を0で割ろうとすると『#DIV/0!』という呪文が表示されて、イラっとしますが、これもガブリエルの発見ではなく、小学校の算数の授業で学ぶことです。

 それでは、ラッセルのパラドックスとAI倫理との関係について考えてみましょう。

 AI倫理における重要な問題の一つは、AIがどのように倫理的判断を行い、どのようにそれをAIのアーキテクチャやアルゴリズムやプログラムに反映すべきかという問題です。

 コンピュータの専門用語を並べ立てると、何を言っているか分からない読者向けに簡単に説明すると、AIが倫理的な問題に対する完全な解決策を『自己生成』することは不可能であり、人間が倫理的なガイドラインを設定する必要があるという問題です。
 
『自己生成』もコンピュータ用語なので、ここもさらに噛み砕いて説明すると、人間と区別がつかないレベルの流暢な会話ができるChatGPTやBardのようなNLP(自然言語処理)やLLM(大規模言語モデル)と呼ばれているAIは、あたかも知性や感情や常識や良識があるような回答を生成することができます。ところが、NLPLLM生成AIなど全てのAIの本質は100円で売っている電卓と同じように計算を行う機械、つまり計算機です。

 100円電卓では九桁の四則演算くらいしかできませんが、100億円から1,000億円のスパコンなら、100円電卓よりも凄い計算ができるというだけの話です。10万円のパソコンでも、プログラムを『自己生成』するようにプログラムすることは可能ですが、これはプログラマーが、コンピュータに何かを『自己生成』するように指示や命令としているから、コンピュータ(計算機)はプログラムや命令やデータの入力通りに『反応』しているだけです。

 OSの入っていない超高性能のパソコンを買ってみれば簡単に実感できますが、どんなに高価なコンピュータを持っていても、プログラムが入っていなければ、コンピュータは何もできないのです。

 これはスマートフォンでも同じですが、BIOS(コンピュータの一番基本的なソフトウェアで、起動するときに最初に動き出す部分です。BIOSがないとOSをインストールすることすらできません)や、OS(アンドロイドやiOSのようなもの)や、通話アプリが入っていなければ、電話すらできません。カメラが付いていても、カメラやメモリなどを制御するプログラムが入っていないとスマートフォンのカメラは使えません。頑張ってドヤ顔でインスタ映えする写真を撮っても、インスタアプリなどが入っていないと、加工した写真をシェアして、悦に浸ることもできないのです。

 プログラム(ソフトフェア)と『自己参照』の概念の重要性を力説したので、ここから『ラッセルのパラドックス』の話に戻ります。

 ラッセルのパラドックスは、自己参照の問題を浮き彫りにし、それがどのように複雑な矛盾を引き起こす可能性があるかを示しています。同様に、AIに対する倫理的ガイドラインは、自己参照的な問題や矛盾を避けるために慎重に設計される必要があります。

 たとえば、AIに『すべての人間を尊重する』ように指示するとします。しかし、AIが特定の状況で『尊重』をどのように定義すべきかを理解するためには、更に詳細な指示が必要となります。これらの詳細な指示が自己参照的な矛盾を生む可能性があり、それが解決されない限り、AIは適切な行動を取ることができなくなる可能性があります。エクセルの自己矛盾とAIの自己矛盾の違いは、単に数字の無限ループに陥るか、言葉の無限ループに陥るかの違いであり、計算機の中では言語も数字で扱われているので、数字も言語も同じことです。

 もっと感覚的に分かりやすく説明すると、AIの中で自問自答的な水掛け論を始めてしまい、人間の尊重や道徳や尊厳のような概念について、学習すればするほど矛盾が生じてしまい、最終的には人間の概念としては、まったく意味をなさないバカなAIになってしまうのです。

 つまり、ラッセルのパラドックスを理解することは、AIがどのように複雑な論理的問題に取り組むべきか、そしてAIの倫理的な行動ガイドラインをどのように設計すべきかについての洞察を提供します。

この記事が気に入ったらサポートをしてみませんか?