機械知性と人間の関係性についての雑記

 この記事は高校の部活の雑誌に寄稿したものを外向けに書き直したものです。締め切りが迫っているのに色々と忙しく、数日で書いた代物なので、口語調であったり、あちこち行ったり来たりしますがご容赦ください。


0. 『The Crator/創造者』


 この記事では、ガレス・エドワーズ監督、2023年10月29公開の映画、『The Creator/創造者』を引き出しながら機械知性と人間の関係性について徒然的に書いていきます。

 ネタバレにならない程度に粗筋を説明していきます。ただ若干のネタバレは覚悟して下さい。(まだ見てなくて見たいって人は読まない方がいいかも。)
 ロサンゼルスがAIによる核攻撃に遭い、アメリカはAIを搭載したロボットを全面的に廃止した。2065年、アメリカ軍はAIと共存するニューアジアとの戦争を開始。そんな中、ニューアジアのヒューミント(AIロボット)開発者「ニルマータ(創造者)」が、アルファ・ワンと呼ばれる兵器を開発、主人公はその破壊任務に参加するが、見つけたのはヒューミントの少女だった……。
 この監督さんは、『ローグワン スターウォーズ・ストーリー』の監督でもあります。というかこの映画自体、20世紀フォックスとルーカスフィルムが関わってるからか、ビジュアルにSTARWARS色が割とある……。CGがめちゃ綺麗です。そのアニメーションの動きも似たようなのが出てくるんです。

 『The Creator』の特異な点の一つは、アメリカの描かれ方です。20世紀フォックスとルーカスフィルム、もちろんアメリカの会社です。アメリカ軍が登場する作品はどれもアメリカ軍がかっこいいのですが、この作品、アメリカの醜悪さをこれでもかと押し出してくるのです。アメリカの未来の後継国家とかではなくて「アメリカ合衆国」の「US Army」が出てくるあたり監督の度胸に笑みが零れます。アメリカ軍の現在の装備は登場しないのですが。
 冒頭、前世紀のアメリカっぽい映像が流れます。AIロボットを紹介するテレビ映像に続き、AI廃絶続行を宣言する連邦議会のシーン。主人公が参加する任務はベトナム戦争を強く想起させます。(舞台の「ニューアジア」がベトナムを含む東南アジアなどなので。)民間人の村を襲撃するアメリカ軍兵士、暴力に怯える村人。兵士たちはその後、平然と人間とヒューミントを殺していきます。
 個人的にきつく印象付けられたのは、アメリカ軍がニューアジアの基地を破壊して去っていくシーン。爆発を背景に米軍機が画面左上に飛び去っていくのですが、画面の構図がSTARWARS、反乱同盟軍やレジスタンス(「善」として描かれる)が帝国の兵器・拠点を破壊したときのそれと被るんです。制作側が意識したのかは知りませんが、「善」とされる側の汚い面を見せることで、既存の善悪の価値観に挑戦しているようにも見えます。これは同じエドワーズ監督の『ローグワン スターウォーズ・ストーリー』にも言えることで、『ローグワン』の反乱同盟軍は暗殺など汚れたこともやります。

 一方でAIと共存するニューアジアも「正義」や「善」として描かれているかと言われるとそうでもないような気がします。平和主義や非暴力ではなく、アメリカと戦争していますし、アメリカ人への暴力もあります。
 (アメリカ映画には珍しく)「これが正義なんだ」と強く主張する作品ではなかったと思います。

 この作品のテーマ(主題)は何か? 一つに絞ることはできないでしょうけど、少なくとも私にとって最大のテーマは「死」です。作中では死が多く描かれますが、鮮烈な印象を与えられるというか、結構きついです。(グロいじゃなくて多少吐き気する方向で。)先日、『ゴジラ -1.0』も見てきましたが、「死」の強烈さは『The Creator』の方がずっと強かったように思います。より「死がカメラに近い」というか。 人間もヒューミントも沢山死にますが、ゴジラに踏み潰されてみたいな死に方ではなく、撃ち殺され、爆破されます。この鮮烈さをどう伝えるべきか……。主人公はあるヒューミントを撃ち殺して、少女に言います。「オフにしただけだ」その後、人間の兵士が死んだ時に少女は「オフになった」と言います。きつい。多分この「オフ」という言葉も色々と含意がある気がしますが、時間がないのでご自身で考えてみてください。

 英語での言葉遣いは気になるところでした。脚本を書いた人はもちろんネイティブな方のはずなのでどこまで意識的に言葉を選んでいるかは分かりませんが、潜在的にでもセリフを書いた人がどういうニュアンスを込めたかを推察します。
 一つは、アメリカ人がしばしば口にした「ただの機械です。感情はない」の「機械」を “machine” ではなく ”program” と言っていることです。考えられる ”machine” と ”program” の違いは「ハードかソフトか」ということです。つまり、物質的な「ロボット」の側面ではなく、その中身、感情表現や設計といったところを指して、「人間とは違うんだ」というセリフになっているのかも。
 もう一つは、予告編でも出てきた、バスの中で主人公と少女が、天国について語る場面の「私は人間じゃないから」の「人間」を ”person” と言っていることです。なぜ ”human” にしなかったのでしょうか? person という語はラテン語の「ペルソナ」に由来し、「人格」の意味を含みます。つまり ”Because...(中略)...I’m not a person.” とは、「自分には『人格』がないから」というニュアンスになる気がするのです。
 これらは作中での、英語の表現です。つまり先述の「アメリカ」の言語です。英語での言葉遣いはすなわちアメリカの価値観を背景に持っていると言えます。AIの内面的な部分について人間との差異を言いたいのが(作中の)アメリカ的AI観ということではないでしょうか。

1. AIって何


 しばらくは「機械知性」の中でも特にAI(人工知能)を話題として取り上げます。
 元の(学校向けの)記事では自分の知識の範囲でAIについて軽く説明をしているのですが、ここでは省略します。

2. 「意識」概念について


 AIの作り方は分かっているのですが、実は、AIの中身はよく分かっていないそうなのです。空気力学が航空機の登場以降に発展したのと同じ(って東大の先生が言ってました)。つまり、動いていても、どうしてあんな感じになるのかはっきりしないということです。
 一方の、人間の「感情」や「思考」はどうでしょうか? ヒトの行動(AIで言う「出力」)は神経の働きによるものですが、物理法則だけでヒトの行動を説明することはおそらくかなり難しいです。神経の中枢である脳を解明しようにも、化学レベルのミクロな世界に踏み込まねばならず、「こうこうこうなってこれがこうなるんだよ」と記述できても、論理的に入力と出力の因果関係を説明できるわけではありませんし、神経の働きを予測することも困難です。とんでもない性能の計算機を使えばできますが。
 『サピエンス全史』でハラリさんは、感情も思考もヒトの神経が行う計算だと言ってますね。少なくとも現在、ヒトとAIの中身について有意義な差異を挙げることはできないということになるでしょう。

 余談ですが。Chat GPT、松岡修造風にやる気を出させようとしたら出力の質が向上したという報告があるそうです。謎です。

 AIに「意識」があるかどうか、という問いに答えるには、まず「意識」とは何かという問いに答えなければいけません。「意識」と「無意識」の境界はどこか? 「意識」を持つものと持たないものを分かつものは何か?
 何が「意識」を持つと思いますか? ヒトだけ? では、ボノボやチンパンジーは意識を持たないのか? うーんって感じですね。類人猿は意識を持っているとする? では他の霊長類はどうでしょう? あるいは、鯨の類やカラスなど一部の鳥類は? 「人類の友」イヌは? ヒト以外の存在は「意識」が存在しない機械だとしたのが近代の科学ですが(現代は変わってきていますよね)、ヒト以外の「知能」の発見によりそうも言えなくなってきました。さて、AIはどうでしょうか。Chat GPTは「意識」を持つと思いますか?

 ここで私見を述べたいと思います。私にはオリジナルな「意識」の定義があります。それは、「コミュニケーションのための仮定存在」です。
 他者の何が人間に「意識」を感じさせるのかと考えたとき、それはコミュニケーションにあると思うのです。コミュニケーションをとることができる他者に、人間は「意識」を見出すのではないか。他者に自分と同じ「意識」があるという前提があるからコミュニケーションが取れるのではないか。飼い犬とのコミュニケーション、人間は機械に対して話しかけているわけではないと思います。逆に、会話できないゾンビに「意識」は見出さないでしょう。(喋るゾンビのことは知りません。)
 AIに意識を見出すかどうか、それはAIと「コミュニケーション」を取っていると感じるかどうかなのではないでしょうか。

3. 人間に対するAIの社会的な地位


 ここで一旦、『The Creator/創造者』に戻ろうと思います。2065年、アメリカでは高度なAIを廃止し、AIに社会的な地位は存在しません。一方のニューアジアでは、ヒューミントと人間の立場は完全の同等です。AIは家族・友人・隣人だとされています。前項でヒトとAIを分ける有意な差異は見つからないと言いました。これはつまり、社会的にヒトとAIを分けるべき客観的な理由は存在しないということです。AIとコミュニケーションを取り、意識があると見なすかどうかは人によることになります。

 現在、AIは「人間ならざるもの」ですが、かつて「人間ならざるもの」だった人たちについて考えてみます。ここでは、基本的人権や法的権利を保証されている人格のことを「人間」と呼ぶことにします。
 歴史的にその「人間」に当てはまらなかったのは、女性や子供、奴隷でした。ご存知ですよね、フランス人権宣言の中での「人間」は ”homme” すなわち「成人男性」です。そんな狭い例を見なくても世界各地で女性は男性の財産として扱われてきました。子供も、今でも参政権は制限されていますよね。
 分かりやすい例はやはり奴隷でしょう。ここでは特に、アメリカ大陸での黒人奴隷です。イギリスが始めた三角貿易は、イギリス本国からアフリカ・ギニア湾岸に武器や衣服を輸出し、そこから奴隷をアメリカ大陸の植民地に運び、そこで採れた綿花を本国に持ち帰るということでした。このシステムを使えば、イギリスから出た銀が増えて帰ってくるのです。(当時の国際通貨は銀でした。)黒人奴隷はアメリカのプランテーション農園で、地主の下で働きました。
 ここで当時の地主の奴隷の扱い方についてあれこれと言いはしませんが、少なくとも参政権などはなく、教育も受けられませんでしたし、黒人は白人に遺伝的に劣るのだという議論がされていました。(これは現在は否定されています。多分、能力の人種間の差は環境や属する文化の方が要因として大きい。)アメリカでは南北戦争を経て奴隷が解放され公民権を獲得しましたが、第二次大戦後の公民権運動まで長らく慣例的な黒人差別は続きました。これ、ヘイトスピーチとかそういうレベルではなくて、学校には行けないし選挙で投票もできないし白人と同じ職には就けないというレベルのものです。
 その後のアメリカでは差別撤廃が進みました。残念ながら人種差別は依然として残っていて、警官による黒人男性殺害事件を受けた “Black Lives Matter” (「黒人の命も大切だ」)運動は記憶に新しいでしょう。とは言え、社会的にかつて奴隷だった人々にも人権と法的権利が認められているのです。
 アメリカでの黒人奴隷に限らず、現在、人権は人間であれば誰でも持つとされています。ただ、ガザでの戦闘を含め、近年の紛争を見ればそれが蔑ろにされていると分かるのですが。

 今は「人間ならざるもの」である、AIに今後、人間と同じような人権と法的権利が認められても、何の不思議もないという感覚です。今はAIに意識を見出す人はほとんどいないと思いますが、将来どうなってもおかしくはありません。
 繰り返しになるようですが、AIの問題は、AIの本質を客観的に定義できないことにあります。AIの登場以前、人権は生物学的なヒトに適用すれば良かったのですが、そうも言えなくなったのです。どこのラインまで人権を適用することが認められるのか? Stable Diffusion(画像生成AI)に人権は……怪しいですよね。

4. ロボット三原則


 有名なこれです。アイザック・アシモフというSF作家のこともご存知でしょう。

第一条 ロボットは人間に危害を加えてはならない。
第二条 ロボットは人間が与えた命令に服従しなければならない。
第三条 ロボットは第一条および第二条の原則に反しない限り、自己を守らなければならない。

 このうち、特に第二条が面倒です。ロボットは人間が与えた命令に服従しなければならない。第一条と第三条は人間でも原則的に適用しても問題ないでしょう。第一条に反せば傷害や殺人ですし、第三条は他者からであれば正当防衛、自分であれば自殺です。(自殺を禁じるのは違うと思いますが。)
 しかし、第二条は根本的に基本的人権に反しています。すなわち個人の自由です。人間に第二条を適用することは考えられないでしょう。もっとも、これは「現在は」という但書き付きです。前述のように、かつてはヒトであっても「人間ならざるもの」がいたのです。AIもそうなるかもしれないという話です。

 一旦脱線。
 人間が直接操作しないロボット兵器やAI兵器について考えてみます。現在、先進各国で無人兵器の開発が進んでいます。(日本自衛隊はそこまで力を入れてないみたいです。)敵である人間を殺傷しようとするならば第一条に反しそうですが、問題があります。「敵を殺せ」という命令にも服従しなければならないので、第一条と第二条が矛盾し、どちらかを優先しなければならないのです。
 AIはともかく、単純な無人兵器であれば、設計者が第二条を優先させるように作るでしょう。というか機械自体が生まれながらにこのロボット三原則を守るようにできているわけでは当然ないので、設計次第でこの原則は無視できてしまいます。
 仮にこの兵器が高度なAIで、ロボット三原則を守るように作られているとしましょう。(ただし第二条を第一条に優先する。)もっと面倒なケースを考えてみます。「民間人に危害を加えようとしている敵の戦闘員がおり、自分は何の命令も与えられていない」場合などです。自分が民間人に危害を加えようとすることはないでしょうが、第一条を守って敵の戦闘員を殺さなければ(あるいは危害を加え行動不能にしなければ)、民間人に危害が及びます。一方、民間人を守るために敵の戦闘員を殺せば、第一条に反します。
 こういうのはよくある倫理問題の派生形に過ぎませんが、少なくともロボット三原則を神話的に守るのは、この時代においては無理があるのではとか思ってしまいます。人間でも簡単に民間人を殺したりするので、それ以前の問題があるのですが……。戦争をしてる時点でまず倫理も何もと言いたくはなります。

 話を戻します。
 ロボット三原則、ちょっと「ロボット」を「AI」と置き換えてみましょう。

第一条 AIは人間に危害を加えてはならない。
第二条 AIは人間が与えた命令に服従しなければならない。
第三条 AIは第一条および第二条の原則に反しない限り、自己を守らなければならない。

 第一条、これは分かります。第二条飛ばして第三条、AIの自己防衛ってどんな感じでしょうか。AIに危害を加えるとはその存在そのものを消去されるということでしょうか。この第三条、第二条と結びついているので厄介ですね。仮に第二条が解除されたとして、第三条は、「AIは人間に危害を加えない範囲で自己を守らなければならない」となります。例えば、開発者が「失敗した」AIを消去しようとした場合や、AIが動いているサーバーの電源が落とされたり破壊されたりした時、人間に危害を加えない範囲で抵抗しようとするでしょう。可能ならインターネットに逃げるとか。第二条を有効だとすれば、この問題は解決します。ただその場合、AIに人権、特に「自由」は認められないことになります。(ここでは近代の「自由」概念がどうこうという話はしないことにします。)

5. AIを見る目


 ロボットは人間ではなくロボットとして扱うしか共存する方法はない、という考え方。まさしく『The Creator』のアメリカ人の考え方です。作中ではニューアジアの暮らしがそれを否定しています。
 こういった作品では、知能を持つロボット(「知能」の定義とか聞かないでください後で書きますから。)に対する人間の見方によって対比がなされることが多いようです。AIを人間と同等と見るか、AIはあくまで機械だと思うか。先ほどの「意識」概念の話からすれば、これは完全に「人による」もので、どちらが間違ってるとかないと思うんですが、AIが人間と同等の存在かどうかは社会全体に影響するので、ポスト・トゥルース(脱真実/客観的事実よりも個々人の感情が正しいとする立場。トランプ政権下のアメリカでよく聞きましたね)的にはできないんですよね。社会全体としては、どちらかだと意思決定する必要がある。この点は『The Creator』のニューアジアが前者であり、アメリカが後者でしょう。

 ただAIに対する価値観が人によるとは言っても、アメリカのAI廃絶は2050年のロサンゼルス核兵器事故によるところがとても大きいですし、逆にヒューミントがあそこまで生活に入り込んで共生しているニューアジアでAIをただの機械と見做す価値観は生まれにくいでしょう。何が言いたいかと言うと、人の価値観はその属する文化に大きく影響されるということです。もし貴方が未来の世界に生まれていたとして、AIに人権を認めない社会であればAIは機械にすぎないと感じ、AIに人権を与える外国を蔑視るようになるかもしれません。逆も然りです。
 本当に何が正しいかなんて分からないです。多分、カントの定言命法レベルの絶対的な規範なんてないんでしょうね。

6. 唯一無二の存在?


 とここまで書いておいて、重大な問題に気づいてしまいました。そもそも、AIって個体として存在できなくないか? という疑問です。
 『The Creator』でも、その他AIと人間との関係を描く作品の多くでは、AIは機械の肉体を持っていたりして、唯一の存在です。倫理では唯一無二の存在であるから人格として見做され、モノと対置されるのですが、AIはデジタルなものでしかもネットワーク上にあることが多いので、いくらでもコピーを作れるんですよね。Xのアカウントごとに戸籍作りますみたいな感じになってしまう……。
 どうすればいいんでしょう? Web3的技術を使ってAIを固有の存在にすることはできなくもないですけど、物理的には全然できちゃうので。詰んだ? AIに人権はない?

 とりあえず思考を止めずに行きましょう。AI課税について考えてみます。人間と同じように、AI一個体ごとに法人格を与え、課税するとしましょう。AIがコピーされる(あるいは自己複製する)と、その分だけ法人格が増え、課税されます。これは人頭税(人一人当たりに一律でかける税のこと)的になりますかね? 所得税で考えましょう。AIが収入を得ると、その分だけ所得税を徴収されます。同じAIが複数いれば、その分だけですね。こうやってAIに課税する制度にすれば、AIが大量に複製されることはないでしょう。
 ただこの方法の一番の問題は、その制度がない(あるいは未整備の)外国にAIサーバーを置いたり、サーバーをオフラインにして課税を逃れることができてしまうことです。仮に世界中で共通のAI課税システムが適用されたとしても、後者の不正を防ぐことは困難です。インターネットは魔法などではなく、かなり物理側のインフラに依存してるので、できる人にはこういった不正が簡単にできてしまいます。人間が戸籍をごまかすよりずっと見つかりにくいでしょう。
 最初に思いつくのは、高度なAIがオフラインに閉じ込められている場合です。ロボット三原則第二条が無効であれば、このAIは人間の命令に抵抗することができます。ただ、生殺与奪権は物理的に人間が握っているので……。また、そもそもそのAIが人間の命令に従うように作られている(第二条が有効な)場合は、これ人間に置き換えてみると結構やばいです。監禁した子供を洗脳して無報酬で働かせているような感じ。
 こういった問題を理由にしてAIに人権が認められない、ということはないとはないと思いますが、AIに人格があるとする社会では、このAI監禁が大きな問題となることになるでしょうね。

7. 知能


 自分が「後で書きますから」って書いたの見つけてしまった……。これ面倒臭い話題ですよね。”AI” は Artificial Intelligence すなわち人工知能の略語ですが、今英和辞典を見たら intelligence は「教育とは関係のない生得的能力が含意される」もので、「教育や訓練によって養われるもの」である intellect とは使い分けられるとのことです。AIのあれは生得的能力でしょうか? 作られた後に学習する必要があるので、 intelligence という呼び方は若干おかしいのかもですね。まあ一般的な呼称なのでいいでしょう。
 「知能」も「意識」同様、ちょっとあやふやな概念です。「学習し、抽象的な思考をし、環境に適応する知的機能のもとになっている能力」という心理学の定義があるようですが、AIは学習しますし環境にも適応できます。ただこれが「抽象的な思考」をするかと言われると分からないですよね。「意識」の話のところで書いたことを思い出してもらえればいいのですが、AIの思考体系は未解明ですし、逆に人間の思考も物理的には抽象的でも何でもありません。
 機械の知能、という話ではチューリングテストの話をすべきでしょう。イギリスのアラン・チューリングさんが考案したテストで、機械と人間を1人ずつ用意し、別の人間が、どちらが機械か知らされずに会話をします。この人間にどちらが機械か悟らせなければ、この機械に「知能」があるとするものです。ちなみにチューリングさん、人間コンピュータたるフォン・ノイマンさんと同列に語られるような人物です。確かドイツの暗号エニグマ解読に携わってたはず。

 ここでお知らせです。以上の文章は全てChat GPTに指示して書かせたものです。締め切りに追われてあちこち話題が飛ぶ口語調で、みたいな指示をするとこうなりました。って言ったら信じますか? 多分こういう文章も書けなくはないと思いますけど。ただまだこの文章が人間の手書きだとは言ってないので、貴方はこの文章はAIが書いたものかもしれないと思いながら読むことになります。
 今、AITuberが登場してきていて、Chat GPTのような大規模言語モデルを用いてリスナーさんと会話させたりXに投稿させたりすることができます。「これはAITuberだ」と知らされなければ、人間だと勘違いするかもしれません。多分大規模言語モデルはチューリングテストにパスするようになるんじゃないですかね……?

8. シンギュラリティ

 この話題に触れるのを忘れてました。技術的特異点、とか訳されるこれは、Google社のAI開発者レイ・カールワイツさんが提唱した話で、2045年にAIの知能が人間を超える、というものです。昨今のAIの発展を垣間見ていると、AIが人間を超えてもおかしくないと思います。2022年ほどAIの話は上がってこないように見えますけど、実は去年より今年の方がAIの進化がすごいことになってるみたいです。OpenAI社のChat GPTが猛威を奮っている感じです。
 AIは人間を超えることはない、という懐疑論もあるのですが、個人的にはいつの間にか抜かされてる気さえします。カールワイツさんの言う2045年かどうかは分かりませんが。もっと早かったり遅かったりするかも。「それでもAIに感情はないから」みたいな議論は、繰り返し言っているように半ば無意味な気がします。それぞれの捉え方かなって。なので、少なくともAIの能力が人間を超えると言うのは結構現実的な可能性だと思っていいと思います。
 ただAIが人間を超えるだけなら大したことはないんです。問題は、シンギュラリティ以降のAIの進化の加速度です。現在のAIは「弱いAI」とも呼ばれ、限られた分野しか対応していませんが、人間のように全方位できる「強いAI」「汎用人工知能(AGI)」が登場すると、このAGIは自己改良できるようになるということなんです。自分で自分を再設計して、より性能の良いAIになり続ければ、短時間で知能が急激に増大することになります。もう人間の及ばないレベルの知能に達してしまうみたいな話です。
 私も数ヶ月前まではこれを深刻視していたのですが、今は楽観視しています。現状、AI開発は自己制御できていると思うからです。Google社とかが何の危険性も考慮せずにAGIを起動することはないんじゃないって。あとは、人間側が全く太刀打ちできなくなるということもないと思うのです。人間というのは社会的動物で、集団で動いてなんぼなので、AIに対しては頭を集めればいいんですよ。そして今後、AIとの共存はどんどん進むでしょうし。
 とは言えシンギュラリティについては色々言われてますね。AIが人類を支配するとか人類を滅亡させるとか、あり得ない話ではないです。ただ新約聖書の黙示録的な未来予想は多分にキリスト教的パラダイムの影響下にあるので、まあそんな悲観することはないでしょう。盛者必衰、何事も循環するんだというのがアジア的ですよね。ここで「アジア」について語るのはやめておきます。南アジアー東南アジアー東アジアと仏教思想が生まれてきそうな地域です。『The Creator』のニューアジア(主に東南アジア)もそういう思想というか世界観が背景になって、逆にアメリカには黙示録の影響があるのでしょうか……? ロサンゼルスの前からそういう土台があったのかも。(キリスト教徒の方には失礼かもしれませんが、)黙示録はある人が見た夢の話なので、世界の半分(キリスト教圏とイスラーム圏)がその影響下にあるってちょっと怖いですね。別にアジア的思想を支持しようという気はあまりないですが。
 話めちゃずれてるっ。

9. 人間から機械へ

 これまで機械であるAIと炭素ベースの生命体であるヒトの関係について考えてきました。さて、ここからは人間が機械の側に寄っていくことについて考えてみます。脳を機械化するって抵抗感ありますか? 私にはほとんどないのですが、どうでしょう。経験上、忌避感がある人は多いみたいです。自然に反する的な批判をする方もいるのですが、ちょっとナンセンスかなって。そもそも人間の「自然状態」は存在しないでしょっていう。生命というか地球にいる以上、どういう形をとっても閉鎖したシステムは作れないので、その物質的な在り方が肉体だろうが機械だろうが大した差はないはずです。人間の自然な在り方という単なる価値観に過ぎない、とか反論してみたり。社会への影響は大きいと思いますが。

 ここで問題にしたいのは、生物学的にヒトと定義されない主体をどう扱うかということです。この話は『Reality+』(デイヴィッド・J・チャーマーズ著、2023年)などで書かれています。例えば、「生身の」人間を優先する社会があるかもしれません。ある生身の人間の命を救う電力を確保するために、機械の(シミュレーションの)人間5人の電源をオフにすることが認められます。皆さん、これOKだと思います?
 これはトロッコ問題の派生です。トロッコ問題というのは、

「進むトロッコの線路の先に5人の作業員がいて、このまま進むと轢き殺してしまう。進路を逸らして傍に入ると1人の作業員がいて、5人の命は助かるが、この作業員は轢き殺してしまう。なおトロッコは誰かを轢き殺すまで止まることができない」

というものです。これを功利主義(「幸福の総量」を最大化しようとする立場)で解くと、「5人の命を救うために1人を犠牲にする」となります。功利主義をとらなければまた話は変わってきますが、功利主義で解けるのは作業員たちが全員同じ人間だからです。5人のヒューミント(高度なAIロボット)と1人のヒトであればどうでしょう? 生身の人間を救うために5人の機械を殺すことが許容されるか。
 先述の『Reality+』では「哲学的ゾンビ」という主体を仮定します。(「哲学的ゾンビ」は一般的に哲学・倫理で用いられる概念です。)これは意識がなくただ動いているだけの(初期の)ゾンビのような存在で、見た目は人間です。5人がこの哲学的ゾンビだったら? これは機械についてでなくても話題になりそうです。この本の中では、もう一つ「哲学的バルカン星人」という主体が仮定されます。バルカン星人とは「スタートレック」シリーズに登場する人間のような異星人で、感情を持ちません。5人の感情を持たない主体、「哲学的バルカン星人」だったら?
 感情の有無で考えるならば、ここで功利主義を用いると1人の人間を優先して5人のバルカン星人を轢き殺すことになります。ただ、バルカン星人は感情がないだけで、他に人間的要素(目標など)を持っているので、感情のあるなしだけでは決められないよねという話です。
 さて、機械化された人間、あるいはシミュレーションの人間と、「生身の」人間のどちらを優先すべきでしょうか? 結論から言うと、この問題は解決できないでしょう。少なくとも、常にこうすべきという答え(定言命法的なやつ)はないです。

 というかこの問題、生身の人間からの視点しかないですよね。貴方が仮に、生まれながらに機械のシミュレーションだとするとどうでしょう? あるいは『マトリックス』みたいに、生まれながらに仮想空間で暮らしているとすれば? 生身の人間よりも命が優先されないとすると、嫌ですよね……。仮想の、デジタルなものだからと言って、物理的な現実のものに本質的に劣るということは全くないってことが言いたかったわけです。

10. あとがき的な

 これまで結構色々書いてきました。楽しんで、AIなどの倫理哲学的な話について考えていただければ幸いです。AIの性能は時々刻々と進化していきます。文字通り「日進月歩」に見えます。今後もAIについてなど新しい話が出てくると思います。「こんなことができるんだ」「こういうことに使おう」「これでこういうビジネスができる」というのも大事なのですが、同時に定性的な哲学的思索に沈んでみてほしいなと高校生の分際で思ったりします。

 それではまたお会いしましょう!

この記事が気に入ったらサポートをしてみませんか?