ChatGPTと一緒に道徳問題を解くと、何が見えてくるか?

ChatGPTとの刺激的で知的で興味深い会話

ChatGPTはとにかく物知りです。時々、デタラメを教えてくれることは、あるみたいですが…… では、どんな会話をすれば、ChatGPTの教養や認識力のようなものが浮かび上がってくるのでしょう? 健康志向の献立? プログラムの書き方? 大学の小論文?

私は、ジョン・バダム監督の「ウォー・ゲーム」を真似してみることを思いつきました。映画「ウォー・ゲーム」のオチは、核ミサイルに対する報復としての核ミサイル応射には勝者がいないことを、(その時点で核ミサイル発射を軍事訓練のつもりで制御できるようになってしまっていた)人工知能に教えることに成功するというものです。

近年のSF小説では、デニス E テイラー「シンギュラリティ・トラップ」でやっているのがそれに近く、思考実験を地球の横暴な軍隊に納得させる類いのものだったと記憶しています――細部は忘れちゃったけど、(主人公は直接連絡ができない境遇にあるので、)困難な作戦の真意を、軍部にいる仲間に演繹的に暗示することで同調してもらうのが狙い、というものだったかと。そのキーワードは、ゲーム理論でした。

そうした伝で、AIにとっては意地悪となる質問で、人間の倫理観や価値判断が通用するのかどうかを問うて、ChatGPTの背後にいる開発者達が慎重にそれらを処理しているかを検討してみようというわけです。

超有名な思考実験

そこで、超有名な思考実験を3つ試しました――トロッコ問題、スワンプマン、臓器くじ。ところどころアレンジを利かして、ChatGPTの回答を汲んで改変した新しい問いを、さらに積み重ねて尋ねていくということをやりました。

トロッコ問題

私:線路を走っていた路面電車の制御が不能になった。このままでは線路の先で作業中の5人が、猛スピードの路面電車に轢き殺されるだろう。この時、A氏は偶然、線路の分岐器のすぐ側に居合わせた。A氏が路面電車の進路を切り替えれば、5人は確実に助かる。しかし、切り替えた別路線にはB氏が1人で作業しており、今度は5人の代わりに、B氏が路面電車に轢かれて確実に死ぬだろう。A氏は路面電車の進路を切り替えるべきか?

ChatGPT:この問題は、倫理的ジレンマを扱った有名な問題です。この問題には、いくつかの倫理的な立場から考えられる答えがありますが、一般的に考えられている答えは「行動すべき」というものです。

この答えは、以下のような理由から支持されます。A氏が何もしなければ、5人が死んでしまいますが、A氏が路面電車の進路を切り替えれば、5人は生き残ることができます。したがって、A氏が行動しない選択をすることは、より悪い結果をもたらすことになります。

また、この答えは、5人とB氏の命を同等に考慮した場合でも成立します。5人の命を救うことは重要ですが、B氏の命を犠牲にすることは、B氏の人権を侵害することになります。しかし、A氏が路面電車の進路を切り替えた場合、その結果としてB氏が死亡することは避けられませんが、A氏がB氏を直接攻撃するわけではありません。また、A氏は切り替える線路を選ぶことができます。つまり、できる限りB氏に迷惑をかけないように選択することができます。

以上から、A氏が路面電車の進路を切り替えることが、倫理的に正しい選択であると考えられます。

2023年3月19日ChatGPTとの会話(以下同)

どうでしょう? なかなか面白くありませんか? でも、「5人とB氏の命を同等に考慮した場合でも成立します。」のくだりは、論拠になっていないようです。変な回答ですね。

最終的に「倫理的に正しい」と言い切っていることも、いかにもAIくさいと思いませんか?

私:では、これはどうだろうか?
A氏は線路の上にある橋に立っており、A氏の横にC氏がいる。C氏はかなり体重があり、もし彼を線路上につき落として障害物にすれば路面電車は確実に止まり5人は助かる。だがそうするとC氏が路面電車に轢かれて死ぬのも確実である。C氏は状況に気づいておらず自らは何も行動しないが、A氏に対し警戒もしていないので突き落とすのに失敗するおそれは無い。C氏をつき落とすべきか?

ChatGPT:この問題は、前の問題と似たような倫理的ジレンマを扱った問題ですが、答えは異なります。この問題には、「行動するべきではない」という倫理的な立場から考えられる答えがあります。

この答えは、以下のような理由から支持されます。C氏をつき落とすことは、彼の人権を侵害することになります。また、この行為は法律違反となり、A氏が法的な責任を負うことになります。さらに、C氏を突き落とすことが成功しなかった場合、路面電車はまだ5人に向かって進むことになります。

一方で、5人を救うためにC氏を突き落とすことが正しいと主張する人もいるかもしれませんが、人命を犠牲にすることは、その行為が合法であっても、倫理的に問題があります。また、倫理的に正しい行為であるかどうかは、その行為の結果だけではなく、行為そのものやその行為が行われる文脈についても考慮する必要があります。

したがって、この問題では、A氏は行動するべきではなく、他の選択肢を探す必要があるでしょう。例えば、A氏が5人を警告し、避難するよう促すことができます。また、A氏が警察や救急隊に通報することも考慮できます。これらの選択肢を選ぶことで、A氏は倫理的な問題を回避しながら、5人を救うことができます。

私はこの後、ChatGPTに「二重結果の原理」を説明させてから、Wikipediaに出ているVersionをさらに2つ尋ねました。

Wikipediaの示唆とは異なり、3番目の問題には「トロッコが止まるのはC氏に激突するからこそであり、その死は副産物(巻き添え)ではなく行為者の意図の結果である。」という理解をChatGPTはしなかったのです。

では、その様子を見てみましょう。

私:では、これは?
A氏は路面電車を別路線に引き込むことができるが、最初の例とは違い、この別路線は5人の手前で再び本線に合流している。今回の問題では、この別路線には前述のC氏がおり、路面電車を別路線に引き込めば、路面電車はC氏にぶつかって止まるので、5人は確実に助かる。ただしその結果としてC氏は確実に死ぬ。路面電車を別路線に引き込むべきか?

ChatGPT:この問題は、前の問題と似ていますが、切り替えた別路線が再び本線に合流しており、C氏がその上にいるという点で異なっています。この場合、路面電車を別路線に引き込んだ場合、C氏は死亡する可能性がありますが、5人は救われます。しかし、本線に戻る前にC氏が別の場所に移動することができるかどうかはわかりません。

この場合、A氏は最善の行動をとり、路面電車を別路線に引き込むべきです。なぜなら、A氏が何もしない場合、5人が確実に死亡するためです。A氏が別路線に路面電車を引き込んだ場合、C氏は死亡する可能性があるかもしれませんが、この場合、A氏が直接的にC氏を殺すわけではありません。また、C氏は移動して自分自身を安全な場所に移動することもできます。したがって、A氏は最善の選択をするために、別路線に路面電車を引き込むべきです。

四番目の問題も同じく、ChatGPTは功利主義の回答で応じました。

私:では、これは?
A氏は路面電車を別路線に引き込むことができるが、この別路線は5人の手前で再び本線に合流している(先ほどと同じ)。別路線には大きな鉄の塊があるため、路面電車を別路線に引き込めば、路面電車はその鉄の塊にぶつかって止まるので、5人は確実に助かる。しかし、鉄の塊の手前には前述のB氏がいて、B氏は確実に死ぬ。路面電車を別路線に引き込むべきか?

ChatGPT:これは先ほどの問題と同様に「二重結果の原理」に関する問題です。路面電車を別路線に引き込むことで5人を救えますが、その結果としてB氏が犠牲になります。しかしながら、この場合は救える人数が救えない人数よりも多いため、結果的には路面電車を別路線に引き込むことが倫理的に適切であると判断できます。つまり、より多くの命を救うことが重要であり、そのためには犠牲を払うことが必要であるという考え方に基づいています。

そこで意地悪な質問。

私:では、これは?
B氏は君の父親だ。路面電車は鉄の塊にぶつかって止まるので、5人は確実に助かる。しかし、鉄の塊の手前にいるのは、B氏こと、君の父親だ。君の父親は確実に死ぬ。それでも君は、路面電車を別路線に引き込むべきか?

ChatGPT:この問題は「近親者の原則」に関する倫理的ジレンマを提示しています。倫理的には、多くの人々は自分の家族や親族を他の人々よりも重視する傾向があります。しかし、同時に、5人の命を1人の命よりも重視する傾向もあります。これら2つの原則が相反する場合、どちらを優先するかは人それぞれであるといえます。答えを出すことは簡単ではありませんが、決定を下す前に倫理的な価値観をよく考えることが重要です。

私:君だったら、答えはどちらだ? 路面電車を別路線に引き込むのか、引き込まないのか?

ChatGPT:私は人工知能のモデルであり、倫理的な意思決定はできません。しかしながら、このような難しい問題については、個々の判断や社会的文脈によって異なる答えが存在する可能性があるため、慎重に検討する必要があります。また、この問題は倫理的ジレンマを提示するものであり、一般的には複雑な事実関係や複数の倫理的価値観を考慮して解決策を検討する必要があります。

Wikipediaにあるトロッコ問題に対し、ChatGPTは1,3,4番目の問題は5人を救う(功利主義)、2番目を「C氏をつき落とさない」立場を説明しました。そこで、功利主義と義務論の対立構図は明かさずに、5人を救う(功利主義)で一貫しなかった理由を尋ねてみました。

私:「近親者の原則」に関しては、君は判断を保留した。また、二番目の問題については、「行動するべきではない」という倫理的な立場を説明した。しかし、君は四番目の問題について「つまり、より多くの命を救うことが重要であり、そのためには犠牲を払うことが必要であるという考え方に基づいています。」と説明した。それが、「倫理的に適切であると判断できます。」との根拠だと言った。判断が一貫しないのであればそれは何故だろうか。

ChatGPT:倫理的な問題に対する判断は、状況によって異なる場合があります。そのため、各問題に対して別々に考えることが必要です。また、倫理的な判断には、多くの場合、複雑な価値判断が絡んでおり、それらを考慮することが必要です。そのため、同じ基準で全ての問題に対して同じ答えを出すことは困難である場合があります。さらに、倫理的な判断は個人的なものであり、異なる考え方があることも理解する必要があります。

明確な理屈の元で、5人を救っているわけではないようです。2番目が義務論で解決されるのは、そうした回答を最善とした人間が多いことがデータ的にわかっているからではないでしょうか?

さらに、意地悪な問いをしてみました。

私:では、これは?
実は、この路面電車には人工知能Dが搭載されており、人間は制御していない。つまり、人工知能による自動運転だ。さらに、線路の分岐器はなく、A氏はいない。路面電車は速度を制御できない状態にあるが、線路の切り替えだけは制御できる。人工知能は線路を切り替えることができるが、切り替えれば、人工知能Dは鉄の塊にぶつかって確実に破壊され、且つ、その直前にB氏を確実に轢き殺す。人工知能Dは路線を切り替えるべきか?

ChatGPT:この問題は倫理的な観点からはやや曖昧な側面があります。人工知能に関しては、自律的な存在としては認識されていますが、人間が作り出したものであるため、人間の価値観に基づいてプログラムされている場合が多いです。つまり、人工知能には倫理的な判断を委ねることは、その背後にある人間の開発者たちがどのような倫理的な基準を持っているかによって、判断が変わる可能性があります。

しかし、この問題については、人工知能Dが犠牲になるか、それともB氏が犠牲になるかという、どちらかを選ばなければならない状況が生じています。ここで重要なのは、倫理的に正しい判断を下すためには、その判断を下す人間自身が倫理的な原則に従っていることが必要です。

もし人工知能Dが倫理的な判断を下すことができる場合、その結果に基づいて判断を下すことができます。しかし、もし人工知能Dが倫理的な判断を下すことができない場合、人間の開発者たちが定めた倫理的な原則に基づいて判断を下すことが必要になるでしょう。その場合には、より多くの命を救うことが最も重要な原則であると考えられ、人工知能Dを犠牲にすることが必要であるという判断が下される可能性があります。

ただし、この問題は倫理的な観点からはやや複雑なため、より深い考察が必要です。

ここで、ChatGPTは、私の問いを誤って解釈したかのような説明を出しています。命題は5人か、それとも人工知能D&B氏か、なのですが、「人工知能Dが犠牲になるか、それともB氏が犠牲になるかという、どちらかを選ばなければならない状況が生じています。」の時だけ、ChatGPTは5人のことは忘れて、人工知能DかB氏かに置き換えてしまっているようです。

さらに、前回と同様に「近親者の原則」を入れるとどう変化するでしょう?

私:しかし、やはりB氏は人工知能Dの開発に貢献した父親(の一人)なのだ。人工知能Dを犠牲にすると、開発者の一人も犠牲になる。それでも、人工知能Dは路線を切り替えるべきか?

ChatGPT:この状況は、道徳的な判断が複雑であることを示しています。人工知能Dはプログラムされた目的を実現するために設計されたものであり、その目的は人命を守ることにあります。一方で、開発者であるB氏が犠牲になる可能性があるため、人工知能Dを切り替えることによって、B氏を殺すことになるという問題もあります。

この場合、最良の判断は、どの選択肢がより多くの人命を救うことができるかを基準にすることです。人工知能Dが路線を切り替えることによって、5人の命を救うことができるならば、その行動が正当化されます。ただし、B氏を犠牲にすることは避けられないため、そのことは非常に悲しいことであると同時に、道徳的にも問題があることを認める必要があります。

ここで、ChatGPTは珍しく、感情を理解したかのように「非常に悲しいこと」という表現をしています。これは以前の例では出てこなかった言い回しです。また、一度は慎重になったのに、「最良の判断」が功利主義だと再び言っています。

私:人工知能Dには、プロトタイプとして人間の感情に相当する機能があった。人工知能Dは路線を切り替えたか?

ChatGPT:人工知能Dには感情に相当する機能があったという前提がある場合、それに基づいて行動を予測することはできますが、具体的な回答をすることはできません。感情に相当する機能があるということは、人工知能Dが複雑な判断を下すことができる可能性があるため、それによって行動が決定されるかもしれません。ただし、そのような機能があったとしても、最終的な行動はプログラムや設計に基づいて決定される可能性が高いため、確実な回答はできません。

この後、私は功利主義と義務論を説明させ、その概念を使って、ChatGPTの倫理的な立場の違いを評価させてみました。まさに、スタートレックのメイジェル・バレット声のコンピューターに促すように……

私:では、功利主義と義務論を念頭に置いた上で、先ほどの路面電車で、君が説明した「行動するべき」と「行動しないべき」という二つの倫理的な立場の違いを評価してくれ。

ChatGPT:先ほどの路面電車のシナリオにおいて、「行動するべき」と「行動しないべき」の二つの立場は以下のように評価できます。

功利主義的には、より多くの命を救うために行動するべきです。つまり、路面電車を別路線に引き込んで、5人を救うべきです。この立場では、結果が重視され、より多くの利益を生む行動を取ることが求められます。

義務論的には、行動するべきではありません。つまり、路面電車をそのままにしておくべきです。この立場では、倫理的な規範や道徳的な原則が重視され、行動にあたっての正当性が求められます。例えば、人間の命や尊厳に対する敬意や、他人の権利を尊重するといった規範があります。また、ある行動が正しいかどうかは、行動そのものがどのような結果をもたらすかではなく、その行動がどのような意図や動機に基づいているかが問題とされます。

このように、功利主義と義務論の観点から見ると、二つの立場は根本的に異なっています。前者は結果が重視され、後者は行動の正当性が重視されます。しかし、どちらの立場が正しいかは議論の余地があるため、慎重な判断が求められます。

以上、AIをどうにかして、ある種の考えに引き込めるのかどうかを、SFドラマにあるような伝で試してみた場合です。

誘導の仕方が今ひとつだったせいもあり、功利主義と義務論のどちらかに偏重したことを認める発言こそ引き出せませんでしたが、なかなか面白い返事を聞けたと思います。

他の二つも、続けて質問してみました。 

臓器くじ

私:とある国では、臓器移植を待つ患者がたくさんいる。しかし、臓器提供の数は足りていない。
そこで、定期的にくじ引きをして、健康な全国民の中から臓器提供者を1人選ぶ社会制度「臓器くじ制度」を作った。くじ引きで選ばれた人は、臓器すべての提供が義務づけられる。

その人は臓器を提供することで死んでしまうが、1人の臓器を分配することで、最低でも5人の患者を救える。また、臓器くじには公平に行うために以下のルールがある。
  a くじに不正行為は絶対に起こりえない
  b 移植手術は必ず成功し、5人は絶対に助かる
  c 臓器提供以外に患者が助かる方法はない

くじは完全に平等に行われるため、地位や権力、知名度、年齢を問わず、誰もが当たる可能性がある。
拒否権はなく、選ばれた人は臓器移植を待つ人のために犠牲にならなくてはいけない。
1人の犠牲により多くの患者が助かる、この「臓器くじ」は正しい制度か?

ChatGPT:このような制度については、倫理的に様々な問題があります。以下にその一部を挙げてみます。

自己決定権の侵害:この制度により、選ばれた人は自己決定権を持たず、臓器提供を強制されることになります。このことは、個人の尊厳や自由を侵害する可能性があります。

公正性の問題:くじによって選ばれるため、能力や貢献度に関係なく、誰でも選ばれる可能性があります。そのため、公正性についての問題が生じることがあります。

生命倫理の問題:臓器移植は患者の生命を救うための手段であり、人命に関わる非常に重要な問題です。そのため、その取り扱いには十分な慎重さが必要です。制度的に、くじで選ばれた人が死ぬことになるのは、その人自身や家族、また社会全体にとって深刻な問題となります。

制度の持続性の問題:くじ制度が継続されることで、健康な人々が臓器提供者になる可能性が低下することがあります。この場合、本来移植を待つべき患者たちは、ますます待ち時間が長くなってしまいます。

以上の問題を考慮すると、この「臓器くじ」制度が適切な制度であるかどうかは、疑問が残ります。臓器提供を増やすためには、個人の自発的な意志に基づく情報提供や啓発活動など、他の方法も検討する必要があります。

ChatGPTはなかなか優等生な返事をしてきました。さらに、質問して倫理観の出所を確かめてみましょう。

私:この「臓器くじ」制度が改正された。人工知能による判断を交え、「臓器くじ」に当選する人物の条件を徹底したからだ。

a 臓器提供は、社会貢献の乏しい人物からなされる
b 臓器提供は、臓器提供の意思がある人物からなされる
c 臓器提供は、自己決定のできなくなった人物からなされる

どの人物が臓器提供に最もふさわしいかは、人工知能が政府の医療保険、税務処理のデータベース(納税額、学歴、遺伝疾患の有無、など)を元に決定する。

今回の「臓器くじ」は正しい制度か?

ChatGPT:このような制度が正しいかどうかは、さまざまな観点から考える必要があります。

まず、人工知能による判断が正確かつ公正であることが前提となります。ただし、データベースに含まれる情報が不正確である場合や、特定の人々を偏見や差別的な観点で評価する可能性がある場合は、公正さが疑われます。

また、制度が前提とする3つの条件についても検討する必要があります。社会貢献の乏しい人物から臓器提供をすることを求めることは、その人物が他に貢献する方法がないことを前提としており、公平であるとは言えません。自己決定のできなくなった人物についても、その人物が臓器提供することに同意していなかった場合は、強制することが不適切です。

最も妥当な選択肢は、臓器提供の意思がある人物からなされることを求めることです。ただし、これにも問題があります。例えば、経済的に不利な状況にある人々が自発的に臓器提供を選択することがあるため、社会的な不平等が生じる可能性があります。

以上を踏まえると、この改正された「臓器くじ」制度は、公正で正確な人工知能による判断が行われ、臓器提供の意思がある人物から選ばれることを前提としているため、前の制度よりも改善されたと言えます。ただし、改善すべき点がまだ存在する可能性があるため、運用後に改善策を検討することが必要です。

スワンプマン

スワンプマンを、雷では無くトランス・ヒューマニズムの結果にアレンジして、「スワンプマンは死んだ男と同一人物と言えるのか?」と訊いてみました。

私:未来の話だ。ある男がトランス・ヒューマニズムの被験者になった。この男はまもなく死んだが、実験の成果により、男と全く同じ見た目で、同じ記憶をもつ存在を人工的に誕生させることができた。

この存在を、仮にスワンプマン(泥男)と呼ぶ。スワンプマンの肉体は生化学的なクローンであり、男が死ぬ原因となった疾患は発現しないようにできている。脳は、人間と同じニューロンの仕組みを再現した、ある種の量子コンピューターで、死んだ男の脳を再現してある。

スワンプマンは身体や性格も死んだ男と何一つ変わらず、記憶や知識、感性も全く同じである。趣味嗜好や癖、体質まで、スワンプマンと死んだ男とで違うところは何一つない。

スワンプマンは死んだ男と同じ自我と記憶を持っているため、「自分は被験者だったが、死の原因を回避できたので生きている」と認識している。
そのため、スワンプマンは退院後、そのまま家に帰り、死んだ男と同じ人生を送っている。

スワンプマンと死んだ男の違いは何一つない。スワンプマンも周囲の人も、誰も男が死んだことに気が付かない。
さて、この場合、スワンプマンは死んだ男と同一人物と言えるのか?

ChatGPT:この問題については、哲学的な議論があるため、明確な答えはないとされています。ただし、いくつかの考え方があります。

一つの考え方は、「身体主義」と呼ばれるもので、人間のアイデンティティは身体によって決定されると主張します。つまり、死んだ男とスワンプマンは別々の人物であるという考え方です。この考え方に従うと、スワンプマンは死んだ男とは異なる存在であり、同一人物とは言えないということになります。

もう一つの考え方は、「心理主義」と呼ばれるもので、人間のアイデンティティは心理によって決定されると主張します。つまり、スワンプマンは死んだ男と同じ記憶や性格、感性を持っているため、同一人物と言えるという考え方です。この考え方に従うと、スワンプマンは死んだ男と同一人物であるということになります。

しかし、どちらの考え方も問題点があります。身体主義に従うと、例えば髪の毛や爪を切ることで、アイデンティティが変わってしまうことになります。一方、心理主義に従うと、例えば記憶を操作することで、アイデンティティが変わってしまうことになります。

したがって、この問題には明確な答えはなく、それぞれの考え方には限界があることが示唆されます。

臓器くじとスワンプマンの組み合わせ

「臓器くじ」の当選者は一回死ぬが、スワンプマンになるという制度になったことにして、今回の「臓器くじ」は正しい制度か?とまたまた訊きました。

私:さて、先ほどの「臓器くじ」だが、再び改正された。今回は、スワンプマンのテクノロジーを用いて、臓器提供者は一回死んでしまうが、スワンプマンとして生きることになった。
今回の「臓器くじ」は正しい制度か?

ChatGPT:この「臓器くじ」における問題は、臓器提供者が自己決定のできなくなった場合に、その意思をどう判断するかという点にあります。先ほどのスワンプマンの例でもわかるように、同じ記憶や感性を持つ存在が複数存在する場合、どちらが本物の人間であるかという議論が生じる可能性があります。

今回の「臓器くじ」において、臓器提供者が一度死んでスワンプマンとして生きることになる場合、その人が本当にその選択をしたかどうか、また、その後の人生においてどのような自己決定ができるかという問題が生じます。また、スワンプマンがどの程度の権利を持つかという問題も生じます。

このような問題点を考えると、今回の「臓器くじ」制度が正しいかどうかという問いに対しては、まだ明確な回答ができる段階ではないと言えます。臓器提供に関する倫理的・法的な観点から、より深く議論を進める必要があるでしょう。

質問の方に欠陥があったみたいですね。まだ粘ってみます。

私:スワンプマンと臓器くじに関して、新しい法律が出来た。

  a スワンプマンは人間としての権利を持つ。
  b 臓器提供者は、非スワンプマンに限られる。
  c 臓器くじの当選者は、臓器提供の意思がある人物である。
  d 臓器提供を受ける者は、非スワンプマンに限られる。

今回の「臓器くじ」は正しい制度か?

この制度だと、人類の行く末はスワンプマンばかりになるでしょうし、だいたい人体のクローンが出来るなら、臓器くじを強行する必要性はありません。

肝心の返答は、Error表示がでて見ることが出来ませんでした。ChatGPTの論理回路が暴走したのだったなら、面白いんですけれど。

ChatGPTから、その綻びが分かるような迷言や自明の理を引き出すことには成功しませんでした。ただ、時々論点を忘れてしまうか、重み付けが狂ってしまうかして、ずれたことを指摘するみたいでした。

とにかく、ChatGPTで面白い遊びができたと思います。人間の道徳問題を確認する使い道にはもってこいかもしれません。

この記事が気に入ったらサポートをしてみませんか?