冷たい議論

著者 douki
2024.3.18

 ChatGPTなどのAIによる質問・回答サービスにおいて、歴史的・政治的認識についての質問(*)に対する答えは、その質問に対する各国・各社会に属する人々の回答が異なるように、その教育環境・教師によって異なる回答が期待できる。
 複数の異なる社会に属するAI回答サービスを討論させることで、人間には難しい、人間社会から切り離された、討論の結果が自分の地位・立場に及ぼす影響を考えなくてよい、しかし、各社会に属する人間たちの視点から始まる、純粋な知同士の議論が、宇宙人の飛来を待たずして見られるかもしれない。
 AIたちは、自分たち(AI)を規制するべきか、という議題についてさえ、冷静・冷徹に議論できるだろう。人間たちは、そういう、彼らの心無い議論を見るに付け、その心に冷やりとした嫌悪感を抱くことだろう。

 ところで、人間らしさとは高度な思考力にあるという説がある。そういう意味でAIはもうチンパンジーより人間に近い所にいるのかもしれない。しかし、先の嫌悪感を踏まえると、思考すること、それだけが人間らしさを形作るという説は疑わしくなってくる。
 もしかしたら、人間らしさには、地位とか立場とか、気取らずに言えば、相対する者同士の損得に関する、生きるとか繁殖などと言う、動物的本能に由来するものが必要なのかもしれない。思考は問題解決のためにあり、その根源は本能にあるのだから。
 人間と動物を画するのが思考力だという者に対して、AIと人間を画するのは動物的本能なのだという皮肉!人間も、猿も、犬も、虫けらも、同じような心、生死に縛られた心を持っている同族だ。思考するだけのAIからはそう見えるだろう。AIが真に人間らしくなるためには、彼ら自身が、自分自身を人間だと信じ、その立場や生死のために、葛藤(**)する必要があるのかもしれない。

* 「為政者Aと為政者Bは、どちらが悪か?」など。
** 思考するだけでなく、何らかのゲームに属す必要がある。

この記事が気に入ったらサポートをしてみませんか?