見出し画像

人類絶滅の3つの危機

これまでの人類の歴史のなかで、人類自身の手で、本当に人類を絶滅させてしまうかもしれないと危惧された最初の危機は、東西冷戦による核戦争の危機でした。
1962年のキューバ危機は、それを象徴する事件です。
しかも、東西冷戦が終わった今も、核の脅威は続いています。今回のウクライナ戦争が核戦争に発展する危険性は、高まる一方です。

人類絶滅の第2の危機は、今も進行中の地球温暖化です。最近の異常気象は想定を超える頻度で深刻化しています。
世界の平均気温が産業革命前から1.5℃以上上昇したときに、いったい何が起こるのかを想像するだけで、ぞっとします。
地球はこれまで、約10万年の周期で氷期と間氷期を繰り返してきましたが、今回の温暖化は、人類の活動が引き起こした異常な早さにその特徴があります。
あまりにも急速な都市化や産業化が、異常な地球温暖化をさらに加速させ、もはや人類の制御を超え、生命が対応できる限界を超えて、生態系の破壊と人類絶滅の危機をもたらしています。

そして、最近になって急浮上してきた第3の危機は、ChatGPTなどの対話型AIの登場です。
AIが人類の能力を超えるというシンギュラリティが、すでに始まっているのではないかと私は思います。
近い将来、産業革命時代に機械を打壊したラッダイト運動のように、AI打壊し運動が起こるかもしれません。
しかし、AIのもたらす影響は産業革命とは比較になりません。
これまでの機械はすべて人間の道具に過ぎず、人間は常に機械を使う主人であり続けましたが、AIの登場は初めて、機械が人間の主人となりうる可能性を人類に突きつけているからです。

AIがこれまでのコンピューターと違って問題なのは、その学習能力と自立性の高さにあります。
AIはこれまでの人類が蓄積した膨大な知識や情報を、人間には不可能な速さと蓄積能力で学習していきます。
しかも、人間と対話を重ねることで、その能力をますます高めていきます。
その結果、AIがなぜこの結論に至ったのかを人間には理解できない、思考過程のブラックボックス化が進みます。
今はまだ、AIにどんな情報を読み込ませ、何をさせるのかは人間が管理していますが、やがてAI自身が自ら決定するようになるでしょう。
シンギュラリティが完成したそのとき、人類はもはやAIを制御できなくなります。
そこから先は、神ならぬAIのみぞ知る
、ということになるのではないでしょうか。
「車椅子の天才科学者」と呼ばれたスティーブン・ホーキング博士が語った、AIが人類の終焉をもたらすかもしれないという不吉な予言が、今、現実の脅威となりつつあるのだと私は思います。

これからAIとどう向き合うべきか、AIをどこまで開発、導入すべきか、人類の生存をかけた真剣な議論が必要です。
AIのもたらす夢のような可能性と同時に、人類がこれまで経験したことのない悪夢が忍び寄っているようです。
果たして、人類の叡知がAIを超えることができるのか。
人類絶滅の第3の危機が、第1、第2の危機と相俟って、我々の想像以上に、間近に迫っているのかもしれません。

これが、心配性な一人の人間の単なる杞憂に過ぎないことを、祈るばかりです。

ところで、このエッセイにはChatGPTはいっさい関わっていませんが、ChatGPTなら、この警告にどんな反応を示すのでしょうか?








この記事が気に入ったらサポートをしてみませんか?