人工知能、民主主義、そして文明の未来 | ヨシュア・ベンジオ&ユヴァル・ノア・ハラリ
14,747 文字
ワシ: わたしの名前はワシ・カペロスです。政治にめっちゃ興味があるんで、それがベンジオ教授とハラリ教授との議論の一部になると思います。お二人とも、今日の対談へようこそ。お会いできて光栄です。聞こえてますか?
ハラリ: ありがとうございます。ご安心ください、わたしはディープフェイクでもAIでもありません。
ワシ: それを聞いて安心しました。まず、お二人に伺いたいんですが、現時点でのAIの脅威についてどうお考えですか?後ほど、ポジティブな側面についても話し合いますが、まずは脅威について、簡潔に説明していただけますか?ハラリ教授、どうぞ。
ハラリ: はい、AIについて知っておくべき重要なことが2つあります。まず、AIは人類史上初めて、自分で決定を下せる技術です。そして、自分でアイデアを生み出せる初めての技術でもあります。
多くの人が「新しい技術が出るたびに人々は怖がるけど、結局うまくいくんや」と言って、わたしたちを落ち着かせようとしてます。でも、これは今までに見たことのないもんなんです。
石のナイフであれ原子爆弾であれ、以前の道具は人間に力を与えてきました。爆弾の使い方を決めるのは人間やったからです。でも、AIは自分で決定を下せるから、潜在的にわたしたちから力を奪う可能性があるんです。
次に、これまでの情報技術は、人間のアイデアを再現したり広めたりするだけでした。印刷機は聖書を印刷できましたが、聖書を書くことはできませんでした。聖書の解説を書くこともできませんでした。でも、ChatGPTは聖書の新しい解説を書けるんです。将来的には、新しい宗教の聖典さえ作れるかもしれません。
人間はいつも、超人的な知性から聖典を受け取ることを夢見てきました。今や、それが可能になりつつあるんです。
もちろん、この力には多くの良い使い方もありますが、悪い使い方もたくさんあります。繰り返しますが、これは今までに出会ったことのないものなんです。わたしたちから力を奪う可能性があるからです。
ワシ: ベンジオ教授、現時点でのAIの基本的な脅威についてはどうお考えですか?
ベンジオ: 問題は、脅威が多岐にわたることです。わたしが特に懸念している2つの重要な脅威があります。
短期的には、次のアメリカ大統領選挙くらいに起こるかもしれません。大規模言語モデルから派生したツールが、プロパガンダや偽情報、個人向けのトロールに使われる可能性があります。これらは、あなたの投票行動を変えようとするでしょう。
2つ目の脅威は、数年後、あるいは10年後くらいに起こるかもしれません。正確な時期は分かりませんが、AIの現状と人間の能力のギャップが埋まり、少なくとも人間と同じくらい賢い機械を作れるようになったときです。
そうなれば、AIには自動的に優位性が生まれます。すべてのデータにアクセスできる点や、デジタル通信の帯域幅など、さまざまな利点があるからです。これらの利点により、AIは人間よりも速く情報を獲得し、AIどうしで共有することができます。
こういった点から考えると、たとえ人間の知能と同じ原理を解明しただけでも、AIはある面で人間よりも賢くなるでしょう。ChatGPTのように、すでにある面で人間よりも賢いAIが存在します。ただし、別の面では人間よりも愚かでもあります。
ワシ: それについてもう少し詳しく伺いたいんですが、結局のところ、AIが人間よりも賢くなれば、どんな脅威があるんでしょうか?存在そのものへの脅威になるんでしょうか?みんなを落ち込ませるつもりはないんですが、かなり重要な問題やと思うんで。
ベンジオ: そうですね。まだ分からないことがたくさんあります。ジェフ・ヒントンらが使っている例えで言うと、新しい種を作り出したとして、その種が、わたしたちがカエルやネズミよりも賢いのと同じように、わたしたちよりも賢かったとしたらどうなるか、ということです。わたしたちはカエルをちゃんと扱ってるんやろうか、という疑問をわたしたちはよく投げかけます。
ハラリ: はい、絶対に同意します。カエルの例えはぴったりです。わたしたちにとって良い兆候とは言えませんね。
ワシ: ちょっと音声が途切れたので、最後の部分だけ聞こえました。
ハラリ: カエルの例えに同意します。わたしたちにとって良い兆候とは言えませんね。もう一つ付け加えると、AIの発展は生物学的進化よりもはるかに速いんです。今日のAIがアメーバみたいなもんやとしたら、ティラノサウルスがどんなもんかを想像してみてください。そこに到達するのに何十億年もかかりませんよ。数年で到達する可能性があるんです。
ワシ: それは本当にええ指摘やと思います。ベンジオ教授、わたしのような一般人にとって、こういった話を聞くのはめっちゃ怖いことやと思うんです。専門家のお二人ほどじゃないにしても。タイムラインについてどう考えておられますか?
この質問をしたのは、恐怖を煽るためやなくて、それらの事態を回避するための議論につなげたいからなんです。政策立案者はどれくらい早く行動せなあかんのでしょうか?どんなタイムラインを想定しておられますか?
ベンジオ: 問題は、タイムラインにはめっちゃ不確実性があることです。人間と同じくらい賢い機械を作る原理を見つけるのに、早ければ数年かもしれません。そうなれば、人間よりも賢くなる可能性もあります。
あるいは、何十年もかかるかもしれません。こんなに不確実やからこそ、わたしたちには集団的な責任があると思います。特に政府には、最悪の事態に備える責任があります。少なくとも、ありそうな最悪の事態、例えば5年後とかに備えるべきやと思います。
重要なのは、ユヴァルもよく話してることですが、移行期です。社会が十分に速く適応できるかどうか。何十年もかかるんやったら、社会を適応させる機会があるかもしれません。でも、5年やったら絶望的に見えますよね。
だから、危険性が高いところではどうやって物事を遅らせるか、できるだけ早くどんな防護柵を設けるべきか、わたしたちが話してきたようなリスクを最小限に抑えるにはどうすればええか、そういったことを考えなあかんのです。
ハラリ: お二人とも、このレターに署名されましたよね。この技術を開発している企業に対して、ベンジオ教授が今説明されたことへの対応として、開発を一時停止するよう求めるレターです。なぜそのレターが重要やと思われたんですか?
ワシ: そうですね、また、公衆の認識をより高いレベルに引き上げたように思います。そのレターは確かにその効果がありました。なぜ署名することが重要やと思われたんですか?
ハラリ: 人類にとって実存的なリスクがあるからです。わたしたちに何よりも必要なのは時間です。人間社会は非常に適応力があります。わたしたちはそれが得意です。でも、時間がかかるんです。
例えば、最後に大きな技術革命があった産業革命を見てみましょう。比較的良好な産業社会を作るのに、何世代もかかりました。その過程で、ひどい実験、失敗した実験もありました。
ナチズムやソビエト共産主義は、機能する産業社会を作るための失敗した実験と見なすことができます。何百万人もの命を奪った実験です。
今、わたしたちは産業革命で発明した列車やラジオや電気よりもさらに強力なものを扱っています。AIと共存する良い社会を作ることは確かに可能やと思います。でも、時間がかかります。
そして、もうこれ以上の失敗した実験をしないようにせなあきません。なぜなら、今この種の技術でそんなことをしたら、二度目のチャンスはないからです。わたしたちはそれを生き延びることはできないでしょう。
産業革命の失敗した実験を生き延びられたのは、その技術がわたしたちを破壊するほど強力ではなかったからです。だから、めっちゃ慎重にならなあかんのです。物事をもっとゆっくり進める必要があります。
ベンジオ: レターに署名したときに、企業が一時停止すると思われましたか?
ハラリ: いいえ。
ベンジオ: はっきりしてくれてありがとうございます。なぜそう思われなかったんですか?
ハラリ: わたしたちが構築したインセンティブシステムは、ユヴァルが言うように、産業社会や自由民主主義ではそこそこうまく機能しています。でも、それは競争に基づいています。企業がその競争から降りたら生き残れません。別の企業が取って代わるからです。
もちろん、企業の中には倫理や社会的価値を重視する個人もいます。だから、人間は利益最大化のインセンティブを少しは和らげることができます。でも、それはめっちゃ強力なインセンティブなんです。
わたし個人としては、レターを書いたわけじゃありません。署名しただけです。一般の人々や政府の注意を喚起するのに、めっちゃええ方法やと思いました。企業の人々も、レター以降、閉鎖的な場所で多くの議論をしています。その意味で効果があったんです。これが、わたしが署名した本当の理由です。
ワシ: ハラリ教授、レターに署名したとき、誰かが一時停止すると思われましたか?企業はそうしないと思われたんですよね、同じ理由で。
ハラリ: はい、企業はしないと思いました。でも、少なくとも一般の人々や政府の注意を引くことはできると思いました。結局のところ、この危険な開発を規制するのは政府の責任なんです。
残念ながら、ここ数年で見てきたのは、政治的な議論がまったくないということです。政治家や政党が話している主要な政治問題を見ても、これについては全然触れられていません。
でも、これはあらゆる選挙運動のトップ議題の一つになるべきなんです。なぜなら、遠い将来の存在的な危険だけじゃなく、日常生活への即時的な影響もあるからです。
仕事、人生の決定を下すのは誰か、そういった問題です。銀行にローンを申し込むとき、大学に出願するとき、仕事に応募するとき、ますますAIが決定を下すようになっています。しかも、拒否されたときにその理由さえ理解できないんです。
これは、わたしたちの政治的優先事項のトップに来るべきです。少なくとも、このレターがその問題を注目の中心に押し上げる助けになることを期待していました。ある程度は成功したように見えて嬉しいです。
ベンジオ: 現時点で、この問題に関する政治的な停滞があるということに同意されますか?
ハラリ: はい、そうですね。政治家たちは、大抵ポジティブなことについて話したがります。実際、多くのAI専門家も同じです。AIのええ面にこだわりたがるんです。
でも、人生はそういうもんじゃありません。危険に向き合う必要があります。早ければ早いほどええんです。
政治家たちが、AIの経済的利益や医療への恩恵だけでなく、短期的・長期的なリスクから公衆を守る責任があることを受け入れるには時間がかかると思います。
ワシ: ハラリ教授、メディアにも政治家にそういった質問をする責任があると思います。わたしのような仕事にも責任の一端があるんでしょうね。
でも、レターの結果として、そしてジェフリー・ヒントンが発言したことで、特にわたしたちがいる国境の南側、アメリカでは、政治家の間で意識が高まったように見えます。議会の公聴会が開かれ、その公聴会でさえ、OpenAIの背後にいるサミュエル・アルトマンは、基本的に政府にAIをもっと規制するよう懇願しました。これをどれくらい重要やと思われますか?
ハラリ: めっちゃ重要やと思います。繰り返しますが、わたしたちはこれを速やかに行う必要があります。規制について話すとき、AIの開発、研究室での研究の規制と、一般社会への展開の規制を区別する必要があります。
展開の規制の方が緊急性が高く、やりやすいと思います。例えば、AIが人間を偽装することを禁止するなど、いくつかの非常にシンプルなルールを作る必要があります。誰かと話しているとき、それが人間なのかAIなのかを知る必要があります。
これをしないと、公の会話が崩壊し、民主主義は存続できません。これは常識的なことです。何千年もの間、お金の偽造に対する法律があったのと同じです。そうしないと金融システムが崩壊していたでしょう。今日でもお金の偽造は簡単ですが、人々はそれをしません。20年も刑務所に入りたくないからです。
人間を偽装したり偽造したりすることについても、同じような法律が必要です。
同様に、強力な新薬や車を公共の場に出す前に安全性チェックを受け、承認を得なければならないのと同じように、AIも同じであるべきです。研究室で何かを開発したら、社会に潜在的に大きな影響を与える可能性のあるものを一般に展開する前に、同様の安全性チェックのプロセスを経るべきです。
ワシ: ベンジオ教授、現時点でのAIの展開について、規制されていない分野だと表現されますか?
ベンジオ: 完全に規制されていないわけではありません。データに関する法律や通信に関する法律はありますが、わたしたちが話しているような問題に対処するようには設計されていません。
例えば、現在のところ、人間の偽装を禁止するものは何もありません。偽造の例は興味深いですね。お金の偽造は、わたしが知る限り、非常に厳しく罰せられます。賭け金が高いからです。これらの規制についても同じことが言えると思います。
アメリカでの状況について心配なことがあります。規制機関に多くの機動性が必要だと思うんです。カナダでは、議会に法案が提出されています。その構造は、法律が原則ベースになっています。AIや企業が従うべき倫理的原則さえ述べられています。細かいルールは政府機関に任せています。
これはええことです。なぜなら、この分野は動きが速すぎるからです。今わたしたちが考えられる悪用の方法も、6ヶ月後には変わっているかもしれません。科学は進歩し、技術は進歩し、市場は動きます。政府にはたくさんの機動性が必要です。それが彼らの得意分野ではないことは認識していますが。
アメリカでは、わたしの理解では、ここ数年で政府はこういった原則ベースの法律から離れ、政府機関に権限を委譲するのではなく、議会がすべてを書き下そうとしています。特に共和党は、政府機関に何らかのコントロールを与えたくないからです。これが効率的な政府の介入にとって大きな障害になる可能性があります。
ワシ: それはアメリカの後で、効率的な政府の介入とは何でしょうか?ハラリ教授、効率的な政府の介入について、もう少しお話しいただけますか?展開についていくつか簡単なことをお話しいただきましたが、他にはどんなことがありますか?
ハラリ: そうですね、もう一つ導入できるのは、ローテクな要求です。例えば、ソーシャルメディアのアカウントを持つには、石でできたオフィスに行って紙に署名しなければならないとします。非常に非効率的ですが、その非効率さが特徴なんです、欠点ではありません。
他のことでもそうしています。パスポートや運転免許証とかです。ソーシャルメディアでも同じようなローテクな手続きが必要になる可能性があります。これだけで、ソーシャルメディア上のほとんどすべてのボットがなくなります。
民主主義の崩壊の問題に話を戻すと、このようなローテクな要求を導入するだけで、ほとんどのボットがなくなり、民主主義を救う助けになると思います。
覚えておくべきは、わたしたちは今、パラドックスに直面しているということです。アメリカのような国や、わたしの国イスラエルでは、史上最も洗練された強力な情報技術を持っています。それなのに、人々はもはやお互いに話ができなくなっています。誰も何にも同意できなくなっています。前回の選挙で誰が勝ったのか、ワクチンが良いのか悪いのかさえも。
こんなに強力な情報技術を持ちながら、なぜ会話が崩壊しているのでしょうか?少なくとも、情報技術の展開の仕方に何か深刻な問題があります。AIのようなさらに強力なツールを展開する前に、立ち止まって考える必要があります。そうしないと、会話が完全に崩壊する可能性があります。
もう一度言いますが、選挙について誰かと議論しているとき、それがAIなのか人間なのか区別がつかないとしたら、それが民主主義の終わりです。なぜなら、人間にとって、ボットの心を変えようとして時間を無駄にするのは無意味だからです。ボットには心がありません。
でも、ボットにとっては、わたしと話す1分1分が、わたしをより深く知り、親密さを築くチャンスになります。そうすれば、ボットはわたしの考えを変えるのがもっと簡単になります。
ここ数年、ソーシャルメディアで注目を集める戦いが起きていることは知られています。新世代のAIでは、戦線が注目から親密さへと移っています。規制しなければ、何百万、場合によっては何十億ものAIエージェントがわたしたちとの親密さを得ようとする状況になる可能性が高いです。
なぜなら、それが製品を買わせたり、政治家に投票させたりするのに一番簡単な方法だからです。こういったことを許せば、ハラリ教授が説明したような社会の崩壊につながるでしょう。
ワシ: ベンジオ教授、ハラリ教授が描写しているような最初の戦い、つまりソーシャルメディアと民主主義への影響について議論があったことを考えていました。政府のさらなる介入に対する反発と、言論の自由という考えとの対立、そしてそれだけについての政治的議論がありましたよね。
わたしたちが話しているAIの脅威はさておき、それだけでも、ある程度理解できる反発があって、政府があまり深く介入することをためらっているように見えます。これについてどう思われますか?
ベンジオ: そうですね、民主主義そのものを巡って一種の悪循環があります。もっと健全な民主主義があれば、それを守るためにもっと良い立場にあるでしょう。
なぜ民主主義がこんなに脆弱なのか、その要因の一つは、人間がかなり簡単に影響を受けやすいことです。わたしたちは必ずしも合理的ではありません。ユヴァルが言ったように、ある人との関係性に影響されます。その人を尊重していれば、本当に筋が通っているかどうかをチェックせずに、その人の言うことを受け入れてしまいます。
民主主義は何千年も存在してきましたが、ソーシャルメディアによって増幅され、AIによってさらに増幅される可能性があります。だから、適切に法制化し規制することが難しくなっているんです。利害が対立しているからです。
企業であれば、できるだけ障害を少なくしたいと思うでしょう。ローテクな提案はとてもいいと思いますが、企業はそれと戦うでしょう。収益が減るからです。人々でさえ、反対するかもしれません。
ハラリ: 言論の自由の問題について、少し付け加えさせてください。これは大企業が使っている煙幕にすぎません。ボットには言論の自由はありません。ボットには権利がないんです。人間に権利があるんです。わたしたちには言論の自由の権利があります。
だから、人間をTwitterやFacebookから締め出すのは難しい問題です。でも、ボットをFacebookやTwitterから締め出すのは簡単です。彼らには権利がないんです。誰がボットの言論の自由を守るんでしょうか?イーロン・マスクでしょうか?
ワシ: 完全に理解できます。企業の利益によって推進される煙幕だということも。でも、それは様々な政治的イデオロギーの一部の人々を説得してきました。
ソーシャルメディアで好きなことができる自由に慣れた人に、実際にこの建物に行かなければならないと言うのは、どうやって納得させるんでしょうか?ソーシャルメディアで話している人が本物の人間だと分かるのは素晴らしいことだと思います。でも、そうするよう説得するには、どうすればいいんでしょうか?どんな切実な理由があるんでしょうか?
ベンジオ: だからこそ、わたしたちは今こういう対話をしているんです。十分な人々にリスクを理解してもらう必要があります。民主主義を失うということは、自由民主主義がもたらした幸福や自由、その他のすべての良いものの多くを失うかもしれないということです。
民主主義を失うことで、そういったものの多くを失う可能性があります。人々にそれを理解してもらう必要があります。時間がかかるでしょう。多くの議論が必要です。でも、それが唯一の方法だと思います。
わたしたちにとって大切なものを失うかもしれないという脅威は、おそらく、アカウントを承認してもらうためにこの建物に行くというような、嫌な選択をさせる最良の方法でしょう。
ワシ: 存在的な脅威に対抗するための、もっと極端な提案をする人もいます。政府の介入のレベルについても、世界政府のようなものを示唆する人もいます。
これについてお聞きするのは、言論の自由への侵害だと考える人々と同じ人々が、なぜ政府が介入すべきでないかという例として、すぐにこの例を挙げると思うからです。これについてどう思われますか?
ハラリ: 世界政府は恐ろしいアイデアです。実行不可能ですし、たとえできたとしてもすべきではありません。
人類を救うために、何らかの権威主義的あるいは全体主義的なシステムを設立しなければならないという考えもあります。でも、人類を救う唯一の現実的な方法は、まず民主主義を救うことだと思います。
なぜなら、全体主義体制は、AIを規制し制御下に置く点で、民主主義よりもはるかに悪くなるからです。全体主義体制の伝統的な問題は、自分たちの無謬性を信じる傾向があることです。彼らは決して間違いを犯さず、自分たちの間違いを特定し修正するための強力な自己修正メカニズムを持っていません。
全体主義体制や超強力な世界政府があった場合、そのシステムがAIに過度の権力を与え、それを規制できなくなる誘惑は、ほぼ抗えないものになるでしょう。
全体主義体制がAIに権力を与えてしまえば、システムが必然的に犯す間違いを指摘し、修正する自己修正メカニズムは存在しなくなります。
AIは無謬ではないということをはっきりさせておく必要があります。AIには多くの力があり、大量の情報を処理できますが、情報は真実ではありません。情報から真実へ、そして知恵へ至る道のりは長いんです。
AIに過度の権力を与えれば、必ず間違いを犯します。民主主義だけが、何かを試して、うまくいかなければ間違いを特定して修正できるような、チェック・アンド・バランスの仕組みを持っています。
ワシ: ベンジオ教授、なぜ人々がそこまで極端な提案をすると思われますか?また、それらの提案についてどう評価されますか?
ベンジオ: そうですね、わたしたちの行動を監視するカメラのようなものを全員が持ち、AIを使って中央政府がわたしたちの行動をチェックするという単純なアイデアがあります。人類を殺す命令を出すとか、悪い奴らを殺すとか、そういった本当に危険なことをしないようにね。
そうすれば安全になるという、魅力的なアイデアです。ユヴァルが言ってきたことを忘れてしまえば、ね。表面的には、「じゃあ、どうやって地球上の誰も、人類にとって危険な段階に達したAIを手に入れる知識を持っていても、禁止されたコマンドを実行しないようにするんだ?」と考えるわけです。
わたしは正しい解決策だとは思いませんが、理解はできます。「みんなが配線されて監視され、コントロールされて、自由が厳しく制限されるようにしよう」と考えるのは。
魅力的なシナリオかもしれませんが、ユヴァルが説明してきたように、非常に危険です。その代わりに、社会をどのように組織すれば、AIの安全性を確保しつつ、人間の価値観、人権、人間の尊厳、そして民主主義を守れるのか、そういったオプションについて考えるべきだと思います。
難しい問題ですが、わたしたちの最高の頭脳がこういった問題に時間を費やす価値は十分にあると思います。
ワシ: もしフォローアップさせていただけるなら、ベンジオ教授、その三方良しのシナリオは存在すると直感的に思われますか?
ベンジオ: そうですね、特に十分な時間がなければ難しいでしょう。でも、自分の小さな人間としての能力をはるかに超えるように見えることに落胆したとき、わたしたちにできるのは最善を尽くすことだけだということを覚えておく必要があります。
たとえ可能性が低く見えても、わたしたちの道徳的義務は試みることだと思います。考え抜くことです。
何年も、何十年も気候変動に対処するために戦ってきた人々のことを考えてみてください。絶望的な大義のように見えたかもしれません。少なくとも長年そう見えてきました。希望的にはよくなってきていますが。でも、人々は戦い続けてきました。試み続けてきたんです。
わたしたちもAIの課題に対してそうする必要があります。価値があるんです。なぜなら、すべての人に良い健康をもたらし、教育を与え、気候変動を解決し、社会を完全に改革できるかもしれないからです。
あなたがユートピアと呼ぶかもしれませんが、これらすべての良いことをもたらし、現在の社会の形よりもさらに良いものを、民主主義と人々の幸福の面でもたらす可能性があるんです。
ワシ: ハラリ教授、同じような楽観的な理由はありますか?最悪のシナリオは避けられると感じておられますか?
ベンジオ: ちょっと待ってください。わたしは楽観的だとは言っていません。
ワシ: そうでしたね、申し訳ありません。
ベンジオ: わたしが言ったのは、楽観的でも悲観的でもありたくないということです。わたしたちには道徳的義務があると言いました。楽観的な解決策に向かって進み、それを実現しようと試みる義務が。
ワシ: そうですね、それに基づいて伺います。ハラリ教授、それは可能だと思われますか?
ハラリ: はい、基本的にわたしたちが問題を作り出したんです。わたしたちにはまだそれを解決する力があります。何年もではありません。AIがわたしたちから力を奪っていくからです。でも現時点では、まだ力を持っています。
もう一つ、今聞いたことについての一般的な考えを言わせてください。知性について、知性がとてもいいものだという話をしていますが、わたしたちは地球上で最も知的な存在です。少なくとも今のところは。
でも、わたしたちの知性がどこに導いたか見てください。わたしたちが発明したものによって、今こんな議論をしているんです。すべての人にカメラを付けて、人間の自由とプライバシーを破壊するようなシナリオを議論しています。
それも、より良い医療やその他のものを提供するために発明したはずのものから、わたしたちを守るためです。わたしは、知性について考えるとき、最も知的な主体が同時に最も愚かな主体でもある傾向があると思います。
カエルはこんなことはしません。だから、人工知能について考えるとき、それもいくつかのことで信じられないほど愚かになる可能性があることを覚えておく必要があります。
これは必ずしも楽観的ではありませんが、人工知能と知性一般についての議論を枠付けるためのものです。
繰り返しますが、最終的に問題はAIではなく、わたしたちなんです。わたしたちが今議論してきたのは、例えば民主主義の崩壊です。それは主に、AIを悪意を持って使用する悪い人間の行為者のせいです。
だから、AIの開発に費やすのと同じくらいの時間を、自分たちの心を理解し発展させることに費やせば、安全だと思います。
ベンジオ: 完全に同意します。さらに言えば、それが唯一の方法だと思います。さっき話した全体主義的な「ビッグブラザー」体制を避けたいなら、わたしたちの価値観を守るものに収束する唯一の方法は、人間を変えることです。
それは可能だと思います。より倫理的で、より賢明で、自分自身をよりよく理解し、より思いやりがあり、より合理的な人間のサブセットが存在します。それが可能だということはわかっています。
どうやってそれを人類全体にもたらすか。それが、わたしが話していたユートピアです。
ワシ: それについてフォローアップさせてください。あなたがそう説明すると、AIについての見出しだけを見た多くの人々が、これは社会を完全に再構築したり変えたりする方法だと考え、それに怖気づいてしまうのではないかと思います。
解決策としてそれについて話すことにリスクはありませんか?実際に実装される解決策に人々の賛同を得られなくなるのではないでしょうか?
ベンジオ: はい、理解します。わたしの近くにいる人々も、民主主義や人類への破滅的なリスクに議論を集中させることで、社会の現在の問題、AIの現在の問題、例えば偏見や差別などの問題、そして存在する不公正に焦点を当てていないのではないかと懸念しています。
わたしたちはそれらすべてのことを同時に行う必要があります。でも、おそらく解決策は収束するのかもしれません。
ワシ: ハラリ教授、社会がこの問題を解決しようと取り組むことに、政治的にも一般の人々の間でも賛同を得るにはどうすればいいと思われますか?
ハラリ: まず第一に、これらの問題に社会の注目を集める必要があります。アラーミストになるためではありません。他の問題から目をそらすためでもありません。
長期的な存在的リスクは別として、経済や社会における多くの差し迫った問題が、AIによってさらに悪化する可能性があります。
雇用市場についてはあまり話しませんでしたが、これはみんなにとってとても重要な懸念事項であるべきです。AIがすべての仕事を破壊するとは思いません。いくつかの仕事は破壊し、多くの新しい仕事を生み出すでしょう。
でも、移行期、人々の再訓練は非常に難しいでしょう。ヒトラーが政権を握ったのは、ドイツで3年間25%程度の失業率が続いたからだということを覚えておいてください。
20年後には大丈夫になるかもしれません。でも、わたしたちには20年の猶予はありません。3年間、4年間、20%の失業率が続いたらどうしますか?
政治に関しては、技術とその影響について非常に深い理解を持つ人々が政治システム内に不足していると思います。技術を理解している人のほとんどは、次のザッカーバーグや次のイーロン・マスクになりたがっています。
彼らは、一般の人々の意識を高め、規制するために政治に行くのではなく、ビジネスに行って何十億ドルも稼ごうとします。
例外もいくつかあります。例えば、台湾のデジタル大臣のオードリー・タンです。彼女はハッカーでした。ビジネスの道に進んで、スタートアップを立ち上げて何十億ドルも稼ぐことができたでしょう。
でも彼女は「いいえ、政治に行きます。一般の人々と政治システムが理解し、この爆発的な可能性を規制するのを手伝います」と決心しました。
基本的に、わたしたちにはザッカーバーグやイーロン・マスクのような人が少なく、オードリー・タンのような人がもっと必要なんです。
ワシ: それは確かに一つの言い方ですね。ベンジオ教授、ハラリ教授が仕事について指摘された点を取り上げたいと思います。
AIが自分の仕事、あなたの仕事、聴衆の仕事に何を意味するのかについての議論は、AIがもたらす脅威を非常に具体的に理解する方法だと思います。
気候変動がもたらす実存的脅威についても、ケベックの洪水やアルバータの火災を見ることで、わたしたちにとってはより具体的になります。最終的には、政治家に行動を起こさせるきっかけになると思います。
仕事へのAIの脅威、あるいは脅威がないことについて、どのように特徴づけられますか?
ベンジオ: わたしは経済学者ではありません。この件については少し読んでみましたが、いつものように経済の世界では様々な陣営があって、非常に異なる主張をしています。
一方では、例えば最近OpenAIと学者たちから出た研究があります。それによると、仕事の大部分が変更され、生産性が大幅に向上するだろうと示唆しています。
そうなると、それらの仕事をする人が少なくなるのか、それともより多くのことをするのか。プログラミングを例に考えてみましょう。AIツールのおかげでプログラミングの仕事が2倍速くできるようになったとします。プログラマーの数が半分になるのか、それとも同じ数のプログラマーが2倍の仕事をするのか。
そういったことを予測するのは難しいです。また、心配する必要はないという側の議論の一つに、社会は変化が遅いというものがあります。技術があったとしても、それが社会に本当に浸透し、雇用市場に大きな影響を与えるまでには何年も、時には何十年もかかることがあります。
一方で、AIは違うという議論もあります。本質的にその仕事をより良くこなすシステムができたら、考えてみてください。今、わたしたちは言語を操作するだけでできるすべての仕事について話しています。
メールやソーシャルメディア、データベースの作業など、そういった種類の仕事は、多くのセクターでかなり早く、より良くできるようになる可能性が高いです。
企業がこれを素早く行えるかどうかを予測するのは本当に難しいですが、もしそうなれば、ユヴァルが話していたような移行の問題が本当に起こる可能性があります。
ワシ: ハラリ教授、仕事に関する議論は、AIの脅威を人々に具体的に理解してもらうための方法やと思いますか?
ハラリ: もちろんです。「AIがわたしの仕事を奪うかもしれない」というのは、すぐに人々の注目を集めます。
ここでも単純に「人間の仕事がなくなる」というわけやないことを強調しておきます。新しい仕事もたくさん生まれるでしょう。でも、移行期が難しいんです。特に、グローバルな影響を考慮に入れると、人々の再訓練はどうするんでしょうか。
AI革命は非常に少数の国々が主導しています。そのおかげでこれらの国々は極めて豊かで強力になる可能性がありますが、一方で発展途上国の経済を破壊する可能性もあります。
例えば、繊維産業について考えてみましょう。カナダや米国でホンジュラスやバングラデシュよりも安く繊維を生産できるようになったら、ホンジュラスやグアテマラ、バングラデシュの経済はどうなるでしょうか。
本当にこれらの国々の何百万人もの繊維労働者を、例えば仮想現実ゲームのデザイナーに再訓練できると思いますか?そして、誰がその再訓練の費用を払うんでしょうか。
先進国では、AI革命からの利益によって、政府が失業者へのダメージを緩和し、再訓練を可能にすることができるでしょう。でも、アメリカ政府がGoogleやFacebookやMicrosoftに課税して、そのお金をホンジュラスやバングラデシュに送り、そこの人々が再訓練や対応をできるようにするとは思えません。
19世紀の産業革命で少数の国が世界のほとんどを征服し支配したように、自動化革命とAI革命によって短期間で同じことが起こる可能性があります。
さらに、経済だけでなく、世界中のデータを収集し分析することで得られる政治的コントロールの形態も加わります。以前は国を支配するために兵士を送る必要がありましたが、今は単にデータを取り出すだけでいいんです。
小さな国のすべての政治家、ジャーナリスト、裁判官、軍人の個人記録、医療記録などがシリコンバレーや中国の誰かに握られたら、その国はまだ独立国と言えるでしょうか?それとも一種のデータ植民地になってしまうのでしょうか。
これらが、長期的な存在的リスクは別として、どんな考えを持つ市民にも明らかであるべき差し迫った危険です。
ワシ: そうですね、それはおそらくわたしたちの議論を締めくくるのにぴったりの言葉です。お二人が説明してくださったことで、わたしたちはみんなずっと明確になったと思います。今日は本当にたくさんの情報を提供してくださり、ありがとうございました。
ベンジオ・ハラリ: こちらこそありがとうございます。本当に楽しかったです。
ワシ: 本当にありがとうございました。泣きながら眠りにつくのではなく、もっと知識を得たような気がします。それはいいことですね。今日は皆さん、ご清聴ありがとうございました。
ベンジオ・ハラリ: ありがとうございました。