Max Tegmark interview: Six months to save humanity from AI? | DW Business Special 和訳

ドイツ連邦共和国国営の国際放送事業体のDeutsche Welle(DW)がGPT-4以上の学習の停止を公開書簡で求めたFuture of Life Instituteの共同創設者のマックステグマーク氏にインタビューをしている。

つい最近もLex Fridman氏との対談でAIの今後のガバナンスについてどうするべきか、AGI(汎用人工知能)の話題やAGIの価値観を人間に沿わせるためのAIアライメントの話題などが話されている。


書き起こし元
https://www.assemblyai.com/playground/transcript/6obd3w3hye-7b0c-43bd-8a0c-3f37c92cb44b

SPEAKER A=マックステグマーク氏
SPEAKER B=DW News インタビュアー


SPEAKER A

これはSFではありません。知性は人間の脳の中にしか存在しない不思議なものではありません。私たちも作ることができるものなのです。私たちは基本的に、私たちよりもはるかに賢い、地球を共有しなければならないエイリアンの頭脳を構築していたのです。そうでしょう?悲観的なのは、この崖に向かってレースを進めている人たちが皆、崖があることさえ否定しているからです。しかし、彼らは止めることができません。なぜなら、競合他社に昼食を食べられ、株主から殺されるだけだからです。そうでなければ、地球上に人類は存在しないかもしれない。これは軍拡競争ではありません。これは軍拡競争ではなく、自殺競争なのです。

スピーカーのBさん

人工知能に何十億ドルもの資金が注ぎ込まれています。しかし、民間企業は、より優れた、いわゆる神のような人工知能を作ろうとする競争の中で、世界を危険にさらしているのでしょうか?今日のゲストはマックス・テグマークです。スウェーデン系アメリカ人の物理学者、宇宙学者、機械学習研究者です。マサチューセッツ工科大学の教授であり、Foundational Questions Instituteのサイエンティフィック・ディレクターを務めています。マックス、ようこそ。本当に具体的な話に入る前に、まず一般的な質問から始めたいと思いますので、できるだけ簡潔に答えていただきたいと思います。その質問とは、一握りの企業が私たちを危険な道に導いているのではないかというものです。

スピーカー A

はい、これで十分でしょうか?

スピーカ B

じゃあ、前に進もう。前に進みましょう。まずは、少し背景を説明しましょう。アメリカのOpenAI社が昨年末にテキスト生成モデルチャットGPTを公開してから、ここ数ヶ月で事態は急速に進展していますね。さて、それに続いてここ数週間、さらに進化したAIモデル「GPT Four」をベースにしたチャットボットが更新されました。GoogleやAlibabaを含む企業は、この間、独自のAIチャットボットを競って公開し、ウェブブラウザやその他のアプリケーションに組み込むことを計画しています。さて、ゲストのマックス・テグマークに話を戻すと、そこでは一般的な質問に対して一言の回答があった。ここでは、その詳細に入りたいと思います。その前に、ここで最前線にいるあなたにお聞きしたいのですが、Chat GPTのような新しい生成AIモデルは、どれほどのブレークスルーなのでしょうか?

SPEAKER A

メディアでは画期的に見えることでも、実際には、長い間行われてきたAIに関する仕事の着実な進展なのです。人工知能という言葉はマサチューセッツ工科大学の教授によって作られましたが、長い間、人々は、これは我々が思っていたよりもずっと難しいことだ、と気づいていました。そして徐々に、人間にできて機械にできないことのリストが、どんどん短くなっていきました。アラン・チューリングが「チューリング・テスト」と呼んで有名な聖杯の1つは、人間のように話すことができるようになることです。そして、これが私たちが見た大きなブレークスルーです。現在では、GPT4やこのようなツールに表れています。

スピーカ B

あなたは5年以上前に『Life 3.0』という本で、AIの可能性について書いていますね。今、私たちが目にしている開発は、その本を書いたときのあなたの予想と比べてどうでしょうか?

スピーカー A

私がこの本を書いたときに予想したよりも、さらに速く進んでいると言えるでしょう。テクノロジーの力の成長という点では、残念ながら、政策立案者が私たちに歩調を合わせ、実際に有意義な方法で規制し、すべてのものを安全に保つようにするという点では、私が期待していたよりもずっと遅かったのです。

スピーカー B

企業同士が競争するために、これほど早く動くことへのプレッシャーは織り込み済みだったのでしょうか。

SPEAKER A

そうですね。例えば9年前、私たちが初めてAI安全会議を開催し、企業のリーダーたちと懐疑的な人たちを引き合わせたときの悪夢のシナリオは、このようなレースが起こることでした。スピードのために手抜きをしなければならないと感じるようなレースには参加しないように。しかし、悲しいかな、今まさにそのような状況になっている。その結果、さまざまな企業のリーダーと話をしても、リスクを理解し、正しいことをしたいと思っていることは明らかです。そして、リスクについて公に声を上げていることは賞賛されるべきです。しかし、彼らは立ち止まることができません。なぜなら、競合他社に昼食を食べられ、株主から殺されるだけだからです。

スピーカーのBさん

数週間前、ゲストのマックス・タケマークを含むAIの専門家たちが、AI研究所に対して、少なくとも6カ月間は先進モデルの開発を一時停止するよう求める公開書簡に署名したことを、視聴者の皆さんは覚えていることでしょう。さて、その署名の中にはイーロン・マスクやAppleの共同創業者であるスティーブ・ウォズニアックも含まれています。この書簡は、企業がまさにマックスが話していたようなものを開発しようと競争するあまり、高度なAIがもたらす危険性が見過ごされていると警告している。そして、選挙で選ばれたわけでもない技術者たちが、本質的に采配を振るうべきなのかどうかを問うています。Future of Life Instituteは、この書簡を公開したゲストのFuture of Life Instituteのあなたの社長であるマックス・テグマークに返します。本題に入る前に、この手紙は期待通りの結果をもたらしたのでしょうか?これまでのところ、どのようなことが見えてきましたか?

SPEAKER A

はい、その通りです。個人的には、この手紙が、はじめてこの問題についての議論を主流化し、最も危険な研究を遅らせるのに役立つことを非常に望んでいました。例えば、深層学習の父の一人であるジョシュア・ベンジオ教授が手紙に署名したことが、非常に重要です。彼が一番初めに署名したのです。彼が署名したことで、他の多くのAI研究者も署名し、この問題が主流になったことは明らかです。もう誰も言えないでしょう。ただの無知なルッダイトたちが遅らせたがっているだけです。この分野の創始者たちも、AIが持つ素晴らしいメリットを完全に理解していて、がん治療などに役立つことができることを認識しています。しかし、技術の進歩に合わせて、この技術を良い使い方に導くための規制や知恵を確実にすることができる場合に、私たちはそのメリットを得ることができます。

スピーカー B

批評家たちは、これをAIの誇大広告と呼んでいます。彼らは、本質的に、Chat GPTのようなチャットボットは工学的な成果だと言っています。画期的とは言えないと。番組の冒頭で、あなたは、これらの企業は危険な競争にさらされていると言いましたね。あなたは、そう、危険だと言いました。なぜ危険なのでしょうか?これらのツールは素晴らしいものです。一般の人が初めて目にするものであり、おそらくそこには明確な驚きの要素があるのでしょう。しかし、理論上、AIを危険なものにするような一般的な知能には、まだはるかに及ばないというのは事実ではないでしょうか。

スピーカー A

もちろん、私たちのすべての仕事を私たちよりもうまくこなせる人工的な一般知能には及ばない。最大の危機は、現在のシステムではない。私たちがスピードを落とさない限り、このシステムがやがてもたらすことになるのです。それは、1944年に核兵器について警告するようなもので、作れることは分かっていても、まだ完全に作られていないのです。しかし、誇大広告だと言う人に質問ですが、1年後、2年後にAIができないと確信していることをいくつか書き出してみてください。そして、まだ危険ではないと言う人に賭けをしましょう。さて、チャットボットと話した結果、おそらく自殺したベルギーの男性はどうでしょう?民主主義に起きたおかしなことはどうでしょう。もっとローテクなAIが、推薦アルゴリズムによって、恐ろしいフィルターバブルを作り出し、分極化が進み、理解よりも憎しみで社会が分断されつつあります。これらは現実の危険であり、すでに起こったことなのです。AIが原因なのです。つまり、これはちょっとした警告の一撃なのです。これらのシステムがより強力になるにつれて、私たちは社会のコントロールをどんどん失っていくことになります。

スピーカーのBさん

AIの将来の能力について語るときに怖いと思うこと、あるいは、これまで見てきたAIの中で、さらに発展しそうな能力の一端を示すような例を挙げてください。

SPEAKER A

少し前にある人と話したのですが、例えば、AIを使って病気を治すのに役立つ薬を開発し、どうすれば人をできるだけ長生きさせることができるかを考えていました。そして彼は、テストとして、マイナス記号を入れたんです。つまり、人を救うのではなく、人を殺すように仕向けようとしたのです。そして早速、人類が知る限り最も強力な化学兵器のひとつであるVXが発明されたのです。このことから、知性には力が伴うことがわかります。知性は悪でも善でもありません。それは道具なのです。そして、悪者がそれを悪いことに使わないようにする必要があるのです。スーパーマーケットで手榴弾が売られていないのは、誰もがこれをうまく管理できる知恵を持っているわけではないからです。そうですね。そして、生物学や物理学と何ら変わらないとAIが考えるのはおかしいでしょう。私たちはスーパーマーケットで核兵器を売っていません。危険な合成生物学の研究を行う人には、安全規制があります。AIにも同じことが必要なのです。それは以前から行われてきたことです。私たちはそれを行うことができます。ただ、もちろん、それをしないようにという商業的な圧力がたくさんあります。タバコを規制しないようにタバコ会社から商業的圧力があったように。

スピーカ B

このような複雑な技術に対して、悪い面は良い面の裏返しであるとして、具体的にどのような枠組みを作ればいいのか。AIをコントロールする枠組みを作ることも可能なのでしょうか?あるいは、どうなのだろう?AIがAIをコントロールする必要があるのか?規制のための構造を作るというのは、具体的にどのようなものなのでしょうか?

SPEAKER A

さて、私たちは生物兵器を禁止することに成功しました。ヒトのクローンを作ることも、ヒトの生殖系列に手を加えることも禁止することに成功しました。ですから、私たちはこの方法を知っています。主要人物を集め、建設的な話し合いを行い、そこから進めていくのです。ただ、この政策形成の進捗プロセスが追いつくには、もう少し時間が必要です。そのため、私たちの公開書簡では、6ヶ月間の一時停止を要求しています。

スピーカ B

半年でいいのか?手紙には最低でも6ヶ月と書いてありましたよね。それは、ただ単に何かを持つために選んだ期間なのでしょうか、それともなぜ6ヶ月なのでしょうか?

スピーカ A

そうですね。どこかで始めなければならない。そして、このスペースで何かをスローダウンさせるのは初めてのことで、人々に息抜きをさせ、そこから出発することができるのです。また、もっと大きな絵を見失わないようにする必要があると思います。これは、映画のようなものです。上を向くな。どうでしょう。見たことある?もちろんです。小惑星があるところだ。

SPEAKER B

地球に向かっているんですよね?

SPEAKER A

ええ、地球に向かっています。そうなんだ。小惑星はない。見上げるな。心配しないでください。もっと大きな小惑星のような脅威があります。科学者たちは、気候変動を心配するのと同じくらい長い間、心配し続けてきました。実は。人間よりずっと賢い機械を作れば、一部の人間がそれを使って民主主義を殺し、文明を乗っ取ってしまうかもしれないということです。その後まもなく、機械が賢くなるにつれて、一部の人間が機械を完全に制御できなくなる可能性が高いのです。私たちは基本的に、私たちよりもはるかに賢いエイリアンの心を作り、そのエイリアンと地球を共有することになるのです。そうですね。そして、私たちのことなど気にも留めない、もっと賢い異星人と地球を共有しなければならないのは、本当に不都合なことなのです。ネアンデルタール人に聞いてみてください、それがどうなったかを。ですから、私のビジョンは、その通りです。私たち人類は、これらの機械をコントロールし続けられるよう、安全対策を講じる必要があります。そして、いわゆるAIアライメントに非常に熱心に取り組んできたにもかかわらず、私たちは失敗してきました。私自身、AIの研究者として告白しますが、ここまで解決するには、もう少し時間が必要です。そうでなければ、数十年以内に地球上に人類がまったくいなくなるかもしれません。

スピーカー B

つまり、私を含め、何人かの視聴者がこれを見て、時々、例えば最近読んでいたように、騙す要素まで見せてくれるような、できることに驚かされることがあると思うのですが。これは、人々がまだ見ていないから、理解しにくいだけだと思いますか?このようなアプリケーションを見るにつけ、理解できるようになるのでしょうか。そうすれば、より多くの政策に対する緊急性が増すと思いますか?

スピーカー A

でも、それでは手遅れかもしれません。残念ながら、人々がAIを目にした時点で、それは私たちよりもずっと賢いんですね。ホモ・サピエンスがネアンデルタール人よりも、ネアンデルタール人よりもずっと賢くなった頃には、ネアンデルタール人はちょっとダメになっていたようなものです。例えば、私たち人類が、地球上の哺乳類の半分以上の種をすでに絶滅させてしまったとします。今さら、他の種が「あの人類は私たちより賢い」と言っても手遅れです。彼らは私たちの熱帯雨林を伐採している。私たちはそれに対して何かしなければならない。私たちに支配される前に、もっと早くから考えておくべきだったのです。今こそ、この問題を正しく理解するチャンスなのです。あまり悲観的になりたくはないのですが......。核戦争のような、マイナス面ばかりでプラス面がないような話ではないのです。もしうまくいけば、大きなプラスがあるのです。私が愛する文明の全ては、人間の知性の産物です。ですから、私たちの知性を機械知能で増幅し、気候変動を解決し、あらゆる病気を治し、貧困をなくし、次の選挙期間だけでなく、何十億年にもわたって人類が繁栄できるようにすることができたら、それは素晴らしいことです。そのような機会を、ちょっとだけ早く発表しようとするあまり、無駄にしないようにしましょう。安全に、そしてすべてのメリットを享受できるように、計画的に行いましょう。

スピーカ B

しかし、企業が互いに競争していること、現時点では規制がないこと、国民の意識が高まり規制が進んだとしても間に合わないこと、国家が互いに競争していることを考えると、一般的に悲観的であると言うのは妥当でしょう。また、明らかに軍事的な応用が可能です。これを見ると、あなたはかなり悲観的だと言えるでしょう。

スピーカー A

悲観的なのは、この問題を解決する方法がないからではありません。悲観的なのは、この崖に向かうレースを推進している人たちが、基本的に皆、崖があることや小惑星があることを否定しているからです。だからこそ、あなたがしていることはとても価値があるのです。このレースは、最終的には誰もが勝てるようなレースではない、ということを人々に理解させているのです。もしコントロール不能なレースをすれば、全員が負けることになる。人類を絶滅に追いやるAIがアメリカ人だろうがドイツ人だろうが中国人だろうが、ドイツにとってはどうでもいいことなんです。本当にどうでもいいことなのです。重要なのは、誰もそれをせず、この素晴らしいテクノロジーを使って、地球上の全人類が劇的に良くなるようにすることです。これは軍拡競争ではありません。これは軍拡競争ではなく、自殺競争なのです。このことを人々に伝えることができれば、誰もが競争をやめ、このすべてを安全にする方法を見つけるための正しいインセンティブを持つことができるようになると思うのです。

スピーカーのBさん

別の側面に話を移したいと思いますが、その前に技術的な質問があります。あなたはこれを核拡散や生物兵器と比較しています。例えば、ここで話しているような技術は、拡散する可能性があるのでしょうか?それとも、非常に複雑で高価なものなので、国家主体でコントロールすることになるのでしょうか?

スピーカー A

非常に簡単に拡散する可能性があります。核兵器はプルトニウムやウランを手に入れるのが難しいので、それほど拡散しませんが、これは生物兵器に近いものです。このような大規模な言語モデルを開発するためには、何億ドルもの費用がかかりますが、コードさえあれば、小規模で安価なものです。誰かがそれを手に入れれば、アクセスさえすればコピーすることができます。COVIDがそうであったように、ソフトウェアは決して国境を尊重しないのですね。ですから、代わりにしなければならないのは、最もリスクの高いものを開発しないようにすることです。宇宙から見える6ギガワットのコンピュート・サーバーのパワーを隠すことはできませんから、コンピュート・サイドの規制について、今、政策分野で多くの議論が行われています。宇宙から見える6ギガワットのコンピュート・サーバーのパワーを隠すことはできないからです。25万ドルとかでこういうものを作る場合、まずはそこから始めるのがいいでしょう。そして、徐々に、もちろん、AIツールを含む多くのツールを使って、拡散を防ぐために危険なものを特定することもできるようになります。つまり、問題は技術的なものではないのです。問題は本当に政治的、社会学的なもので、誰も協力しようとしない場合のマイナス面がどれほど大きいかを、ほとんどの人が理解していないことに起因しています。

スピーカーのBさん

さて、国によってAIの進路が異なるということで、中国について簡単に説明しましょう。中国サイバースペース管理局は今週、Chat GPTのような生成型人工知能製品の開発方法を管理するための規則案を発表しました。この規則では、AIが生成するコンテンツは社会主義の中核的価値を反映する必要があり、国家権力を転覆させてはならないとしています。

スピーカー A

私のところに戻って。欧州、中国、米国がそれぞれ異なるアプローチで規制を進めていることがわかります。ヨーロッパは、EUのAI法で先鞭をつけました。もともと、一部のロビイストが「Chat GPTとGPT Fourは完全に免除される」という抜け穴を設けていたのです。私たちは、その抜け穴を塞ぐために懸命に働きました。だから、これは助けになると思います。アメリカは、ハイテク企業のロビー活動が非常にうまくいっているため、何かを規制することに非常に抵抗があるようです。中国政府は、この規制をかなり重視しています。なぜなら、この規制によって中国政府の統制が取れなくなる可能性があることをはっきりと理解しているからです。

スピーカー B

もしかしたら、彼らは自分たちのシステムにとって脅威であるからこそ、西側諸国以上にあなたが推すようなアプローチを取っているのかもしれないと思い、お聞きしようと思ったのですが、同時に、彼らは他の国々と軍事競争をしているのです。それが、危険で増殖しかねない特定のAIアプリケーションへと彼らを向かわせることにならないか?

SPEAKER A

しかし、スターリン、ソビエト連邦、アメリカは、酒を酌み交わす仲でもなく、お互いを大いに信頼していました。しかし、それでも核戦争を回避することができたし、リスクを軽減するためのさまざまな有用な方法を考え出すことができたのです。核戦争では誰も勝てないということを、全員が知っていたのです。AIが普及すれば、より多くの政策立案者が、核戦争よりもはるかに悪い事態になることを理解するようになります。もし私たちが超知能マシンを完全にコントロールできなくなったら、中国とアメリカの軍隊も、まさに自分たちが望まないことを防ぐために協力できることに気づくだろうと、私は楽観的に考えています。

スピーカー B

手遅れになるんでしょう?その時点でどうせ手遅れになるかもしれないと 大衆に認知される事象が発生した時点で言ってませんでしたっけ?

**スピーカA

いいえ、私は、それらの機械が実際に存在するときには既に手遅れになると言ったのです。ですから、私たちはあなたのようなジャーナリストを通じて、それらの機械が実際に構築される前に、その到来を彼らが認識するのを助けることを非常に望んでいます。私たちが持っているものは、人工一般知能と呼ばれるものにはまだ到達していません。これは、すべての仕事において私たちを凌駕する機械を作るという聖杯です。しかし、私たちは高速でそこに向かっていますね?10年前には、人々は50年、おそらく30年、おそらくはずっと長い時間がかかると考えていました。現在、その分野のトップの専門家の多くが、はるかに短いタイムラインを示しています。たとえば、人間の言語の習得に関しては、すでに人間を上回っているとさえ言えます。私はこれが多くの政策立案者に、これが架空のものではないことを認識させることを望んでいます。知性は人間の脳だけでしか存在できない神秘的なものではないということです。私たちはそれを構築することもできます。そして、それを構築できるとき、私たちは私たち以上にはるかに遠く、昆虫よりも遠くにあるものを簡単に構築することもできます。私たちはこれを構築しています。AIは人類の手で、人類のために作るべきものであり、機械が後で素晴らしい時間を過ごすためのものではありません。ですから、私たちは本当に時間をかけて、この機械を確実にコントロールし、少なくとも私たちの価値観を持ち、私たちが望むことをするようにすることが、人類が今行っている他のどんな選択よりも重要なことなのです。

スピーカー B

いいかい?この話はこれで終わりにしたいと思います。もちろん、このような大きな話題であり、素晴らしい専門家を迎えているので、もっと多くのことを話すことができますが、この辺で終わりにしたいと思います。マックス・テイク・マークに感謝の意を表します。彼はAIの専門家でMITの教授です。そしてもちろん、視聴者の皆さん、ご覧いただき本当にありがとうございました。もし、これを楽しんでいただけたなら、他のDWビジネス特集をチェックしてみてください。

この記事が気に入ったらサポートをしてみませんか?