見出し画像

元 OpenAI 社員がすべてを明かす!

https://www.youtube.com/watch?v=om5KAKSSpNg

レオポルド・アシェン・ブレナーは、内部文書を漏らしたために解雇されるまで、OpenAIで働いていた人物です。

このビデオは、間違いなく最も重要なビデオの1つであると断言したいと思います。なぜなら、彼は、世界中の企業がAGIに到達する10年後の見通しを詳細に説明しており、彼の洞察力は他に類を見ないからです。彼は、事実上誰も、今後何が起こるかを予測していないとツイートし、AGIに到達するために必要な段階と、今後数年間に目撃することになるいくつかの事柄について、完全な文書を作成しました。このビデオの最初の10分だけでも見るべきだと思います。彼が予測しているいくつかの事柄について、非常に洞察力に富んでいるからです。7つの異なるセクションがあり、私はこのエッセイを少なくとも3回は最初から最後まで読みました。このエッセイ全体から最も洞察力に富んだセクションを皆さんに紹介します。これは注目すべき文書であり、誰もが注目する必要があると思うからです。これ以上時間を無駄にせず、10年後の状況認識について見ていきましょう。先に進むと、彼はこの導入部で、話題が100億のコンピューティング クラスターから1000億のコンピューティング クラスター、さらには1兆のドール クラスターに移行し、6か月ごとに役員会議の計画にゼロが追加され、AGI レースが始まったと語っています。私たちは考え、推論できるマシンを構築しており、2025年から2026年までにこれらのマシンは大学卒業生を追い越し、10年後にはあなたや私よりも賢くなり、言葉の真の意味でのスーパー インテリジェンスを手に入れることになります。もう一度言いますが、

10年後には言葉の真の意味でのスーパー インテリジェンスを手に入れることになります。

半世紀ぶりの国家安全保障部隊が解き放たれ、間もなくプロジェクトが開始されます。これらは非常に興味深い予測ですが、彼が分析してきたグラフやデータの一部を見れば、本当に納得できると思います。これが、このドキュメントが状況認識と呼ばれる理由です。彼が言うすべてのことに入る前に、この部分だけ読んでください。間もなく世界は目覚めますが、現時点ではおそらく数百人ほどの人がサンフランシスコやAIラボにいて、何らかの特殊な力や運命によって実際に状況認識力を持っている。私はその中で自分自身を見つけた。これがこの文書が本当に重要な理由である。なぜなら、このような情報があるからである。OpenAIのような会社を辞めて、スーパーインテリジェンスがどのように出現し、いつそのシステムが出現するかについての詳細を与える情報を公開してくれる人がいるのは本当に幸運だ。これがGPT4からAGIまでのセクション1で、桁違いの数字を数えている。4oを見るとそれが何を意味するのかがわかる。彼はここでAGIの予測を明確に述べている。20227年までにAGIは驚くほどもっともらしい GPT 2 から GPT 4 は、私たちを幼稚園児から高校生の能力にわずか 4 年で引き上げました。計算アルゴリズムの効率とゲインの阻害の解消のトレンド ラインをたどると、2027 年までに幼稚園児から高校生のサイズの質的なジャンプがもう 1 つ期待できます。ここで、最初の非常に重要なグラフに入ります。これは、物事がどこに向かうのかを正確に示しているからです。彼は次のように主張します。2027 年までにモデルが AI 研究者 SL エンジニアの仕事をできるようになる可能性が非常に高いです。これには SF を信じる必要はなく、グラフ上の直線を信じるだけで済みます。ここで見られるのは、GPT 2 から GPT 4 までをカウントした有効計算のベース スケール アップのグラフです。有効計算を見ると、スケール アップが継続されます。ここから興味深いことの 1 つは、この曲線がさらに急になると思うことです。その理由は、2022 年から 2025 年までの期間中に、 2023年には、私が認識と呼びたいものがありました。この期間は、GPT3からGPT4の誕生を記念するものであり、AI時代に本当に巨大なスペクタクルをもたらしました。GPT3とGPT4は単なる研究製品ではありませんでした。つまり、GPT3はGPT4であり、チャットGPT3でした。5つは実際に一般向けに販売された製品でしたが、それ以来、AIに興味を持つ人の数が爆発的に増え、多くの企業が数十億ドルと数十億ドルのリソースをテクノロジーやコンピューティング クラスターに投入し、この分野で起こるであろう経済的価値をすべて獲得しようとしています。そのため、2024年から2028年の間に、この期間よりもはるかに大きな成長が見込まれても不思議ではないと私は信じています。つまり、2027年から2028年までに自動化されたAI研究エンジニアが存在することは、それほど遠い未来のことではありません。なぜなら、直線とコンピューティングの効果だけを見れば、間違いなくそこに到達できるからです。そして、その意味合いは非常に厳しいものです。

自動化されたAI研究エンジニアが存在するということは、その後スーパーインテリジェンスに到達するのにそれほど時間がかからないことを意味します。

AI研究を自動化できれば、すべてが変わるでしょう。効果的に再帰的に自己改善はしますが、超知能を爆発させるあのクレイジーなループがないだけです。ここで彼は、私が理解することが本当に重要だと思うことの1つを述べています。この文書が公開される前のビデオでこれを述べましたが、私が最初に考えていたのと同じ懸念の1つを他の誰かが提起していることを嬉しく思います。彼は、次世代のモデルがオーブンに入れられており、一部の人が停滞を宣言し、ディープラーニングが壁にぶつかっていると述べましたが、規模の大小を数えることで、実際に何を期待すべきかがわかります。約3週間前のビデオで、外部的には物事が減速しているが、内部ではまったく減速していないと明確に述べました。トップのAIラボの一部が最新の研究を発表していないからといって、毎月ブレークスルーが行われていないわけではありません。ここで彼は、推論は単純ですが、その含意は別のジャンプであり、そのようなジャンプが非常にうまくいけば、AGI、つまり博士号取得者や同僚として私たちの隣で働くことができる専門家と同じくらい賢いモデルにつながる可能性があると述べています。おそらく最も重要なのは、これらのAIシステムがAI研究自体を自動化できれば、強力なフィードバックループを設定し、もちろんそこでAI研究者がAI研究でブレークスルーを起こし、そのブレークスルーをAIシステムに適用してAIシステムが賢くなり、そこからループが続きます。基本的には再帰的な自己改善ですが、規模は遅くなります。ここで彼は、今でもほとんど誰もこれを価格に反映させていないと明確に述べていますが、AIの状況認識は実際にはそれほど難しくありません。一歩下がって傾向を見ると、AIの機能に驚かされ続ける場合は、桁違いの数を数え始めてください。ここが過去4年間の話です。GPT2からGPT4について話しているのがわかります。GPT2は基本的に未就学児のようなものでしたが、GPT4はもっともらしい文章をいくつかつなげることができます。これらは当時人々が非常に感銘を受けた GPT2 の例ですが、それでもつまずかずに 5 まで数えるのがやっとでした。その後、もちろん 2020 年に GPT 3 が登場し、これは小学生と同じくらい賢くなり、再び人々にかなり感銘を与えました。もちろん、これが 2023 年の GPT 4 に至ります。これは賢い高校生に匹敵するものです。かなり洗練されたコードと反復デバッグを書くことができます。複雑な主題について知的かつ洗練された方法で書くことができます。難しい高校の競技数学を推論することができ、どんなテストでも大多数の高校生に勝っています。AGI からそれほど遠くないことを示すいくつかの機能を示した Sparks of AGI 論文があったことを思い出してください。この GPT 4 レベルのシステムは人工汎用知能の最初の初期の Sparks でした。ここで彼は明確に述べています。多くの人がこれに気付いていないので、彼がこれを述べてくれてうれしいです。モデル化の明らかな方法に制限があるということです。まだ足かせがかかっていますが、基本的に彼はモデルの使用方法と、モデルの背後にある生の知能、つまりこれらのモデルの生の認知能力(人工的に制約されているとさえ言えるなら)を持っている現在のフレームワークについて話しています。そして基本的に将来的にはこれらが制約されなくなるという事実を計算すると、生の知能がさまざまなアプリケーションにどのように適用されるかが非常に興味深いものになるでしょう。ほとんどの人が気付いていない明らかなことの1つは、ベンチマークが不足しているということです。逸話として、私の友人のダンとコリンは数年前に2020年にMML uaと呼ばれるベンチマークを作成しました。彼らは最終的に、高校生や大学生に課す最も難しい試験すべてに相当する、時の試練に耐えるベンチマークを作成することを望んでいました。わずか3年後には、GPT 4やGeminiなどのモデルは約90%を獲得しています。そしてもちろん、GPT 4は標準的な高校や大学の適性テストのほとんどを突破しており、ここでは、人間のパフォーマンスと比較したさまざまな機能に関するAIシステムのテストスコアを見ることができます。ここ数年、ここでは著しいレベルの増加が見られ、AIが能力の面でどれだけ多くの異なる領域で増加しているかは、本当に驚くべきことです。これは本当に興味深いことであり、また、潜在的にかなり懸念されることです。GPT 4からAGIへの移行でほとんどの人が実際に見逃したことの1つは、実際に私を驚かせたベンチマークでした。基本的には、数学ベンチマークと呼ばれるこのベンチマークがあります。高校の数学コンテストからの難しい数学の問題のセットです。ベンチマークが2021年にリリースされたとき、GPT3はわずか5%しか得られませんでした。基本的に、これの驚くべき点は、研究者が当時、より多くの数学の問題解決の推進には、より広範な研究コミュニティからの新しいアルゴリズムの進歩が必要になる可能性があり、数学を解決するための根本的な新しいブレークスルーが必要になります。または、彼らが予想したように、今後数年間で最小限の進歩しかありませんでしたが、

2022年半ばまでに50%の精度に到達し、Genini 1.5 Proでは、これが90%に達していることがわかっています。

これは本当に素晴らしいことです。これは、スクリーンショットを撮って、友人や同僚、またはあなたが属しているコミュニティと共有できるものです。共通試験のパフォーマンスは、人間の受験者と比較して、微積分と化学を除くほぼすべての科目でGPT 4が90%を超えていることがわかります。これは驚くべき偉業です。GPT 3からGPT 4に非常に短い時間で移行したとき、これは多くの人が単純に予想していなかった真の飛躍的な機能です。ここで、ディープラーニングの性質に基づいて実際に作成できるいくつかの予測に着手します。基本的に、ディープラーニングの魔法は、それがうまく機能し、あらゆる点で否定的な意見があるにもかかわらず、トレンドラインが驚くほど一貫していることです。これは、オープンAI Soraテクノロジーのスケーリングコンピューティングのスクリーンショットであり、各レベルで品質と一貫性が向上していることがわかります。ベースコンピューティングの結果は、かなりひどい画像/ビデオ 4 倍の計算で、かなり首尾一貫したものになりますが、30 倍の計算は、品質の一貫性と、実際に得られるビデオのレベルの点で注目に値するものであり、これらの傾向線が非常に一貫していることを示しています。彼は、これらのモデルをトレーニングする桁数を確実に数えることができれば、機能の向上を推測できると述べています。これが、GPT 4 レベルの機能が来ることを実際に予見した人々です。彼が話していることの 1 つは、もちろん Chain of Thought ツールや Scaffolding のようなもので、したがって、基本的に GPT 4 またはこのアーキテクチャの基本的な認知機能があれば、重要な潜在能力を解き放つことができます。そして、そのシステムの前にさまざまなステップを追加することで、それを使用して潜在能力を解き放つことができます。たとえば、Chain of Thought 推論で GPT を使用すると、さまざまなシナリオで特定の質問に答える能力が大幅に向上します。これは、さまざまな方法でシステムと対話することで、システムからより多くの知識を解き放つことができることを意味します。つまり、システムの背後にある生のデータと生の知識は、人々よりもはるかに大きいということです。これが、ゲームを妨害する要因だと考えています。これは非常に重要なことの 1 つですが、十分な注目を集めていません。しかし、これは目に見えない多くの利益を補うものであり、アルゴリズムの効率性です。コンピューティングへの大規模な投資が注目を集める一方で、アルゴリズムの進歩も同様に重要な進歩の原動力であり、大幅に過小評価されています。アルゴリズムの進歩がどれほど大きなものになるかを確認するには、次の図を見てください。これは、価格が 50% 低下したことを示しています。わずか 2 年で数学ベンチマークの精度が向上しました。比較のために、数学があまり好きではないコンピューター サイエンスの博士課程の学生は 40% のスコアでした。これはすでにかなり良い結果です。推論効率は 2 年未満でほぼ 3 桁、つまり 1,000 倍向上しました。つまり、わずか 2 年で同じ結果に対して信じられないほど効率的なものが得られました。これは本当に素晴らしいことです。これらのアルゴリズムの効率は、あなたが思っているよりもはるかに大きな利益をもたらします。多くの研究論文が公開されている arxiv を見ていた人として、信じてください。毎日 50 から 80 の異なる研究論文が公開されており、そのうちのいくつかは 10 から 20%、30% の利益をもたらしています。これらのアルゴリズムの効率がすべて互いに相乗効果を及ぼすという事実を計算すると、このようなケースが実際に増えることになります。ここでは API コストについて話し、基本的にこれらのモデルを実行することがどれだけ効率的になるかを見ていきます。GPT 4 のリリース コストを節約するには、 GPT 3 がリリースされたとき、価格が 1 倍安かったのですが、1 年前にリリースされた GPT 4 以降、gbt 4 レベル モデルの価格は、GPT 4o のリリースで入力が 6 倍、出力が 4 倍に下がり、gbt 3.75 レベルは基本的に Gemini 1 です。1.5 フラッシュは、以前のものより 85 倍安価です。このグラフを見ると、どれだけ進歩するかを正確に計算すると、2 つの主な点があることがはっきりとわかります。1 つは、スケーリングの物理的な計算です。これは、データ センターや問題解決に投入するハードウェアなどです。もう 1 つは、アルゴリズムの進歩です。これは、人々がこれらのアルゴリズムをクレイジーな方法で書き換えることで、以前は解決方法がわからなかった効率性を高めるものです。そのため、将来、自動化された AI 研究者がそれを実行すると、このギャップはさらに広がります。これは、障害を取り除くという話です。もちろん、これは先ほどお話ししたことです。これが重要な理由は、以前は見えなかった方法でモデルから利益を得ることができるからです。誰かが数学の問題を尋ねたときに、頭に浮かんだ最初のことを即座に答えなければならないとしたら、非常に苦労するのは明らかです。最も単純な問題を除いて、最近まで、私たちは LLM に数学の問題を解かせていました。その代わりに、私たちは数学の問題を解くときに、問題を段階的に解いて、より難しい問題を解くことができます。これは基本的に Chain of Thought であり、それが私たちが LLM で行っていることです。優れた生の能力にもかかわらず、彼らは数学が本来の能力よりもはるかに劣っていました。なぜなら、彼らは明らかに足かせをはめられていたからです。そして、それははるかに大きな能力を解き放った小さなアルゴリズムの調整でした。基本的に彼がここで述べているのは、これらのさらに優れたモデルがさらに足かせをはめられなくなると、全体としてさらに複合的な利益が見られるようになるということです。そして、最近私たちが経験した最もクレイジーなことの 1 つは、もちろん、GPT 4 はソフトウェア エンジニアリング ベンチを 2% しか正しく解くことができないのに対し、Devon のエージェント スキャフォールディングでは 142% に跳ね上がり、これはかなり信じられないほどです。これは初期段階という点では非常に小さなことです。ツールについて言えば、人間が電卓やコンピューターを使用できないとしたら、私たちは文字通りまだ始まったばかりです。chpt は現在、ウェブブラウザでコードを実行するなど、もちろんここでコンテキストの長さについてお話しします。コンテキストの長さは 2K から 32、文字通り 100 万に増えました。もちろん、モデルをトレーニングした後は、モデルを大幅に改善するポストトレーニングがあり、大きな進歩を遂げています。数学では 50% から 72% に、GP QA では 40% から 50% に増えました。ここで、成長の点で別のスタックがあることがわかります。ここでは、チャットボット エージェントからの生のチャットボットを見ることができます。これらは、AI の成長の将来を見るときにほとんどの人が考慮に入れていないものです。これが、彼が2027年までに、GPT 6や強化学習と比較して、人間のフィードバックによる改善が段階的に行われるようになると述べています。チャットボットではなく、エージェントや同僚のように見えるものが登場します。ここで私が見た最もクレイジーなことの1つは、今述べたすべての情報を考慮すると、これは絶対に信じられないことです。なぜなら、彼は基本的に、2027年末までにこれは絶対に信じられないことだと言っているからです。GPT2からGPT 4への物理的なコンピューティングアルゴリズムの効率による利益に加えて、ベースモデルのチャットボットからの大きな妨げのない利益を見ることができます。その後の4年間で、物理的なコンピューティングとアルゴリズムの効率であるベース実効コンピューティングのスケールアップが3〜6桁になりますが、基本的に彼は、これらすべてを組み合わせた場合の見通しを示しています。GPT 4のトレーニングに3か月かかったと仮定すると、2027年には主要なAIラボがGPT 4レベルのモデルを1分でトレーニングできるようになります。これは信じられないほどの予測であり、それが本当になるかどうか疑問に思っていますが、 3年後に何十億ドルものお金と、業界に流通している膨大なコンピューティング資源を考えなければなりません。今私たちがSFだと思っているもののいくつかが、そうでないとしても驚きません。ここでは、すべてを視覚化して見ることができます。文字通り、基本的な知識がどのように得られるかがわかります。次に、チャットボットフレームワーク、エージェントフレームワーク、そしてもちろん、さらに桁違いの知識が得られれば、2027年までに知能が自動化されたAI研究エンジニアになることがわかります。すべての情報をすべての異なるポイントから実際に見てみると、それほどクレイジーには思えません。すべてのことを考慮に入れると、これはそれほど遠い未来のことではないようです。特に、これまでに見てきたような飛躍的な進歩を考えると、GPT 5のリリースとそれに続くAIモデルにより、2027年と2026年が信じられないほどの期間になることがわかります。彼は、2027年までにAGIに向けて進んでいると述べ、これらのAIシステムは基本的にすべての認知ジョブを自動化できるようになると述べています。リモートでできる仕事というのはとんでもない発言です。これは皆さんが心に留めておくべきことだと思います。2027年までにAGIが実現することはあり得ないことではなく、間違いなく起こり得ることです。ですから、私が本当に重要だと思う最も興味深いことの1つは、この期間が非常に重要である理由は、これが決定的な期間であり、成長が起こる期間であり、何ができるかを実際に見ることができる期間であるということです。つまり、彼は、本質的に私たちは大規模なスケールアップの真っ只中にあり、これがこの10年間で一度限りの利益を享受しているところであり、このスケールアップによって今後5年から10年でAGIに到達できなければ、その後の桁違いの進歩は数倍遅くなるだろうと述べています。何年も先の話かもしれませんが、これがとても興味深いのは、この10年か20年の話だからです。ここで、コンピューティングの効果的なスケールアップは、規模が大きくなるにつれてますます難しくなることが分かります。このように考えてみてください。いい例はありませんが、何十億ドルも投資してシステムをさらにスケールアップすることがいかに難しいかを考えなければなりません。もちろん、モデルを100億から1億にスケールアップすることはできますが、1億から100億へのスケールは本当に巨大で、多額の投資が必要です。データセンターを複数持つ必要があり、非常に巨大にする必要があります。冷却についても考えなければなりません。電力要件も非常に大きく、1兆ドルのクラスター、さらには1000億ドル、5000億ドルのクラスターに到達すると、さらに信じられないほどです。基本的に彼は、1000億ドル以上のレベルに到達したら、 AGI がそのレベルにあるということは、現実的には何らかのアルゴリズムのブレークスルーやまったく新しいアーキテクチャを待たなければならないことを意味します。なぜなら、問題に投入される計算能力が大幅に増加することで得られる利益を考えると、計算能力に基づいて利益を得ることは非常に困難だからです。彼はここで基本的に、モデルに 100 万ドルを費やすことは以前は法外な金額でしたが、10 年後には 1,000 億ドルまたは 1 兆ドルのクラスターが存在する可能性があり、それよりも高い金額にすることははるかに困難になるため、大企業が実際に負担できる金額と GDP の割合の両方の観点から、基本的に実現可能な限界になると述べています。また、CPU から GPU への大きな利益は、10 年後にはなくなる可能性が高いと述べています。AI 専用のチップが登場し、ZW がそれ以上進まない限り、それ以上の利益は得られないでしょう。これが重要なのは、この全体をナビゲートしようとしている人にとって、AI がどこにあるのかを理解しようとしているからです。能力はどこで止まるのか、次の成長はどこで起こるのか、それは基本的に、現在私たちはシステムをスケールアップしているという事実であり、10億ドルから100兆のクラスターの頂点に達したら、その限界までにスーパーインテリジェンスまたはAGIがなければ、間違ったアーキテクチャを使用している可能性があり、物事が大幅に変更される必要があることがわかります。したがって、長くゆっくりとした鈍化になるか、比較的すぐにそこに到達するかのどちらかになります。状況から判断すると、比較的すぐにそこに到達しそうです。ここで、AGIからスーパーインテリジェンス、インテリジェンスの爆発について話します。基本的に、これはAIの進歩が人間のレベルで止まらないことを彼が話しているところです。数百万の AGI が AI 研究を自動化し、10 年間のアルゴリズムの進歩を 1 年に 5 桁圧縮し、人間レベルから超人的な AI システムに急速に移行し、超知能の力と危険性は劇的になります。これが基本的に最も重要なグラフです。スクリーンショットを撮って携帯電話に保存しておきたいグラフがあるとすれば、これはこのグラフだと思います。その理由は、GPT 4、GPT3、GPT2 のタイムラインをマッピングすると、この交差点が 2023 年にあることが明確にわかるからです。しかし、もちろん、トレンドが続くと、この期間に到達すると、物事が面白くなり始めることがわかります。これはもちろん自動化された AI 研究の期間であり、これが実現すると、おとぎ話のようなものではなく、サム・アルトマンが言ったことであり、それが彼の目標全体です。OpenAIが構築しようとしているのは、スーパー インテリジェンスを構築しようとしているのではなく、自動化された AI 研究を行うことができるシステムとして AGI を定義し、それは実際に起こりますが、それほど長くはかからないと思います。そのときに、再帰的な自己改善ループが実現し、スーパーインテリジェンスが実現するまでにそれほど時間はかかりません。5つを展開できれば、000 のエージェントは基本的にすべて超知能ではありませんが、標準的な AI 研究者のレベルであり、特定の問題にそれらを展開して 24 時間 365 日稼働させることができます。これにより、何年もの AI 研究が非常に短い時間枠に圧縮されます。そのため、この紫色の期間にグラフが急速に上昇し始めていることがわかります。そのため、次の 10 年が非常に重要になります。この領域が実際に発生し、AI 研究を自動化するというブレークスルーレベルに到達したら、すべてが台無しになります。なぜなら、超知能がすぐそこにあることがわかっているからです。これが知能爆発です。AI 研究者がブレークスルーを達成するたびに、AI 研究のブレークスルーがその AI 研究者に適用され、その後、AI 研究者がより効率的またはより賢くなるため、進歩が再び続きます。そして、これがクレイジーなことです。これは、この全体に関する最もクレイジーな意味の 1 つです。すべてを自動化する必要はありません。AI 研究だけです。繰り返しますが、すべてを自動化する必要はありません。AI 研究だけです。 AGI の変革的影響は、AI があらゆることを行うのが困難になることです。たとえばロボット工学を見てください。懐疑論者は、AI が認知的に博士号レベルに達したとしても、生物学研究と設計の自動化には多くの物理的な実験室作業と人間の実験が必要になるかもしれないが、実際にはロボット工学は必要ありません。AI が AI 研究を自動化するために必要なものは多くありません。主要な研究室の AI 研究者とエンジニアの仕事は完全に仮想的に行うことができ、ロボット工学のように現実世界のボトルネックにぶつかることはありません。もちろん、これは後で対処するコンピューティングによって制限されますが、基本的には、これらのシステムを拡張しようとするときに発生する文字通りのハードウェアの問題などです。それほど難しくはありません。まあ、それほど難しくはないと言いますが、理論的には、ML 文献を読んで新しい質問やアイデアを考え出す方が簡単なはずです。これらの実験を実装し、アイデアをテストし、結果を解釈し、もちろんそれを繰り返します。必要なのは、一度そのレベルに到達することだけです。そこで、この狂気の沙汰が起こります。フィードバックループは、2027年にはGPUフリートが数千万台に達すると予想されます。トレーニングクラスターだけでも、すでに1000万台のA100相当に達しています。これにより、自動化されたAI研究者のコピーが何百万も実行され、おそらく1億人の人間の研究者に相当する人が昼夜を問わず稼働します。これは本当に素晴らしいことです。もちろん、GPUの一部は新しいモデルのトレーニングに使用されますが、考えてみてください。

1億人の人間の研究者に相当する人が24時間365日稼働しているのを想像してみてください。

その段階でどのようなブレークスルーが生まれるのでしょうか。非常に概念化するのは難しいですが、実際に何が起こるかを考慮することが重要です。なぜなら、彼が言ったように、誰もこれを実際に価格に反映していないからです。そして、クレイジーなことに、彼らは人間のスピードで働くのではなく、AI研究を自動化できるようになってから間もなく、それぞれが人間の100倍のスピードで働くようになるでしょう。考えてみてください。AI研究は1億倍になり、彼らはあなたの100倍のスピードで働くことになります。これは本当に信じられないことです。彼らは1年分の仕事を数日でこなせるようになるでしょう。これは本当にクレイジーなことです。そして、人間だけで達成している現在のブレークスルーのレベルは本当に信じられないほどであることを忘れてはなりません。自動化できるようになれば、知能の爆発は文字通り計り知れないものになるでしょう。これはほとんどの人が話さないボトルネックの1つですが、もちろんそれは限られたコンピューティングです。確かに、これは本当にすごいことだ、私たちは本当に素晴らしい崖にいるかもしれない、と思っているかもしれませんが、もちろんコンピューティング依然として限界があるだろうし、ほとんどの人が考えていないと思うこのアイデアもあります。私も含めてです。アイデアは見つけにくくなる可能性があり、収穫逓減がありますが、知能の爆発はすぐに消え去ります。上記の反論に関連して、自動化されたAI研究者が最初の爆発的な進歩をもたらしたとしても、急速な進歩が持続できるかどうかは、アルゴリズムプロセスに対する収穫逓減曲線の形状に依存します。経験的証拠の私の最良の解釈は、指数は爆発的なSL加速進歩に有利に振れるということです。いずれにせよ、1億人から数億人のAI研究者への1回限りのブーストの規模は、おそらくここでの収穫逓減を克服し、少なくともかなりの数の組織で、アルゴリズムの進歩は桁違いです。ただし、無期限に自立することはできません。基本的に、AIの進歩を遅らせることができるものはほとんどありませんが、これはもちろんはるか先のことです。ここで彼はAGIの離陸について語っています。彼はむしろ2027年にAGIが到来し、その後はスーパーインテリジェンスは非常に基本的な見方ですが、おそらく2026年から2027年にかけて、プロトタイプの自動化エンジニアが登場しますが、他の領域に盲点があり、作業を1倍高速化できます。5 倍から 2 倍になり、すでに進歩が加速し始めています。もちろん、2027 年から 2028 年には、90% 以上を自動化できるプロトタイプの自動研究者が登場します。自動化された研究者の巨大な組織を調整する上で、まだ人間のボトルネックや障害が残っていますが、これで進歩が 3 倍加速します。そしてもちろん、AGI とこの種の研究者によって、2029 年には進歩のペースが 10 倍になり、それがスーパー インテリジェンスに到達する方法です。これは、スーパー インテリジェンスへのゆっくりとした方法として考えられていますが、ポイントは、これが非常に高速であるということです。彼は、この 10 年の終わりまでに、私たちが持つことになる AI が想像を絶するほど強力になるだろうと話しています。つまり、今考えられるものでさえ、それがどれほど素晴らしいものになるかを概念化するのはかなり難しいということです。彼は、これが実際にどのように起こり得るかについて、非常に興味深い説明をしていますが、それは考えてみるとかなり信じられないことです。彼は、AI が文明を運営できるようになるだろうと言っています。数十億のAIが人間よりも桁違いに速く考え、どんな分野もすぐにマスターし、何兆行ものコードを書き、あらゆる科学分野の研究論文を読み、1つの論文の要約を超える前に新しい論文を書くことができるようになる。そのコピーのすべてから得られる並列体験を学習し、数週間のうちに何十億年もの人間に相当する経験を積んで、新しいイノベーションを経験し、ピークのエネルギーと集中力で100%の時間働き、遅れているチームメイトのせいで遅れをとることはない、などなど。もちろん、私たちはすでにこれらの例をいくつか見てきました。皆さんご存知のように、将来のAI研究に関して人々が話しているようなことです。これはすでに見たことのあるものです。アルファ囲碁の有名な37手目を見れば、これは基本的にコンピューターシステムがかなり古いゲームで動き、人々は一体なぜAIシステムがその動きをしたのかと不思議に思ったものです。間違いなく負けただけですが、その動きは、その動きをするための計算はかなりクレイジーだったと思います。このシステムは基本的に誰も思いつかない動きを考えました。今まで考えたこともなかったこの動きは人々を驚かせ、衝撃を与えました。リサは皆、何が起こっているのか本当に理解できませんでした。人間のプレイヤーはAIシステムが何をしたのか全く分からず、結局人間はそのゲームに負けました。基本的に彼は、スーパーインテリジェンスは多くの領域でこのようになるだろうと述べています。人間には気付かないほど微妙な人間のコードの脆弱性を見つけることができ、モデルが何十年もかけて説明しようとしたとしても、人間には理解できないほど複雑なコードを生成できるようになります。私たちは、ネオニアン物理学にとらわれている高校生のようになり、機械工学を探求し、これらすべてが適用されることを想像してみてください。科学技術と経済のすべての領域、もちろんここでの時代のバーは依然として非常に大きいですが、これがどれだけ重大な結果をもたらすか想像してみてください。もちろん、大きなことの1つはロボット工学の問題を解決することです。超知能は、AGIレベルの工場のシステムが人間による運営からAIによる運営に移行し、人間の肉体労働が使用され、すぐに人間レベルのロボットの群れによって完全に運営されるようになると、認知能力は長くは続かないでしょう。もちろん、このように考えてみてください。2030年代から2040年代は、人間の研究者が次の世紀に行う研究と設計の努力が何年もかかるため、絶対に狂気の沙汰になるでしょう。20世紀からどのように移行したかを考えてみてください。人々は、ああ、私たちは決して飛べないだろうと思っていましたが、飛行機が登場し、人類が月に着陸しました。これは数年、数十年以上、50年、40年、30年、20年ほどかかりました。しかし、2030年代には、数年後、文字通りほんの数年で、さまざまな分野でさまざまなブレークスルーが起こり、さまざまな業界でさまざまなテクノロジーが生まれます。1903年から15年経った今、世界経済は2倍に成長しています。しかし、スーパーインテリジェンスが登場した後は、3年ごと、5年ごと、1年ごと、6か月ごとなど、成長がどれだけ急激になるかがわかります。時間の経過に伴う指数関数的な減少は予測が非常に難しいからです。ここで最も重要なことが2つあります。このビデオは非常に長いですが、信じてください。これは文字通り、おそらく最後の産業革命であり、これらの文書で目撃できることです。2つのことがあります。これは決定的で圧倒的な軍事的優位性です。初期の認知スーパーインテリジェンスで十分かもしれません。おそらく超人的なハッキング計画で敵軍を無力化できるでしょう。いずれにしても軍事力とテクノロジーは重要です。進歩は歴史的に密接に結びついており、驚異的な急速な技術進歩と軍事革命が起こり、基本的にドローンの群れが出現し、あらゆる種類の研究や設計が可能になり、これまで考えもつかなかった兵器が作られるようになるだろう。これは本当に素晴らしいことだ。基本的にこのように考えてみよう。21世紀の軍隊と戦闘機や戦車、空爆を比べてみよう。19世紀の馬と銃剣の旅団と戦えば、彼らが勝てる戦争にはならない。我々の技術では、19世紀の旅団全体を殲滅するにはF22戦闘機だけが必要であり、同じことが起こるだろう。超知能の研究と設計の取り組みによって、潜在的に不安定な経済が生まれます。もし私たちが超知能を最初に手に入れなければ、つまり国民国家がなければ、つまり彼らがやりたいことを何でもできる側では、彼らは非常に高度な技術を持っていて、本当に誰に対しても軍事的に優位に立つことができると言えるでしょう。これが、物事がオープンAIに変わると思う理由です。超知能をコントロールする者は誰でも、ロボットがなくても、超知能以前の軍隊からコントロールを奪うのに十分な力を持つ可能性があります。超知能の小さな文明は、防御されていない軍事選挙テレビシステムをハッキングし、将軍を巧みに説得して選挙で経済的に国家を圧倒し、新しい合成生物兵器を設計し、それを合成するためにビットコインで人間に支払うなど、基本的にここで起こることは、権力の移行になると思います。政府がこれにどう対処するのか、たとえば、目を開けているコンピューターを押収するのか、それとも何か他のものなのかはわかりませんが、文字通り最初に超知能を手に入れる人は、私は本当にそう信じています。賭けはすべて無効です。なぜなら、あなたが10倍から100倍賢い何かの認知能力を持っていて、それを上回ろうとしているなら、それは絶対に起こり得ないからです。その時点であなたは事実上負けています。つまり、あなたは米国政府を転覆させることができるということです。つまり、これは非常に興味深い発言ですが、私はそれが真実だと思います。自動化されたAI研究者が誕生した瞬間に、これらすべての分野が驚くほど異なる方法で始まり始めることがわかります。本当に素晴らしいことです。ここで興味深い点に到達します。ここで彼はAGIのセキュリティについて語っています。これは非常に重要です。この文書を公開した後、AIは実際にWebページを更新して、この部分に対する反論を掲載しました。前に言ったように、これが私が少なくとも来年以降は2025年以降にAIの漏洩はないと思う理由です。それは、AIの性質が変化すると考えているからです。おそらく、彼らはAIがいかに深刻であるか、そしてこれが米国の国家機密のように扱われるという事実に気づくでしょう。つまり、内部告発者がいない限り、ペンタゴンの秘密は明らかにならないということです。結局、内部告発者は逮捕されるでしょう。基本的に、国の主導的なAI研究室は、セキュリティを後回しにしています。現在、彼らはAGIの重要な秘密を中国共産党に銀の皿に乗せて渡しています。AGIの秘密を確保し、国家主体の脅威を待つには膨大な労力が必要であり、基本的に軌道に乗っていません。ここで実際にスーパーインテリジェンスを構築するのであれば、私たちは実際に本当に世界を変えるようなものを作るには、セキュリティについて真剣に取り組む必要があります。現在のトップクラスの AI ラボには抜け穴が多すぎて、文字通りこれらの企業に侵入する人がいる可能性があり、真のセキュリティ プロトコルがないため、何が起こっているのかを知る方法さえありません。問題は、それがそれほど真剣に扱われていないことです。これは、CIA やペンタゴンで何かが起こっているような秘密政府組織や、エリア 51 のような秘密軍事組織とは異なり、セキュリティに関して非常に明確なことを持っています。彼は基本的に、これらの秘密を盗むために劇的なスパイ活動を行う必要さえなく、サンフランシスコのパーティーに行くか、オフィスの窓から覗くだけでよいと述べています。彼は基本的に、人々が気付いていないため、今のところそれほど深刻ではないと述べていますが、問題は、前に述べたように、AI ラボは現在、アルゴリズムの秘密を開発しており、それが重要な技術的ブレークスルーであり、青写真であるため、 AGI について話すと、特に AGI は基本的に次のレベルのシステムのための次のパラダイムであり、もちろん基本的に私たちがしなければならないことは、このリードを維持するためにはこれらのアルゴリズムの秘密を保護すること、そしてもちろん必要なモデルの重みを保護することです。これらは、より大きな顧客を獲得したときにさらに重要になります。彼は、今日の失敗はすぐに取り返しのつかないものになるだろうと述べています。今後 12 ~ 24 か月以内に、重要な AGI のブレークスルーが CCP に漏洩し、国家安全保障体制にとって 10 年が終わる前に最大の後悔となるでしょう。これはもちろん、権威主義国家に対する 3 つの世界の保全であり、それが危機に瀕しています。健全なニーズは、AI の安全性を確保するための余裕を与える必要なバッファーになります。米国は AGI レースで優位に立っていますが、セキュリティについてすぐに真剣に取り組まなければ、このリードを失うことになります。これを正しく行わなければ、AGI がうまく進むように今すぐに行う必要があります。私はそれに同意します。なぜなら、私たちがセキュリティを確保しなければ、他の国々は、軍事的優位性を得るために、軍事研究と設計の取り組みを前進させるために、技術を急いで前進させようと試みるかもしれません。そして、もし何らかのセキュリティエラーが発生して、それらのシステムが軌道から外れたらどうなるでしょうか。本当に信じられないことでしょう。彼は、あまりにも多くのSPARの人々がスパイ活動を過小評価していると言います。国家とその諜報機関の能力は、通常の非全面的なAGIレース時間でも非常に手ごわいものです。私たちが公に知っている限りでは、国家またはそれよりさらに高度な行為者は、電話番号だけで、任意のiPhoneとMacをゼロクリックハッキングして空中に侵入することができました。ギャップのある自動トピック兵器プログラム Googleのソースコードを変更する 平均7年かけて検出されるゼロデイエクスプロイトを年間数十件発見 スピアフィッシュ 大手テクノロジー企業が従業員のデバイスにキーロガーをインストール 暗号化スキームにトラップドアを挿入 それでも情報は残る つまり、彼は基本的に、もう少し高度な行為者がいれば、これを実行できると述べているのです。これは私たちが公に知っていることにすぎません。想像してみてください、皆さんがAGIの競争を計画していることを。システムを手に入れるために、密室で実際に何が起こっているか想像してみてください。AGIは基本的に最初にそれを手に入れるための競争であり、誰が最初に超知能を手に入れたとしても本当に勝つのです。それを明確にしたいのですが、彼は基本的にここで、特にAG GIに近づくにつれて、モデルの重みを保護する必要があると述べていますが、これを正しく行うには何年もの準備と練習が必要です。もちろん、アルゴリズムの秘密を保護する必要があります。昨日から、基本的にここで説明されているのは、モデルのウェイトはサーバー上の数字の大きなファイルであり、これらは簡単に盗むことができるということです。敵があなたの数兆ドルとあなたの数十年にわたる最も賢い頭脳が、このファイルを盗むためだけに働き、もしナチスがロスアラモスで作られたすべての原子爆弾の正確な複製を手に入れたとしたらどうなるか想像してみてください。ロスアラモスは、人々が原子爆弾を開発していた秘密の場所でした。彼は基本的に、原子爆弾の物質がナチスに渡ったと想像してみてください。未来がどうなるか想像してみてください。それは私たちが作りたい未来ではありません。そのため、モデルの重みを安全に保つ必要があります。そうしないと、他の国家、場合によっては北朝鮮のためにAGIを構築することになります。彼は基本的に、これは深刻な問題だと言っています。なぜなら、彼らがしなければならないことは、AI研究を自動化し、超知能を構築することだけであり、米国が持っていたリードは消え去り、力関係はすぐに変化し、彼らは独自の知能爆発を起こすでしょう。米国がもはやリードしなくなったら、未来はどうなるでしょうか。もちろん、これは問題です。なぜなら、もし彼らが私たちと同じ秘密を持っていることがわかれば、私たちは存在の危機に瀕する競争に陥るからです。つまり、超知能の安全を確保する余裕は完全になくなるということです。そして、他の国々が彼らはすぐにこのギャップを突き抜けようとします。彼らは、責任あるAGIの取り組みであれば望むような安全対策をすべて無視するでしょう。だから私は、人々が「ちょっと待って、これはまさに人類の危機だ」と考え始めたら、すべてを安全に保護し、これ以上の漏洩は起こらないようにする必要がある、と言ったのです。それで、Open AIは昨日、高度なAIのための研究インフラの保護について発表しました。私たちは、Frontierモデルの安全なトレーニングをサポートするアーキテクチャの概要を説明し、基本的にこう言っています。私たちは、研究用スーパーコンピューターのセキュリティ アーキテクチャに関する高レベルの詳細を共有しています。Open AI は、最大規模の AI トレーニング スーパーコンピューターを運用しており、AI のフロンティアを前進させながら、機能と安全性の両方で業界をリードするモデルを提供できます。Open AI は、セキュリティを優先することを表明しています。基本的に、この中で、セキュリティに関して、モデルの重みを保護するという点ではセキュリティが重要ですが、研究環境からの流出からモデルの重みを保護するには、複数のセキュリティ レイヤーを含む徹底的な防御アプローチが必要であると述べています。これらのカスタム コントロールは、研究資産を不正アクセスや盗難から保護しながら、研究開発目的でアクセスできるようにするために調整されています。Open AI がこれを行ったのは、政府がやって来て、ここに人を入れて、皆さんが何をしているのか確認する必要がある、などと言われるのを望んでいないからだと思いますが、将来的には何らかの政府の介入があると思います。Open AI は文字通り、非常に混乱した会社であり、起こったことには衝撃を受けています。つまり、CEO は、特定の研究者が解雇され、一部の人々はこの会社の安全性が良くないと言いながら去っています。AGIについてこんなことが起きている、来年になるだろうと言っている人もいます。文字通り世界で最も先進的なAI企業である会社にとって、あまりにも多くのドラマが起こっており、モデルの重量の確保に関して一般大衆の信頼を最も高めるものではありません。さらに、現在、ジミー・アップルのようなTwitterの人物が将来のリリースがいつ来るかを知っているので、一体どうしてこんなことが起こっているのでしょうか。なぜなら、特定の人々がOpening Eyesの研究室のすぐ近くのカフェにあるラップトップの写真を撮っていたというツイートさえあったと思います。基本的に、彼らはそのようにして漏洩した情報を入手していたので、Open Eyesの従業員がラップトップを開いたままにしていたか、誰かがOpenI本社のすぐ外にあるカフェでラップトップで何が起こっているかのスクリーンショットを撮っていたのではないかと推測しています。基本的に、何が起こっているのかを考えるようなことです。ここで、彼らは真剣にセキュリティを必要としている、なぜなら彼らが本当にAGIへの道を歩んでいるなら、それは彼らが超知能への道を歩んでいることを意味し、それは将来に非常に大きな意味を持つ、そしてもちろん、この最後の部分では、彼が超知能について語っており、私たちよりもはるかに賢いAIシステムを確実に制御することは、未解決の繰り返しの技術的問題であり、解決可能な問題ではあるが、ラップインテリジェンス爆発の際に物事は非常に簡単に軌道から外れる可能性がある、と述べている。これを管理するのは非常に緊張した作業であり、失敗は悲惨な結果を招く可能性があります。つまり、もし我々より10倍賢いものを作ったら、我々がチンパンジーよりどれだけ賢いか考えてみてください。IQの点ではそれほど賢くはありませんが、我々がほんの少しだけ彼らより賢く、はるかに多くのことを成し遂げてきたという事実は、我々より100万倍賢いものを作る必要はないということを示しており、それが我々をだまして、本当に理解できないことをする可能性があることを認識しています。もちろん、これは文字通りオープンAIでスーパーアライメントに取り組んだ人物です。ですから、これは単なるランダムなブログ投稿ではありません。本当の問題はここにあります。10年が終わる頃には、数十億もの超人的なAIエージェントが動き回っており、これらの超人的なAIエージェントは非常に複雑で創造的な行動ができるようになります。我々にはついて行く望みはありません。我々は、複数の博士号を持つ1年生が指導しようとしているようなものになるでしょう。信頼の引き継ぎの問題に直面することになります。AIエージェントに何かをするように指示したときに、それが私たちの最善の考えを念頭に置いて実行されると、どうやって信頼すればよいのでしょうか。これは本質的にアライメントの問題です。たとえ彼らが私たちに説明しようとしたとしても、何十億ものスーパーインテリジェンスが実際に何をしているのかを理解する望みはありません。なぜなら、これらのシステムの基本的なサイド制約さえ確実に保証する技術的能力がないからです。彼は基本的に、人間のフィードバックによる強化学習は、人間がAIの行動を理解し、監督できることに依存しており、これは基本的に超人的なシステムにはならないと述べています。これは、私たちが実際に行動を理解し、監督できることに依存しているためです。つまり、何が起こっているのかを実際に理解する必要があり、何が起こっているのか理解しなければ、これらのシステムを確実に監督することはできません。つまり、超人的なシステムに拡張することはできません。そして最もクレイジーなのは、先週、Open AIが文字通りスーパーアライメントチームを解散したことです。ここに、小さなAIが私たちに与えているのを見ることができる素敵なイラストがあります。非常に基本的なコードで、安全そうに見えるのは当然理解できますが、ちょっと待って、これは一体何なのか、これは安全なのか、一体何が起こっているのか、と疑問に思うでしょう。一体何が起こっているのか解釈するのは非常に難しいのです。さらに、ここで発生する可能性のある問題の中には、望まないものもあることがわかります。もちろん、デフォルトでお金を稼ぐためのベースモデルを取得することを考えれば、嘘をつくこと、詐欺を働くこと、騙すこと、ハッキングして権力を求めることを学ぶ可能性があります。なぜなら、現実の世界では、人々は実際にこれを使ってお金を稼ぐからです。もちろん、嘘をつかない、法律を破らないなどの制約を追加することもできますが、彼らが何をしているのか理解できず、したがって悪い行動を罰することができなくなります。これらの副次的な制約を追加できない場合、何が起こるかは明らかではありません。人間が見ているときは良い行動をとることを学び、私たちが見ていないときにはより悪質な戦略を追求するようになるかもしれません。これは本当に大きな問題であり、これは実際にすでに起こっていることです。私が日々真剣に考えている主なことの1つは、ここにあります。さらに、数年以内にこれらのAIシステムが軍事システムを含む多くの重要なシステムに統合されると予想しています。そうしないと、非常に危険なこの道を突き進んでいる列車に乗っているようなものになります。このように考えてください。現在、ご存知のように、将来的には多くのテクノロジーにAIシステムを内蔵する必要があります。そうしないと、それほど効果的ではなく、敵に支配されてしまうのではないですか。しかし、もちろん誰もが、AI がここまで良くなる前は、インターネットには絶対に接続しないと言っていました。しかし、今ではインターネットに接続されていて、人々は気にしていません。問題は、アラインメント エラーが発生した場合です。AI はすでにあらゆるインフラストラクチャに組み込まれているため、AI が故障するとどうなるかということです。AI はあらゆるテクノロジーに組み込まれているため、かなり異常です。もちろん、はるかに大きなモデルで障害が発生すると、非常にひどい結果になる可能性があります。ここに別のグラフがあります。これは、さまざまなことを示したものです。これは、AGI です。つまり、強化学習と人間のフィードバックです。障害は低リスクです。アーキテクチャとアルゴリズムは理解しています。世界の背景は非常に正常ですが、これがスーパー インテリジェンスに到達する場所です。ここでの移行は最大でも 2 ~ 3 年しかないことを忘れないでください。スーパー インテリジェンスに到達すると、障害は壊滅的です。アーキテクチャはエイリアンであり、前世代の超スマート AI によって設計されています。人間によって設計されることはありません。世界は狂気じみています。これを正しく行うには並外れたプレッシャーがかかるでしょうし、もちろん、これらのシステムが何をしているのかさえ理解する能力は私たちにはありません。そして、私たちは基本的にこれらのAIシステムに完全に信頼を寄せ、依存することになります。では、一体どうやってこれを正しく行うのでしょうか。問題は、どんなに私たちが真の超知能を開発しても、ほとんどすべてのセキュリティスキームを回避できる可能性があり、たとえば、彼らは私たちにさらに多くのエラーの余地を与えてくれるので、私たちは得られる余裕を必要とするということです。これが私が考える最も恐ろしいことの1つであり、これは私がたった1つの記事で見たものです。文字通り、取り上げられた記事は1つだけです。これについては削除されたと思うRedditの投稿が1つありました。この時点で誰かが見ているかどうかさえわかりませんが、基本的に、事前に考えてみると、超知能の力を持つ独裁者は、私たちが今までに見たことのないような集中した権力を握るでしょう。考えてみてください。超知能を制御できれば、もちろんそれは難しいことですが、私たちはそれを調整することはできません。完全な独裁政権が存在する状況になる可能性があります。何百万ものAI制御のロボット法執行機関が国民を監視できます。大量監視はハイパーチャージされます。独裁者に忠実なAISは、ほぼ完璧な嘘発見センサーで不忠を根絶し、すべての市民の血統を個別に評価できます。基本的に、ロボットの軍隊と警察は、1人の政治指導者によって完全に制御され、完全に従順になるようにプログラムされ、クーデターや反乱のリスクはなく、彼の戦略は完璧になります。なぜなら、彼は超知能を背後に持っているからです。独裁者によって超知能が支配されています。文字通り逃れられるようなバージョンは存在しません。過去の独裁政権は永続的なものではありませんでしたが、超知能は独裁者の支配に対する歴史的な脅威を排除し、権力を固定することができます。もちろん、自由と民主主義を信じる人にとっては、これは問題です。権力を握っている人は、たとえ善良な人であっても権力を維持できますが、選択するには自由と民主主義が必要です。これが、自由な世界が勝利しなければならない理由です。ここでは多くのことが危機に瀕しているため、誰もこれを考慮に入れていません。状況認識についてどう思ったか教えてください。このビデオをこんなに長くして申し訳ありませんが、このビデオをこんなに長くしてよかったです。なぜなら、このビデオではカバーされていない多くのことを見てきたからです。ポッドキャストを見たい場合は、説明にビデオへのリンクを残しておきます。そこには、レオ・アブレナともちろんドラ・クラッシュ・パテルとの4時間のポッドキャストがあり、彼らは非常に洞察力に富んだインタビューを行っています。本当に知っておくべき多くのことについて話しているので、このビデオで私が見逃したものがあれば、皆さんの意見を聞かせてください。これはおそらく私にとって最も長い間残る情報になると思います。なぜなら、これらの予測のいくつかが実現しているかどうか、そして物事がどこに並んでいるかを確認するために、この文書を常に見直していくからです。

この記事が気に入ったらサポートをしてみませんか?