元OpenAIの社員であるレオポルド・アッシェンブレンナーが、AI業界の未来について驚くべき予測を公開しました。彼の見解によると、AIは今後10年間で急速に進化し、2027年までには人工汎用知能(AGI)が現実のものとなる可能性が高いと述べています。アッシェンブレンナーは、「計算能力の拡大」「アルゴリズムの効率化」「ホブリングの解除」という三つの主要な要因が、AIの進化を加速させると指摘しています。特に注目すべきは、AIが自らの研究を自動化し、自己改良するフィードバックループを形成する可能性です。これにより、AIの進化速度は一層加速し、最終的には超知能に到達することが可能になります。彼が公開した文書「Situational Awareness」は、AIの未来に関する重要な情報を提供しており、特にAI研究者や技術者にとって必読の内容となっています。
公開日:2024年6月8日
※動画を再生してから読むのがオススメです。
リオポルド・アッシェンブレナーは、OpenAIで働いていた人物であり、内部文書を漏らしたという理由で解雇されたとされています。
このビデオはおそらく最も重要なビデオの1つであり、世界中の多くの企業がAGIに到達するための10年間を詳細に説明しており、彼の洞察力は他のどのビデオとも異なります。
彼は、ほとんどの人がAIに関する今後の出来事を価格に反映していないと述べるツイートをしており、AGIに到達するために必要な段階についての文書全体を作成し、今後数年間で目撃するであろういくつかの出来事についても述べています。
私は、彼が予測しているいくつかのことについて非常に洞察力があるため、少なくともこのビデオの最初の10分を見るべきだと思います。
この文書全体を最上から最下まで読んだことがあり、このエッセイ全体から最も洞察力のあるセクションを提供します。私は、これが注目すべき文書であり、誰もが注意を払う必要があると考えています。
さらなる時間を無駄にせずに、10年後の状況認識に入りましょう。
ここで彼が紹介しているのは、町の話題が10億のコンピュートクラスターから1000億ドルのコンピュートクラスター、さらには兆ドルのクラスターに移り、半年ごとに取締役会の計画にゼロが追加されているということです。
AGIレースは始まった。
私たちは考え、推論できる機械を構築しており、2025年から2026年までには、これらの機械が大学卒業生を凌駕し、そしてその10年の終わりまでには、彼らはあなたや私よりも賢くなり、我々は真の意味での超知能を持つことになります。
もう一度言いますが、この10年の終わりまでに、我々は真の意味での超知能を持つことになります。そして、半世紀ぶりに見られなかった国家安全保障部隊が解放され、やがてプロジェクトが始まるでしょう。
これらは非常に魅力的な予測ですが、チャートや彼が分析しているデータに入ると、本当に理にかなっていると信じてください。これがこの文書が状況認識と呼ばれる理由です。
すべてに入る前に、彼が言うには、世界はやがて目を覚ますでしょうが、今はおそらく数百人、ほとんどはサンフランシスコにいて、AI研究所にいる人々が、実際に状況認識を持っているということです。私はその中に自分自身を見つけた何らかの奇妙な力や運命によって、その中にいるということです。この文書が本当に重要な理由です。OpenAIのような企業を去り、その後、超知能がどのように生まれ、そのシステムがいつ生まれるかについての詳細を提供する情報のようなものに、私たちは本当に幸運だと思います。
これは、GPT-4からAGIへの第1セクションで、桁数を数えるものです。
OOMsを見ると、それが何を意味するかがわかります。
ここで彼は明確に自分のAGI予測を述べています。
2027年までにAGIは驚くほど実現可能です。
GPT-2からGPT-4までの進化は、たった4年で幼稚園児から高校生のような能力を持つものになりました。
コンピュート、アルゴリズムの効率、利益の解放のトレンドラインを追跡すれば、2027年までにもう1つの幼稚園児から高校生のような質的な飛躍を期待すべきです。
ここで、私たちが行くかもしれない正確な場所を示す最初の非常に重要なチャートに入ります。
彼はこう述べています。「次の主張をします。2027年までに、モデルがSFを信じる必要のないAI研究者エンジニアの仕事をできるようになる可能性が非常に高いと言えるでしょう。」
それはグラフ上の直線を信じることだけを必要とします。
ここで見ているのは、GPT-2からGPT-4までの効果的な計算の基本スケールアップのグラフであり、今後もスケールアップを続けることを考えています。
ここから魅力的なことの1つは、これにさらに急な曲線があると思うことです。
私がそう述べる理由は、2022年から2023年までの期間に、私が「認識」と呼びたいものがあったからです。
この期間は、GPT-3からGPT-4への誕生を示しており、これによりAI時代に本当に巨大なスペクタクルが置かれました。
GPT-3とGPT-4は単なる研究製品ではありませんでした。
GPT-3はそうでしたが、GPT-4とChatGPT-3.5は実際に一般向けに利用可能な製品でした。
その後、AIに興味を持つ人々の数や、様々な企業が数十億ドルや数十億のリソースをこの技術に投入していることが爆発的に増えています。その理由は、この分野で起こる経済価値をすべて捉えるためです。
だからこそ、2024年から2028年までの期間に、この期間よりもはるかに多くの成長があることは驚くべきことではないと私は信じています。
つまり、2027年から2028年までに自動化されたAI研究エンジニアを持つことは、非常に遠くないことではないということです。
なぜなら、直線と効果的な計算を見ているだけなら、これは確かに私たちが到達できる場所です。
これの影響は非常に厳しいです。
なぜなら、自動化されたAI研究エンジニアを持つことができれば、その後に超知能に到達するのにそれほど時間がかからないということです。
もしAI研究を自動化できれば、効果的に再帰的に自己改善することができるかもしれませんが、超知能が爆発するような狂ったループなしで。
ここで彼が本当に理解するのが重要だと思うことの1つを述べています。
私はこの文書が公開される前のビデオでこれを述べましたが、私が最初に考えた同じ懸念の1つを誰かが提起しているのを見るのは嬉しいです。
彼は、次世代のモデルが準備中であり、深層学習が壁にぶつかって停滞していると宣言する人もいると述べました。
しかし、桁数を数えることで、実際に期待すべきことを垣間見ることができます。
約3週間前のビデオで、外部的には物事が鈍化しているが、内部的には全く鈍化していないと明確に述べました。
一部のトップAI研究所が最新の研究成果を発表していないからといって、毎月革新が行われていないわけではありません。
ここで彼は、推論は単純だが、含意は驚くべきだと述べています。
もう1つのジャンプがあれば、私たちをAGIに連れて行く可能性が非常に高いです。つまり、PhDや専門家と同じくらい賢いモデルが、共同作業者として私たちのそばで働くことができるかもしれません。
おそらく最も重要なのは、これらのAIシステムがAI研究自体を自動化できれば、それは強烈なフィードバックループを設定するだろうということです。
もちろん、そこでAI研究者がAI研究での突破口を作り出し、それをAIシステムに適用することで、それらはより賢くなります。
そのループはそこから続きます。
基本的には、より遅いスケールでの再帰的な自己改善ですが、ここで彼は明確に述べていますが、ほとんどの人がこれを考慮に入れていないところですが、AIに関する状況認識は実際にはそれほど難しくありません。
一歩引いてトレンドを見れば、AIの能力に驚かされ続けるなら、桁数を数え始めてください。
ここで、過去4年間について話すと、彼はGPT-2からGPT-4について話しています。
GPT-2は基本的には幼稚園児のようなもので、いくつかの妥当な文をつなげることができます。
これらは当時人々が非常に感銘を受けたGPT-2の例ですが、それでも、つまずかずに5まで数えることができませんでした。
2020年に登場したGPT-3は、小学生と同じくらい賢かったです。これも再び多くの人々を感銘させました。
ここで2023年のGPT-4について話しますが、これは賢い高校生です。
それはかなり洗練されたコードを書くことができ、それを反復的にデバッグすることができ、複雑な主題について賢明かつ洗練された文章を書くことができます。
それは難しい高校の競争数学を理解でき、私たちが与えるテストで高校生の大多数を打ち負かしています。
AGIの火花の論文があり、それは私たちにAGIから遠くないことを示すいくつかの能力を示し、このGPT-4レベルのシステムが人工一般知能の最初の火花であることを示しました。
ここで重要なのは、彼は明確に述べていますが、多くの人が気づいていないことで、制限はモデルがまだ足かせをしている明らかな方法にまで遡るということです。
基本的に、彼はモデルがどのように使用されているか、およびそれらが持つ現在のフレームワーク、モデルの背後にある生の知性、これらのモデルの生の認知能力(そう呼びたいとすら思えるなら)、が人工的に制約されているということについて話しています。
将来、これらが制約されなくなることを計算すると、その生の知性が異なるアプリケーションにどのように適用されるかが非常に興味深いことになるでしょう。
ほとんどの人が気づいていない明確なことの1つは、私たちがベンチマークを使い果たしていることです。
エピソードとして、私の友人のダンとコリンが2020年にMMLUというベンチマークを作成しました。
彼らは、高校や大学生に与える最も難しい試験に相当する、時代を超えて通用する基準をついに作りたいと望んでいた。
たった3年後に、GPT-4やGeminiなどのモデルは約90%を達成しています。
GPT-4は、主に標準的な高校や大学の適性テストをほとんどクリアしています。
ここでは、AIシステムのテストスコアが、人間のパフォーマンスと比較してさまざまな能力に関して示されています。
最近の数年間で、急激な増加が見られることがわかります。
ここでは、AIが能力の面でどれだけ多くの異なる分野で進化しているかが本当に驚くべきことです。
見ることは本当に魅力的であり、また潜在的にはかなり懸念されることでもあります。
GPT-4からAGIに移行する際、ほとんどの人が見逃していたことの1つは、実際に私を驚かせたベンチマークがあるということです。
実質的には、高校数学競技大会からの難しい数学問題のセットである数学ベンチマークと呼ばれるものがあります。
2021年にベンチマークが公開されたとき、GPT-3はわずか5%しか得られませんでした。基本的に、この狂気じみたことは、当時研究者が数学問題の解決においてより多くのトラクションを持つために、広範な研究コミュニティから新しいアルゴリズムの進歩が必要であり、数年後には数学の解決に対する基本的な新しいブレークスルーが必要になると予測していたことです。
しかし、2022年半ばまでに、私たちは50%の精度に達し、基本的に最近の数学Gemini 1.5 Proでは、90%に達していることがわかります。これは本当に信じられないことです。
これは、はっきりとスクリーンショットを撮って友達や同僚、またはどんなコミュニティにいるかに関係なく共有できるものです。
しかし、コメントの試験のパフォーマンスを人間のテスト受験者と比較すると、そのパーセンタイルがわかります。
GPT-4は、微積分や化学を除くほとんどすべての分野で90%以上の順位を獲得しています。GPT-3からGPT-4に移行する際に、そのような短期間でこれを達成するというのは驚くべきことです。
これは、多くの人々が単純に予想していなかった、本当の能力の飛躍です。
ここで、深層学習の性質に基づいて本当に始められる予測のいくつかについて話していきます。
基本的に、深層学習の魔法は、それがうまく機能するということであり、否定的な意見を持つ人々がいつもいるにもかかわらず、トレンドラインは驚くほど一貫しています。
ここでは、OpenAIのSoraテクノロジーにおけるスケーリングコンピュートのスクリーンショットが示されており、各レベルで品質と一貫性が向上していることがわかります。
ベースのコンピュートはかなりひどい画像/ビデオを生成し、4倍のコンピュートはかなり首尾一貫したものを生成しますが、30倍のコンピュートは、品質、一貫性、および得られるビデオのレベルにおいて驚くべきものです。これは、これらのトレンドラインが非常に一貫していることを示しています。
彼は言います、「私たちがこれらのモデルを訓練する際にどれだけの桁数を確実に数えることができれば、したがって能力の向上を推測することができる」と。これが、実際にはGPT-4の能力レベルを見た一部の人々が見た予測につながる方法です。
それがもちろん、思考の連鎖ツールや足場などのことについて話していることの1つですので、GPT-4やこのアーキテクチャの基本的な認知能力がある場合、基本的には重要な潜在能力を引き出すことができます。
そのシステムの前に異なるステップを追加することで、潜在能力を引き出すことができます。
たとえば、GPT-4を思考の連鎖推論と一緒に使用すると、異なるシナリオで特定の質問に答える能力が大幅に向上します。
そのようなことは、異なる方法でシステムとやり取りすることで、システムの背後にある生データや生の知識が人々が考えている以上にはるかに大きいことを解き明かすことができます。
これが、あなたが「足かせを外す利益」と呼ぶものです。
非常に重要なことの1つは、これはあまり注目されていないことですが、これが見えない多くの利益を構成することになるのは、アルゴリズムの効率です。
コンピュートへの大規模な投資が注目を浴びる一方で、アルゴリズムの進歩も同様に進歩の重要な要因であり、大幅に過小評価されています。
アルゴリズムの進歩がどれほど重要かを見るために、次のイラストを考えてみてください。
これですよ:数学のベンチマークで50の精度を達成するための価格がわずか2年で下がったこと。
比較のために、数学があまり好きでないコンピュータサイエンスの博士課程の学生は40点を取得しました。
これは既にかなり良いものであり、推論効率はわずか2年未満で3桁も向上しました、つまり1000倍です。
ここにあるものは、同じ結果をたった2年で非常に効率的にするものです。
それは本当に信じられないことです。
これらのアルゴリズムの効率は、思っている以上に多くの利益をもたらすでしょう。
これらの研究論文が発表されるarxivを見ていた人として、信じてください、おそらく毎日50から80の異なる研究論文が発表されています。
それらのうちのいくつかは、10から20パーセントの利益、30の利益をもたらします。
これらすべてのアルゴリズムの効率が互いに複利で働くことを計算すると、このようなケースがさらに増えるでしょう。
ここでAPIコストについて話すと、これらのモデルを実行する効率がどれほど向上するかを見てみます。
GPT-4のリリース時のコストは、GPT-3のリリース時と同じでした。
リリースから1年が経過したGPT-4以降、GPT-4レベルのモデルの価格は、GPT-4のリリースとともに6回/4回下がりました。
GPT-3.5レベルは基本的にGemini 1.5 Flashであり、これは以前使用していたものより85倍安くなっています。
このグラフを見ると、進捗がどれだけ進むか正確に計算したい場合、ここには2つの主要な要素があることがはっきりとわかります。
最初に挙げられるのは、スケーリングの物理的な計算であり、これはデータセンターや問題に取り組むために投入するハードウェアなどのことです。
そして、アルゴリズムの進歩であり、人々がこれらのアルゴリズムを狂ったような方法で書き直し、以前は解決方法がわからなかった効率を生み出すことになります。
だから将来、自動化されたAI研究者がそれを行うようになると、このギャップはさらに広がるでしょう。
これは私たちがホブリングについて話すところです。
これはもちろん、以前に話したことですが、その理由はそれがそうだからです。