GPT-5の解説です。
公開日:2023年4月25日
※動画を再生してから、インタビューを読むのがオススメです。
GPT-5がどのようになるのか気になる方のために、このビデオは非常に参考になります。OpenAIのCEOが最近のインタビューで非常に興味深い情報を語っています。
この記事をご覧ください。
GPT-5がトレーニング中ではなく、しばらくはそうならないことをCEOが確認したことがおわかりいただけると思います。
では、オンラインで話題になっているこのクリップを見てみましょう。そこでは、彼女がGPT-4の訓練方法やGPT-5がいつ登場するか、そして近いうちにこのモデルを訓練する予定があるかどうかについて詳細に説明しています。
OpenAIのCEO、サム・アルトマンは、GPT-5がAI進化の次の段階で果たす役割について明確に説明しており、AIが安全にリリースされることを確実にする必要があることを述べています。
そしてそれはもちろん、この最近の手紙の中でも取り上げられていることです。
巨大AI実験の一時停止と公開書簡
GPT-4よりも強力なAIシステムの訓練前に、少なくとも6ヶ月間、直ちに一時停止するよう、すべての研究所に呼びかけます。
このビデオを録画した時点で、約27,000人の署名があることがお分かりいただけると思います。
実際に世界の指導者や政策立案者たちの注目を集めた理由は、イーロン・マスクなどの影響力のある人々が、この手紙に署名して公にGPT-5が、リリース前に一定のプロトコルがなければ危険である可能性があると述べたからです。
それゆえ、このAIの休止の理由があるのです。
これに対してサム・アルトマンは、GPT-5は現在も訓練されておらず、しばらくは訓練されないと述べていることは、もちろん知っています。
もちろん、手紙には「GPT-4よりも強力なAIシステムの訓練を少なくとも6か月間ただちに停止するよう、すべてのAI研究所に求めます」と記されていますが、多くの人々がまだGPT-4に追いついておらず、GPT-4が完全に展開されていないことを理解しなければなりません。
トークン・サイズのウィンドウの大型化はもちろん、今度のトレーラーで予告されていたビジュアル・マルチモーダル機能など、まだ多くの機能が不足しているんだ。
議論すべきさまざまなことがあり、Googleからの非常に興味深い情報があり、これがGPT-5の訓練方法にどのような影響を与えるかについて、ビデオの後半で説明する必要があります。
もちろん、サム・アルトマンはTwitterでGPT-5と手紙について、さらにいくつかのことを述べています。
彼はここで、「ポーズレターに関する議論の中で、私が本当に同意するのは、OpenAIは素晴らしいアライメントデータセットとアライメント評価を作り、それを公開すべきだということです」と述べています。
つまり、彼がここで言っているのは、OpenAIがどのようなアライメント構造を使うにしても、それを絶対に公開すべきだということです。
なぜなら、AIが安全にリリースされるためには、他の企業もそれを使う必要があるからです。
AIの安全性は、それを解決しなければ、精霊を瓶に戻すのが難しい問題のひとつであることは間違いありません。
それから、グレッグ・ブロックマンがGPT-4とGPT-5について、トレーニング時間の実際の進め方について話してくれました。
AIの進歩のペースに関する多くの議論の根底にあるのは、安全を非常に重視し、慎重に進める必要があるということです。
それが私たちの重要なミッションです。
私たちは、GPT-4のテストに6カ月以上を費やし、さらに安全性を高め、GPT-4のようなモデルを想定して追求した長年のアライメント研究の上に構築しています。
つまり本質的には、彼らが新しいAIツールをリリースする際には、当然ながら安全性が最大の優先事項の1つであることを知っているということなのです。
なぜなら、多くの場合、創発的能力と呼ばれるものが存在するからです。
基本的に、AIが十分に賢くなると、大規模な言語モデルの大規模な性質のために、特定の能力が存在するようになります。
このような能力は教えられるものではなく、単に出現するものなのです。
もちろん、新たに能力が現れた場合、AIが完全に安全であることを確認するために、長く厳密なプロセスを経てから、ChatGPTのようなソフトウェアやさまざまなAPIツールに導入しなければならないということです。これらのツールは、オープンAPIの大規模な言語モデルを使用して、さまざまなビジネスを運営しています。
もし、私の説明に戸惑うようなら、この定義を見てください。
創発的能力とは、明示的にプログラムされたり設計されたりするのではなく、システム内の相互作用や複雑性から自発的に発生する特性やスキルのことである。
さて、私はこの危険性について非常に興味深い2つのビデオを見ましたので、いくつかのクリップをご覧になってください。
このような例を正確に理解すれば、これらのモデルが100%完全に安全であることを理解し確認するために、GPT-5の一時停止が必要であることが理解できるはずだからです。
これらのモデルには能力があり、それがどのように現れるのか、なぜ現れるのか、私たちには理解できません。
また、昔のAIのようなものではありません。
ここでの例として、これらはGPTとGoogleが作成した別のモデルの2つの異なるモデルですが、モデル間の違いはありません。パラメーターのサイズが増えるだけで、モデルが大きくなっていくのです。
これらのAIに算数をさせると、できない、できない、できない、となります。
そしてあるとき、算数の能力を獲得するのです。
もう1つの例を挙げると、インターネット上のすべての情報でモデルを訓練し、さまざまな言語を学習させますが、英語でのみ質問に答えるように訓練すると、英語で質問に答える方法を学習します。
しかし、モデルのサイズをどんどん大きくしていくと、あるとき、ペルシア語での質疑応答ができるようになります。
これは、AIを作るクリエイターや、AIを規制しようとする人たちに警鐘を鳴らすものであることは間違いないでしょう。
なぜなら、GPT-5を作ったら、私たちが理解できないようなことができるようになったとしたらどうでしょう。
しかも、その能力の中には、数ヵ月後、あるいは数年後まで気づかないものもあることを忘れないでください。
例えば、「心の理論」ですが、これはGPT-4が持っていることに初めて気がつきました。
そして、振り返ってみると、GPT-3にもGPT-2にも、心の理論があることに気づきました。
さて、これは他のAIソフトウェアにも蔓延していることです。
グーグルのCEOが60分番組で語った最近のインタビューでは、以前はコード化されていなかった能力を学習することができたことを詳しく説明しています。
見てみてください。
著作権の関係で再生できませんが、このビデオの説明文にインタビューへのリンクがあります。
このソフトウェアの規制を検討しているAI研究者の多くが、この点は非常に重要だと考えています。
もちろん、技術が急速に進歩する中で、私たちは未知の世界に足を踏み入れているのです。
もちろん、GPT-4に関しては、Googleのような他の企業が、大規模な言語モデルを持つ多くの小さな企業に何十億ドルもの資金を投入して、GBTやGPT-4を追い越そうと取り組んでいます。
例えば、GoogleはClaude Nextというボットに数百万ドルを投入していますが、これは非常に優秀で、チャットGPTにかなり近いものです。
彼らの目標は、18ヶ月以内にGPT-4の10倍以上の性能を持つものを作ることです。
もしこれが最終的な目標であれば、間違いなく非常に速いスピードアップとなります。つまり、AI競争が想像以上に過熱する可能性があるということです。
つまり、私たちが想像している以上に、AI競争が激化している可能性があるということです。
サム・アルトマンは、優れたAGIの未来について、ここでも述べています。
1つ目は、超知能を揃えるための技術的な能力です。
なぜなら、もし何かが超知的であれば、それは私たちの理解を超えた目標を持つ可能性が高いからです。
そして、もし私たちがそれを正しく理解できなければ、おそらく将来的に極めて重要な瞬間のひとつとなることでしょう。
もちろん、彼はまた、民主的なガバナンスを含む効果的なグローバル規制枠組みについても言及しており、基本的には、安全なAIを確保する唯一の方法であるため、すべての人がこの枠組みに従うことになります。
それでは、皆さんのご意見をお聞かせください。
GPT-5は、OpenAIが、Googleが他社を出し抜くために、より多くの投資を始めていることに気づいたら、より早く登場すると思いますか?
それとも、AI製品のリリースが遅くなっていくのでしょうか?
私が言い忘れたことがありますが、非常に重要な点として、GPT-5は段階的にリリースされる予定で、毎月または数か月ごとに更新が行われ、最終的なGPT-5のバージョンに至ることになります。
その理由は、さまざまな問題を引き起こす可能性のある1回の大きなリリースではなく、安全性の懸念に対処し、AIモデルを継続的に強化したいからです。
だから、間違いなく、本当に素晴らしい変化です。