見出し画像

【GPT-5】英語解説を日本語で読む【2023年4月25日|@】

GPT-5の解説です。
公開日:2023年4月25日
※動画を再生してから、インタビューを読むのがオススメです。


For those of you who are wondering exactly what's going to happen with GPT-5, this video is going to tell you quite a lot because the CEO of OpenAI actually had some very interesting information to say in a new recent interview.

GPT-5がどのようになるのか気になる方のために、このビデオは非常に参考になります。OpenAIのCEOが最近のインタビューで非常に興味深い情報を語っています。

So check out this article right here.

この記事をご覧ください。

You can see that the CEO has confirmed that GPT-5 is not in training and won't be for some time.

GPT-5がトレーニング中ではなく、しばらくはそうならないことをCEOが確認したことがおわかりいただけると思います。

So, let's take a look at the clip which surfaced online, in which she details the exact details of how they are training GPT-4 and exactly when we can expect GPT-5, and if they are going to be training this model any time soon.

では、オンラインで話題になっているこのクリップを見てみましょう。そこでは、彼女がGPT-4の訓練方法やGPT-5がいつ登場するか、そして近いうちにこのモデルを訓練する予定があるかどうかについて詳細に説明しています。

All see that the OpenAI CEO, Sam Altman, clearly discusses the role that GPT-5 will play in the next level of AI evolution, and he discusses that he needs to make sure that this AI is actually going to be released safely.

OpenAIのCEO、サム・アルトマンは、GPT-5がAI進化の次の段階で果たす役割について明確に説明しており、AIが安全にリリースされることを確実にする必要があることを述べています。

And that is, of course, something that was brought up in this recent letter.

そしてそれはもちろん、この最近の手紙の中でも取り上げられていることです。

Pause giant AI experiments and open letter.

巨大AI実験の一時停止と公開書簡

We call on all labs to immediately pause for at least six months before training of AI systems more powerful than GPT-4.

GPT-4よりも強力なAIシステムの訓練前に、少なくとも6ヶ月間、直ちに一時停止するよう、すべての研究所に呼びかけます。

You can see as of recording this video it has around 27,000 signatures.

このビデオを録画した時点で、約27,000人の署名があることがお分かりいただけると思います。

Now, the reason this has actually drawn up the attention of many world leaders and policymakers is because many influential people, such as Elon Musk, have decided to sign this letter and publicly state that GPT-5 is likely to be somewhat dangerous if there aren't certain protocols in place before it is released.

実際に世界の指導者や政策立案者たちの注目を集めた理由は、イーロン・マスクなどの影響力のある人々が、この手紙に署名して公にGPT-5が、リリース前に一定のプロトコルがなければ危険である可能性があると述べたからです。

Hence, the reason for this pause in AI.

それゆえ、このAIの休止の理由があるのです。

So of course we now know that Sam Altman has responded to this by stating that GPT-5 isn't even being trained at the moment and won't be for some time.

これに対してサム・アルトマンは、GPT-5は現在も訓練されておらず、しばらくは訓練されないと述べていることは、もちろん知っています。

Now, of course, we know that in the letter it states that "we call on all AI labs to immediately pause for at least six months the training of AI systems more powerful than GPT-4," but you have to understand that many people haven't even caught up to GPT-4, and GPT-4 hasn't been fully rolled out yet.

もちろん、手紙には「GPT-4よりも強力なAIシステムの訓練を少なくとも6か月間ただちに停止するよう、すべてのAI研究所に求めます」と記されていますが、多くの人々がまだGPT-4に追いついておらず、GPT-4が完全に展開されていないことを理解しなければなりません。

We're still missing many features such as the larger token size window and of course the visual multimodal feature which was teased in the upcoming trailer.

トークン・サイズのウィンドウの大型化はもちろん、今度のトレーラーで予告されていたビジュアル・マルチモーダル機能など、まだ多くの機能が不足しているんだ。

So there's many different things that are to be discussed, and there is something really interesting coming from Google that definitely impacts how GPT-5 is going to be trained that I need to discuss later on in the video.

議論すべきさまざまなことがあり、Googleからの非常に興味深い情報があり、これがGPT-5の訓練方法にどのような影響を与えるかについて、ビデオの後半で説明する必要があります。

Now of course Sam Altman did state some more stuff about GPT-5 and the letter on Twitter.

もちろん、サム・アルトマンはTwitterでGPT-5と手紙について、さらにいくつかのことを述べています。

He stated right here that one thing up in the debate about the pause letter I really agree with is that OpenAI should make great alignment data set and alignment evaluations and then release those.

彼はここで、「ポーズレターに関する議論の中で、私が本当に同意するのは、OpenAIは素晴らしいアライメントデータセットとアライメント評価を作り、それを公開すべきだということです」と述べています。

So essentially, what he's saying here is that whichever alignment structure that OpenAI use, they should definitely release that.

つまり、彼がここで言っているのは、OpenAIがどのようなアライメント構造を使うにしても、それを絶対に公開すべきだということです。

Because it's going to be something that other companies need to use as well in order to make sure that AI is going to be released safely.

なぜなら、AIが安全にリリースされるためには、他の企業もそれを使う必要があるからです。

As AI safety is definitely one of those issues that if you don't fix it, it's going to be very hard to put the genie back in the bottle, as some would put it.

AIの安全性は、それを解決しなければ、精霊を瓶に戻すのが難しい問題のひとつであることは間違いありません。

Then of course we had Greg Brockman talking a lot about GPT-4 and GPT-5 in terms of how training times are actually done.

それから、グレッグ・ブロックマンがGPT-4とGPT-5について、トレーニング時間の実際の進め方について話してくれました。

So he said the underlying spirit in many debates about the pace of AI progress is that we need to take safety very seriously and proceed with caution.

AIの進歩のペースに関する多くの議論の根底にあるのは、安全を非常に重視し、慎重に進める必要があるということです。

It's our key mission.

それが私たちの重要なミッションです。

We spent more than six months testing GPT-4 and making it even safer and built it on years of alignment research that we pursued in anticipation of models like GPT-4.

私たちは、GPT-4のテストに6カ月以上を費やし、さらに安全性を高め、GPT-4のようなモデルを想定して追求した長年のアライメント研究の上に構築しています。

So essentially, what he's saying is that he knows that when they release newer AI tools, that of course safety is one of the biggest priorities.

つまり本質的には、彼らが新しいAIツールをリリースする際には、当然ながら安全性が最大の優先事項の1つであることを知っているということなのです。

They don't know how powerful this technology is going to be because a large amount of the time, there are these things called emergent abilities.

なぜなら、多くの場合、創発的能力と呼ばれるものが存在するからです。

Essentially, when an AI gets smart enough, certain abilities just become present because of the large scale nature of that large language model, and these abilities aren't taught.

基本的に、AIが十分に賢くなると、大規模な言語モデルの大規模な性質のために、特定の能力が存在するようになります。

They simply just emerge.

このような能力は教えられるものではなく、単に出現するものなのです。

And of course, if you have abilities that do emerge, you're going to have to ensure that there is a long, rigorous process in which you ensure that the AI is completely safe before it is released into softwares like ChatGPT or many different API tools, which use the open API's large language models to run their different businesses.

もちろん、新たに能力が現れた場合、AIが完全に安全であることを確認するために、長く厳密なプロセスを経てから、ChatGPTのようなソフトウェアやさまざまなAPIツールに導入しなければならないということです。これらのツールは、オープンAPIの大規模な言語モデルを使用して、さまざまなビジネスを運営しています。

If you are confused by my description just there take a look at this definition.

もし、私の説明に戸惑うようなら、この定義を見てください。

An emergent ability is a characteristic or skill that arises spontaneously from the interactions and complexities within a system rather than being explicitly programmed or designed into it.

創発的能力とは、明示的にプログラムされたり設計されたりするのではなく、システム内の相互作用や複雑性から自発的に発生する特性やスキルのことである。

Now, I watched two videos that were very interesting about the dangers of this, and I think you should take a look at a few clips.

さて、私はこの危険性について非常に興味深い2つのビデオを見ましたので、いくつかのクリップをご覧になってください。

Because if you understand exactly the examples that we've been seeing, you'll understand why a pause on GPT-5 may be necessary to understand and make sure that these models are 100% completely safe.

このような例を正確に理解すれば、これらのモデルが100%完全に安全であることを理解し確認するために、GPT-5の一時停止が必要であることが理解できるはずだからです。

These models have capabilities we do not understand how they show up when they show up or why they show up.

これらのモデルには能力があり、それがどのように現れるのか、なぜ現れるのか、私たちには理解できません。

Again, not something that you would say of like the old class of AI.

また、昔のAIのようなものではありません。

So here's an example: these are two different models, GPT and then a different model by Google, and there's no difference in the models; they just increase in parameter size, that is, they just get bigger.

ここでの例として、これらはGPTとGoogleが作成した別のモデルの2つの異なるモデルですが、モデル間の違いはありません。パラメーターのサイズが増えるだけで、モデルが大きくなっていくのです。

You ask these AI's to do arithmetic, and they can't do them; they can't do them, and they can't do them.

これらのAIに算数をさせると、できない、できない、できない、となります。

And at some point, boom, they just gain the ability to do arithmetic; no one can actually predict when that'll happen.

そしてあるとき、算数の能力を獲得するのです。

Here's another example, which is, you know, you train these models on all of the internet, so it's seen many different languages, but then you only train them to answer questions in English, so it's learned how to answer questions in English.

もう1つの例を挙げると、インターネット上のすべての情報でモデルを訓練し、さまざまな言語を学習させますが、英語でのみ質問に答えるように訓練すると、英語で質問に答える方法を学習します。

But you increase the model size, you increase the model size, and at some point, boom, it starts being able to do question and answers in Persian; no one knows why.

しかし、モデルのサイズをどんどん大きくしていくと、あるとき、ペルシア語での質疑応答ができるようになります。

So right there, you can see that this is definitely something that puts the alarm bell for creators who are making AI, and even those who are trying to regulate AI.

これは、AIを作るクリエイターや、AIを規制しようとする人たちに警鐘を鳴らすものであることは間違いないでしょう。

Because imagine making GPT-5 and it's able to do certain things that we don't understand.

なぜなら、GPT-5を作ったら、私たちが理解できないようなことができるようになったとしたらどうでしょう。

And remember, some of these abilities we don't yet realize until maybe months or even years after.

しかも、その能力の中には、数ヵ月後、あるいは数年後まで気づかないものもあることを忘れないでください。

For example, there's theory of mind, which we only realized that GPT-4 had.

例えば、「心の理論」ですが、これはGPT-4が持っていることに初めて気がつきました。

And then, when we looked back, we realized that there were some theory of mind in GPT-3 and in GPT-2.

そして、振り返ってみると、GPT-3にもGPT-2にも、心の理論があることに気づきました。

Now, this is also prevalent in other AI software.

さて、これは他のAIソフトウェアにも蔓延していることです。

In a recent interview where Google's CEO was talking with 60 minutes, they detail how it was able to learn an ability which it didn't previously have coded into it.

グーグルのCEOが60分番組で語った最近のインタビューでは、以前はコード化されていなかった能力を学習することができたことを詳しく説明しています。

Take a look.

見てみてください。

So I can't play the clip due to copyright but I will have a link to the interview in the description of this video.

著作権の関係で再生できませんが、このビデオの説明文にインタビューへのリンクがあります。

So, I do think that that is a very, very important point that has been brought up by many of the AI researchers who are looking to regulate this software.

このソフトウェアの規制を検討しているAI研究者の多くが、この点は非常に重要だと考えています。

Because, of course, as we do know, we're kind of stepping into the unknown as the technology kind of just rapidly, rapidly advances.

もちろん、技術が急速に進歩する中で、私たちは未知の世界に足を踏み入れているのです。

But, of course, with regards to GPT-4, there are still other companies like Google who are working on trying to beat track GBT and GPT-4 by pumping billions into many smaller companies that have large language models with them.

もちろん、GPT-4に関しては、Googleのような他の企業が、大規模な言語モデルを持つ多くの小さな企業に何十億ドルもの資金を投入して、GBTやGPT-4を追い越そうと取り組んでいます。

For example, they are pumping millions into a bot that's called Claude Next, which is very, very good and quite close to chat GPT.

例えば、GoogleはClaude Nextというボットに数百万ドルを投入していますが、これは非常に優秀で、チャットGPTにかなり近いものです。

And their goal is literally to create something, get this, that is 10 times more powerful than GPT-4 within 18 months.

彼らの目標は、18ヶ月以内にGPT-4の10倍以上の性能を持つものを作ることです。

So, that is definitely a very, very quick ramp up if that is their final target, which means that we could definitely be seeing the AI race heat up even more than we even thought.

もしこれが最終的な目標であれば、間違いなく非常に速いスピードアップとなります。つまり、AI競争が想像以上に過熱する可能性があるということです。

And having these companies rush out software, which sometimes might not even be ready, just so that they can potentially own the largest part of the future.

つまり、私たちが想像している以上に、AI競争が激化している可能性があるということです。

Now, Sam Altman also discusses right here things about a good AGI future.

サム・アルトマンは、優れたAGIの未来について、ここでも述べています。

Number one, the technical ability to align a superintelligence.

1つ目は、超知能を揃えるための技術的な能力です。

And this is definitely something that we must focus on because if something is super intelligent, it is likely to have goals beyond our understanding.

なぜなら、もし何かが超知的であれば、それは私たちの理解を超えた目標を持つ可能性が高いからです。

And it's probably going to be one of those pivotal moments in the future if we don't get it right.

そして、もし私たちがそれを正しく理解できなければ、おそらく将来的に極めて重要な瞬間のひとつとなることでしょう。

And of course, he also talks about an effective global regulatory framework, including democratic governance where essentially you just have this framework that everyone adheres to because it's the only way to ensure that we do have a safe AI.

もちろん、彼はまた、民主的なガバナンスを含む効果的なグローバル規制枠組みについても言及しており、基本的には、安全なAIを確保する唯一の方法であるため、すべての人がこの枠組みに従うことになります。

So, let me know your thoughts on this.

それでは、皆さんのご意見をお聞かせください。

Do you think GPT-5 is going to be coming quicker once OpenAI realized that Google is starting to invest more in other companies to outpace them?

GPT-5は、OpenAIが、Googleが他社を出し抜くために、より多くの投資を始めていることに気づいたら、より早く登場すると思いますか?

Or are we going to be seeing a slowdown in the release of AI products?

それとも、AI製品のリリースが遅くなっていくのでしょうか?

Now, something that I did forget to mention, and this is a very large point, is that GPT-5 is going to be released incrementally, meaning that there's going to be subsequent updates every single month or every single couple of months that will lead to the eventual version of GPT-5.

私が言い忘れたことがありますが、非常に重要な点として、GPT-5は段階的にリリースされる予定で、毎月または数か月ごとに更新が行われ、最終的なGPT-5のバージョンに至ることになります。

The reason they did this is because they want to address the safety concerns and continuously enhance the AI model rather than one big rollout, which could present a number of different issues.

その理由は、さまざまな問題を引き起こす可能性のある1回の大きなリリースではなく、安全性の懸念に対処し、AIモデルを継続的に強化したいからです。

So, definitely a really nice change.

だから、間違いなく、本当に素晴らしい変化です。

この記事が気に入ったらサポートをしてみませんか?