見出し画像

【GPT-Next:2024年11月、OpenAIが革命的AIモデルを発表か?】英語解説を日本語で読む【2024年5月24日|@TheAIGRID】

この動画では、OpenAIの次世代AIモデルに関する秘密の発表と最新情報が紹介されています。パリで開催されたVivaTechカンファレンスでは、2021年のGPT-3、2023年のGPT-4に続き、2024年11月に「GPT-Next」と呼ばれる新モデルがリリースされることが示唆されました。GPT-Nextは、GPT-5ではなく新しい名称が付けられており、その性能は現在のモデルとは比べ物にならないほど向上するとのことです。また、2024年11月というリリース時期は、米国大統領選挙の影響を考慮したものだと考えられます。OpenAIの幹部は、1〜2年以内にモデルが現在とは全く異なるものになると予測しており、特に推論能力の大幅な向上が期待されています。また、医学研究や科学的推論においても優れた性能を発揮すると考えられています。さらに、マイクロソフトとの協力により、大規模な計算リソースを用いた次世代モデルの開発が進められています。
公開日:2024年5月24日
※動画を再生してから読むのがオススメです。


We think that within maybe a year or two from now, like the models will be unrecognizable from what they are today.

今から1年か2年後には、モデルは今日のものとは見分けがつかないくらいになると考えています。

This year, we also plan to push that boundary even more, and we expect our next Frontier model to come and provide like a step function in reasoning improvements as well.

今年は、さらにその限界を押し広げる予定であり、次のフロンティアモデルが理論の改善において飛躍的な進歩をもたらすと期待しています。

There was actually a very, very interesting announcement that was made.

実際、非常に興味深い発表がありました。

But including myself, a lot of people didn't actually realize what the announcement was.

しかし、私を含め、多くの人々が実際にその発表が何であるか気づいていなかったのです。

It was something that was quite under the radar.

それはかなり地味な存在でした。

But in this video, I'm going to be showing you guys all of these secret announcements and some of these secret updates that are coming to OpenAI's models in the future.

しかし、このビデオでは、将来のOpenAIのモデルに導入されるこれらの秘密の発表やアップデートのいくつかを皆さんに紹介します。

In the very, very close future, including some of the key dates that were actually unveiled at a secret presentation.

実際には、秘密のプレゼンテーションで明らかにされたいくつかの重要な日付を含む、非常に近い将来についても触れます。

One of the things that you can see here is this is an image that has been floating around on the internet for the past 24 hours.

ここで見ることができるものの1つは、過去24時間インターネット上に出回っている画像です。

I've confirmed that this image is from the Viva Technology event, which is commonly known as VivaTech.

この画像は、一般的にVivaTechとして知られるViva Technologyイベントから来ていることを確認しました。

It's an annual technology conference dedicated to innovation and startups.

それは革新とスタートアップに捧げられた年次のテクノロジーカンファレンスです。

It's held in Paris, in France, and was founded in 2016 by the publicist group.

それはフランスのパリで開催され、2016年に広告代理店グループによって設立されました。

The event takes place at the Paris Expo.

このイベントはパリエキスポで開催されます。

It's pretty much the, or I should say, one of Europe's largest tech and startup events.

それはほぼ、あるいはむしろ、ヨーロッパ最大のテックとスタートアップのイベントの1つです。

It's mainly focused on tech innovation along with some other key business insights.

それは主にテクノロジーの革新に焦点を当て、他のいくつかの重要なビジネスの洞察も含まれています。

From this image, it seems pretty simple, but there was something that a lot of people did miss.

この画像からは、非常にシンプルに見えますが、多くの人々が見逃してしまった点がありました。

We can see here that on the image that you're currently looking at, we have three main points.

こちらの画像をご覧いただいているとおり、3つの主要なポイントがあります。

What we do have is we have a situation where we have the 2021, which is the GPT-3 era, the DaVinci model.

私たちが持っているのは、2021年であり、GPT-3時代であるDaVinciモデルです。

This was of course in 2021.

これはもちろん2021年のことです。

You can see now, and this is actually super, super interesting.

今見ることができますが、これは実際に非常に興味深いです。

This is why I think this video is remarkably important.

だからこそ、このビデオが非常に重要だと思います。

You can see that we moved in 2023 to the GPT-4 era, which is here.

2023年にGPT-4時代に移行したことがわかります。

You can see that this is around the time of GPT-4 being released and being deployed.

GPT-4がリリースされ、展開された時期であることがわかります。

What's very, very interesting is that it now shows a new piece of information that I would say is a little bit interesting.

非常に興味深いのは、新しい情報が示されていることです。少し興味深いと言えるでしょう。

You can see that they describe this as a GPT-Next, okay?

彼らはこれをGPT-Nextと表現していることがわかりますね。

I think that maybe GPT-5 might not be coming.

おそらくGPT-5は登場しないかもしれないと思います。

When I say that, I don't mean GPT-5 isn't actually coming.

私が言うとき、GPT-5が実際に登場しないという意味ではありません。

What I mean is that GPT-5, as you think of it, I think OpenAI are most likely planning a lot more than people think.

私が言いたいのは、GPT-5というものを考えると、OpenAIは人々が考えている以上に多くの計画を立てている可能性が高いと思うということです。

Of course, that is something that we even recently saw with the recently demoed GPT-O. So it's crazy because it shows us that May 2024, which is, as you can see here today, and you can see it says May 2024.

もちろん、最近デモされたGPT-Oでも見られたことですが、それは私たちに2024年5月を示しています。ここで今日見ることができるように、そしてMay 2024と書かれています。

But what's crazy is that they've actually given us the release date for this GPT-Next model.

しかし、狂ったことに、このGPT-Nextモデルのリリース日が実際に公開されています。

You can see that if you look at this.right here, we can see that this is actually November 2024.

ここを見るとわかるように、実際には2024年11月です。

This date is very important for a few reasons, which I'm going to explain in a moment.

この日付はいくつかの理由で非常に重要ですが、すぐに説明します。

But I think one of the first things that really, really surprised me was, of course, the fact that this is called GPT-Next and not GPT-5.

でも、本当に驚いた最初のことの1つは、もちろん、これがGPT-5ではなくGPT-Nextと呼ばれているということです。

What's really, really crazy about this is that the craziest thing is that we can see that there is clearly some kind of increasing capability.

これが本当に狂っているのは、最も狂っていることは、明らかに何らかの能力の向上が見られるということです。

It is very, very hard to see this, but on the left-hand side here, it says model intelligence.

これは非常に難しいことですが、ここに左側に書かれているのはモデルの知能ということです。

You can see that GPT-3's intelligence was around this level, GPT-4's intelligence, it doesn't really benchmark it, but I'm guessing that this is GPT-4o.

GPT-3の知能がこのレベルだったことがわかりますし、GPT-4の知能は、それをベンチマークしていませんが、おそらくこれはGPT-4oだと思われます。

You can see that there is a slight improvement there, although the improvement is slight.

あそこにわずかな改善が見られることがわかりますが、その改善はわずかです。

The thing that you need to take into account is the fact that even if improvements are slight, it does mean that a lot of use cases are going to be pretty, pretty insane, because if the model can get smarter and it can become more reliable, then it means the industries that it can impact are going to be a lot more overall.

考慮しなければならないのは、たとえ改善がわずかであっても、多くのユースケースが非常に驚くべきものになるという事実です。モデルが賢くなり、より信頼性が高くなると、それが影響を及ぼす産業が全体として大幅に増加することを意味します。

I think one of the most important things that we could see here is that the model intelligence from GPT-4o or GPT-4 completely does a huge, huge jump.

ここで見ることができる最も重要なことの1つは、GPT-4oまたはGPT-4からのモデルの知能が非常に大きく飛躍しているということです。

We can see that literally from this level to this level, we can see that it's that amount of jump.

このレベルからこのレベルまで文字通り見ることができます。ジャンプの量がその程度であることがわかります。

But from here, it is a quite big jump.

しかし、ここからはかなり大きな飛躍です。

In fact, I probably should be using some actual arrows, apologies for my terrible drawings.

実際、実際の矢印を使うべきかもしれませんが、私のひどい絵についてはお詫び申し上げます。

But the point I'm trying to make here is that it seems that the kind of jump that we're about to get here with this GPT-Next model looks really, really surprising.

ここで言いたいポイントは、このGPT-Nextモデルで得られるような飛躍が本当に驚くべきものに見えるということです。

It's something that they've constantly reiterated that these future models are going to be very, very intelligent in terms of how smart these systems are.

これは彼らが繰り返し述べていることで、これらの将来のモデルは、どれだけスマートなシステムであるかに関して非常に賢いということです。

Whilst there might be other features, this is something that we do know.

他にも特徴があるかもしれませんが、これは私たちが知っていることです。

One thing that I did want to talk about about this GPT-Next model, because of course, they could have simply put that this is going to be GPT-5, although of course, they don't want to officially announced it.

OpenAIのこのGPT-Nextモデルについて話したかったことの1つは、もちろん、これがGPT-5になると簡単に言えたかもしれませんが、もちろん、公式には発表したくないということです。

It could just be a placeholder for GPT-5.

それは単にGPT-5のプレースホルダーになる可能性があります。

I think that it might not be GPT-5, but I'm gonna dive into that one second.

私はそれがGPT-5ではないかもしれないと思いますが、それについて詳しく調べてみます。

But one thing I want you guys to know is that this release date right here of November 2024 is a key date because this makes sense for the release date of the NEXT model, whether it's GPT-5 or whether it's GPT-Next, whatever other models there are.

しかし、皆さんに知ってほしいことの1つは、2024年11月のこのリリース日が重要な日であるということです。これは、GPT-5であろうとGPT-Nextであろうと、他にどんなモデルがあろうと、次のモデルのリリース日として意味があるからです。

I think it's important to note that this date has been said by OpenAI a few times.

この日付がOpenAIによって何度か言及されていることが重要だと思います。

One of the key things coming up this year, and I know some people don't live in America, so you might not pay attention, but there are the 2024 United States elections.

今年の中で重要なことの1つは、アメリカに住んでいない人もいるので気にしていないかもしれませんが、2024年のアメリカ大統領選挙があります。

This is gonna be taking place on Tuesday, the 5th of November, and you might be thinking, but those are the elections.

これは11月5日の火曜日に行われる予定で、あなたはおそらく、でもそれは選挙だと思っているかもしれません。

What does that have to do with actual AI systems?

それが実際のAIシステムと何の関係があるのか?

I mean, that's politics, this is technology.

つまり、それは政治であり、これは技術です。

In fact, those things are very, very closely intertwined because OpenAI themselves did actually make a statement regarding this, and the elections are actually a reason for the delay of GPT-5, as many people did think that GPT-5 was scheduled to be released in the summer.

実際、これらのことは非常に密接に関連しています。なぜなら、OpenAI自体がこれに関して声明を出しており、選挙がGPT-5の遅延の理由であると多くの人が考えていたように、実際に選挙はGPT-5のリリースに大きな影響を与えたとOpenAIのCTO ミラ・ムラティが最近確認したことがわかります。

However, you can see right here, OpenAI CTO Mira Murati recently confirmed that the elections were a major factor in the release of GPT-5.

私たちは、それが世界の選挙や他の問題にどのように影響するかに自信がないものは何もリリースしないと彼女は先月述べました。

We will not be releasing anything that we don't feel confident on when it comes to how it might affect the global elections or other issues, she said last month.

OpenAIの彼女は先月、「世界の選挙やその他の問題にどのように影響するか自信がないものは何もリリースしないだろう」と述べました。

Whilst we did just get a pretty, pretty crazy demo of GPT-4o, a multimodal AI that just completely, completely shocked the industry, it is pretty, pretty incredible that you can see here that OpenAI are really, really concerned with as to what the future models are going to be able to do in regards to the election.

確かに、業界を驚かせたマルチモーダルAIであるGPT-4oのデモは非常に衝撃的でしたが、ここで見ることができるように、OpenAIが将来のモデルが選挙に関して何ができるのかに非常に関心を持っているのは驚くべきことです。

I think it's gonna be either one of two things.

私は2つのうちのどちらかだと思います。

One of the things is that because there is an election coming up, there are always different discussions on what could happen and the kinds of conversations going on around privacy issues and just a million different conversations that are going to be had.

選挙が近づいているため、常に何が起こるかやプライバシー問題に関する議論など、さまざまな会話が行われています。

The problem is that if OpenAI does release a model before the elections, then you could face a negative PR situation.

問題は、OpenAIが選挙前にモデルをリリースした場合、否定的なPR状況に直面する可能性があるということです。

Like the public could be negatively thinking about OpenAI.

一般の人々がOpenAIについて否定的に考える可能性があるということです。

Of course, yes, this week OpenAI have had a huge, huge, huge amount of bad news in their favour due to some of the things that have been going on at the company from people leaving to Sam Altman doing some questionable things, depending on where you stand.

もちろん、今週、OpenAIは、会社で起こっているいくつかのことにより、多くの悪いニュースを受けています。人々が去ったり、サム・アルトマンが疑問の余地のあることをしたりしているためです。

I think it's important to not release models during that time because it's at a time where if the technology is as truly advanced as the graph shows us, then it's definitely going to be more widely received as a model that is something that is threatening the individual democracy of the United States because if it has the ability to influence people, then some individuals might say that this was all timed.

その時期にモデルをリリースしないことが重要だと思います。なぜなら、もし技術がグラフが示すように本当に進化しているなら、それは個々の民主主義を脅かすものとして広く受け入れられるだろうからです。人々に影響を与える能力があるなら、個々の人々はこれがすべて計画されたものだと言うかもしれません。

With politics, things do get really, really difficult, really, really quickly.

政治では、事態は非常に難しく、非常に迅速に進展します。

I think this does make sense.

これは理にかなっていると思います。

I could be wrong, but the fact that we do have the OpenAI CTO stating that they're not going to be releasing anything and the fact that of course GPT-Next is in quotation marks here and that there's going to be that at November, 2024, just after the elections.

私が間違っているかもしれませんが、OpenAIのCTOが何もリリースしないと述べていること、そしてもちろんここにはGPT-Nextという言葉があり、2024年11月に選挙の直後にそれがあるという事実があります。

I think November, 2024, and considering that previous rumors around that time also did say that, I think that this also does make sense.

2024年11月を考えると、その前の噂もそう言っていたので、これも理にかなっていると思います。

Here's where he actually talks about the GPT-Next models.

ここで彼は実際にGPT-Nextモデルについて話しています。

This is a very, very fascinating clip and there is also this graph right here.

これは非常に魅力的なクリップで、ここにはこのグラフもあります。

It is very, very, very hard to see, like very, very, very hard to see, but if you zoom in, you can see that there is also this graph.

とても、とても、とても見にくいですが、非常に、非常に、非常に見にくいですが、拡大すると、このグラフも見ることができます。

You can see that GPT three era, GPT-4, GPT-Next, and you can see that this one doesn't actually have the dates on it.

私たちはGPT-3時代、GPT-4、GPT-Nextを見ることができますが、これには実際の日付が記載されていません。

I'm guessing that before when they had the dates, that may have just been a mistake based on proprietary information.

以前は日付があったかもしれませんが、それは独自の情報に基づく間違いだったかもしれません。

But of course, now the information is out there, although we don't know what date it's going to be.

もちろん、今はその情報が出回っていますが、いつ発表されるかはわかりません。

We know that after November the 5th, up until the end of November, there's probably likely going to be some kind of model.

11月5日以降、11月末まで、おそらく何らかのモデルが登場する可能性が高いことはわかっています。

But anyways, we are really excited for this, but I'm going to show you guys what he talks about here because it's, there are four investments areas I'd like to cover.

とにかく、私たちはこれにとても興奮していますが、ここで彼が話していることを皆さんに見せたいと思います。私たちがカバーしたい4つの投資分野があります。

The first key priority that we have is textual intelligence.

私たちが持つ最初の重要な優先事項は、テキストの知能です。

Our core belief is that if we increase textual intelligence, that will unlock transformational value in AI.

私たちの中心的な信念は、テキストの知能を高めることで、AIに変革的な価値を引き出すことができるということです。

You can see on the screen here, these are the two major models that we offer today.

ここで画面に表示されているのは、今日提供している2つの主要なモデルです。

GPT-4, the best model with native multi-modality that we just showed, and GPT-3.5 turbo 10X cheaper, which is convenient for simple tasks where what you need is really things like classification or very simple entity extraction.

GPT-4は、私たちがちょうど示したネイティブのマルチモダリティを持つ最高のモデルであり、GPT-3.5 turboは10倍安く、分類や非常に単純なエンティティ抽出など、簡単なタスクに便利です。

We really expect that the potential to increase the LLM intelligence remains huge.

私たちは、大規模言語モデルの知能を高める潜在能力は依然として非常に大きいと考えています。

Today we think models are pretty great.

今日、私たちはモデルがかなり優れていると考えています。

They're kind of like first or second graders, they respond appropriately, but they still make some mistakes every now and then.

それらはまるで一年生や二年生のようで、適切に反応しますが、時折まだミスを comit します。

But the cool thing that we should remind ourselves is that those models are the dumbest they'll ever be.

しかし、私たちが自分自身に思い出すべき素晴らしいことは、これらのモデルがこれ以上愚かになることはないということです。

You know, they may become master students in the blink of an eye.

彼らは、瞬く間にマスターの学生になるかもしれません。

They will excel at medical research or scientific reasoning.

彼らは医学研究や科学的推論で優れるでしょう。

We think that within maybe a year or two from now, like the models will be unrecognizable from what they are today.

我々は、おそらく1年か2年後には、現在のモデルとは全く違うものになると考えています。

This year, we also plan to push that boundary even more, and we expect our next frontier model to come and provide like a step function in reasoning improvements as well.

今年は、さらにその限界を押し広げる予定であり、次のフロンティアモデルが登場し、推論の改善において段階的な進化をもたらすと期待しています。

The second investment area for us is to make sure the models are cheaper and faster all the time.

私たちにとって2番目の投資領域は、モデルが常に安価で高速であることを確認することです。

We know that not every use case requires the highest level of intelligence.

すべてのユースケースが最高水準の知能を必要とするわけではないことを知っています。

That's why we wanna make sure that we invest.

だからこそ、私たちが投資することを確認したいと思っています。

You can see here on the screen, the GPT for pricing and how much is decreased by like 80% in just a year.

画面で見ることができるように、GPTの価格が1年で80%も減少したことがわかります。

It's quite unique, by the way, for a new technology to like decrease in price so quickly.

それはかなりユニークですが、新しい技術が価格を非常に速く下げるのは珍しいですね。

But we think it's like really critical in order for all of you to build and reach scale with what you're trying to accomplish and innovate with your AI native products.

しかし、私たちは、皆さんが目指す目標を達成し、AIネイティブ製品で革新するために、スケールを拡大するためには、これが非常に重要だと考えています。

I think that that short snippet from this tech conference was rather insightful because he actually said a numerous amount of different things in that short snippet, but I think some of them were more important than others.

私は、このテックカンファレンスからの短い断片がかなり洞察に富んでいたと思います。なぜなら、その短い断片で彼は多くの異なることを実際に言っていましたが、そのうちのいくつかは他のものよりも重要だと思います。

Of course, he talks about the price decreasing, but one of the things that he did mention that was rather, rather fascinating, and this is someone that is from OpenAI, he actually speaks about the fact that literally within one to two years, the models are going to be unrecognizable.

もちろん、彼は価格の低下について話していますが、OpenAIの人物である彼が実際に言及したことの1つは、非常に魅力的だったと思います。それは、文字通り1〜2年以内にモデルが見分けがつかなくなるということです。

That is something that even as someone who pays attention to the AI space, and as someone who looks at all of the AI updates in many different things that I literally don't even post on this channel, this is still something that is rather surprising.

これは、AIの分野に注意を払っている人として、さまざまなAIの更新情報を見ている人として、このチャンネルに投稿さえしていない私でも、かなり驚くものです。

I think it's because humans do have a hard time at grasping the nature of exponential increases in terms of technology and intelligence.

私は、技術と知能の指数関数的な増加を理解するのが人間にとって難しいと思うのは、そのためです。

I think this is going to be a truly, truly transformative period in terms of what is going to come out of this company within the next five to 10 years, because if he's stating that literally the models are going to look unrecognizable within one to two years, I mean, in 2026, this isn't far away.

私は、次の5〜10年以内にこの会社から出てくるものに関して、これが本当に変革的な時期になると思います。彼が文字通りモデルが1〜2年で見違えるようになると述べているので、2026年には、これは遠くない未来です。

Two years is a very short time period, especially for these kinds of technological developments.

2年というのは、特にこの種の技術的な進歩にとっては非常に短い期間です。

Something that he also said that I thought was also rather insightful was that he mentioned a step function in reasoning.

彼が述べたもう1つの洞察に富んだ点は、推論における段階的な進化について言及したことです。

For the next models, this likely means, as we've already discussed, that this is a significant, discrete improvement in the AI's reasoning capabilities rather than a gradual incremental improvement.

次のモデルに関しては、これはすでに話し合ったように、AIの推論能力において徐々に進化するのではなく、著しい、独立した改善があることを意味します。

Essentially this just means that, in contrast to the gradual improvement, that a step function implies a sudden, substantial improvement at a particular point, which is followed by a new level of capability.

基本的には、徐々な改善とは対照的に、段階関数は特定の時点で急激で実質的な改善を意味し、それに続いて新たな能力のレベルが得られることを意味します。

This change is more abrupt and significant compared to the gradual improvement.

この変化は、徐々な改善と比較して、より急激で重要です。

With the reasoning abilities, current models like the GPT-3 and GPT-4 have, of course, made significant strides in their ability to reason and understand and generate text.

推論能力に関して、GPT-3やGPT-4のような現在のモデルは、もちろん、推論や理解、テキスト生成の能力において著しい進歩を遂げています。

But their abilities to reason can still be limited in certain contexts.

しかし、彼らの推論能力は特定の文脈ではまだ限定されている可能性があります。

The GPT-Next models means that a step function in reasoning could mean that they make a substantial leap in their ability to understand, process, and generate more complex, abstract, and logical forms of reasoning.

GPT-Nextモデルは、推論における段階関数が意味するのは、彼らが理解、処理、より複雑で抽象的で論理的な推論形式を理解する能力において著しい飛躍を遂げるかもしれないということです。

Because of that increased level of reasoning, it means that they've got improved problem solving.

その推論レベルの向上により、問題解決能力が向上しているということです。

This means that these models are going to be better at tackling complex problems that require multi-step and logical reasoning.

これは、これらのモデルが、多段階および論理的な推論を必要とする複雑な問題に取り組むのに優れていることを意味します。

Of course, this means enhanced understanding.

もちろん、これは理解力が向上していることを意味します。

This means that the AI could understand context and nuances in a more human-like way, leading to more accurate and relevant responses.

これは、AIがより人間らしい方法で文脈やニュアンスを理解し、より正確で関連性のある応答をすることができる可能性があることを意味します。

Decision-making, these models would likely be able to make more sophisticated decisions based on the information provided, similar to higher-order thinking.

意思決定に関して、これらのモデルは、提供された情報に基づいてより洗練された意思決定を行うことができる可能性が高いでしょう。これは、高次の思考に似ています。

Like I said before, this is just, once again, gonna open up a lot more applications.

前にも言ったように、これはまた、さらに多くの応用を開くことになるでしょう。

They even spoke about how it's going to be able to do medical research.

彼らは医学研究を行うことができるとさえ話していました。

We've seen that Google has been pushing widely on that frontier with the medical Gemini, and they've achieved remarkable benchmarks.

私たちは、Googleが医療のGeminiでその分野に大きく進出しており、目覚ましいベンチマークを達成しているのを見てきました。

I wouldn't be surprised if OpenAI are doing something in that ReALM.

OpenAIがReALMで何かをしているのも驚かないでしょう。

One of the things that I also want to talk about was, of course, the fact that this release date is rather fascinating.

一つ話したいことは、もちろん、このリリース日がかなり魅力的であるということです。

The name of the model did actually make me think about something that was spoke about previously.

そのモデルの名前は、実際に以前に話されたことを思い起こさせました。

You can see here that we have a model that is called GPT-Next, but one of the things that I spoke about when covering the Sam Altman and Lex Fridman interview was the fact that he said something rather insightful.

ここで見ることができるのは、GPT-Nextと呼ばれるモデルですが、サム・アルトマンとレックス・フリードマンのインタビューを取り上げたときに話したことの一つは、彼がかなり洞察に富んだことを言ったということです。

He said that the future models that he releases might not actually be called GPT-5.

彼は、彼がリリースする将来のモデルは実際にはGPT-5とは呼ばれないかもしれないと言いました。

Of course, there might be GPT-5 because they did trademark it, but he did state that whatever the next model may be, we're not sure when it's going to be released or what it's going to be called.

もちろん、GPT-5があるかもしれませんが、商標登録されているので、次のモデルが何になるか、いつリリースされるか、何と呼ばれるかはわからないと彼は述べました。

That's the honest answer.

それが正直な答えです。

Is it blink twice if it's this year?

今年だというなら、二度まばたきしてください。

Before we talk about a GPT-5-like model called that or not called that or a little bit worse or a little bit better than what you'd expect from a GPT-5, I know we have a lot of other important things to release first.

GPT-5のようなモデルについて話す前に、それがそのように呼ばれるかどうか、またはGPT-5よりも少し悪いか、少し良いか、私たちが最初にリリースするべき他の重要なことがたくさんあることを知っています。

I don't know what to expect from GPT-5.

GPT-5から何を期待すべきかわかりません。

You're making me nervous and excited.

あなたは私を緊張させて興奮させています。

What are some of the... right there, you can see that Sam Altman is actively talking about how they are going to release a few things before GPT-5.

何か...ここで、サム・アルトマンが積極的に話しているのは、GPT-5の前にいくつかのものをリリースする方法についてです。

Of course, we've seen things like voice engine, we've seen Sora, we've seen a bunch of other things, but the way how he talks about how these future models might not even be called what we are expecting them to be called is, of course, rather fascinating too.

もちろん、ボイスエンジンやSoraなど、さまざまなものを目にしてきましたが、彼がこれらの将来のモデルが私たちが予想している名前では呼ばれないかもしれないと話す様子も非常に興味深いです。

One of the things that you may have seen recently was this from Microsoft, and this is basically where they talk about the levels of compute that they're using to train the next frontier models.

最近見たかもしれないことの一つは、Microsoftからのもので、これは次世代モデルを訓練するために使用している計算のレベルについて話しています。

Currently we can see that the diagram, they use sharks and marine life to, I guess you could say, help us understand the scale of compute that they are currently using.

現在、図を見ると、サメや海洋生物を使用して、彼らが現在使用している計算の規模を理解するのに役立つと言えるでしょう。

We can see that we have a shark here, then of course we have an orca.

ここにはサメがいて、もちろん、シャチもいます。

Of course, we have a whale.

もちろん、クジラを持っています。

I mean, the stock increase in terms of the capabilities from this graph going back all the way to the first graph are very, very similar.

つまり、このグラフで示されている能力の増加は、最初のグラフまで遡っても非常に似ているということですね。

The GPT-3, the GPT-4 technology is only a little bit, and then of course the next levels, I think maybe OpenAI clearly have discovered something incredible, and they're probably going to shock the world because if you're using that much compute to train something, and you've also improved your architecture, then I think the amount of capabilities that you can get is truly, truly surprising.

GPT-3、GPT-4の技術は少ししか進化していませんが、次のレベルでは、おそらくOpenAIは信じられないほどの発見をしていて、それが世界を驚かせるかもしれません。それだけの計算量を使って何かを訓練し、アーキテクチャも改善しているので、得られる能力の量は本当に驚くべきものだと思います。

I think this is so surprising because not only do we have maybe not improved architectures in terms of the transformer, but I'm talking about certain techniques that OpenAI are pioneering and that they're using to advance the frontier in terms of the reasoning and the capabilities of their models.

これが驚くべきことだと思うのは、トランスフォーマーのアーキテクチャを改善していないだけでなく、OpenAIが先駆的に取り組んでいる特定の技術について話しているからです。それらの技術を使って、彼らのモデルの推論と能力のフロンティアを前進させているのです。

I'm going to show you guys a short snippet from this clip where it's actually spoken about in great context about why this is so pivotal.

これは非常に重要な文脈で話されているので、このクリップから短い断片をお見せします。

The only reason I'm showing you this is because now with the added context from this slide here, where we can see that away.

ここで追加のコンテキストを得たので、ここでスライドからそれを見ることができるようになったので、これを見せる理由はそれだけです。

The only reason I'm showing you guys this clip is because now with the added context of this previous graph, where we can literally see in terms of the capabilities jump, I think it's important to understand the compute side behind it.

ここで追加のコンテキストを得たので、前のグラフから見て、能力のジャンプについて文字通り見ることができるので、計算の背後にある側面を理解することが重要だと思います。

That frontier forward.

そのフロンティアを前進させる。

Like we showed this slide at the beginning, like there's this like really beautiful relationship right now between sort of exponential progression of compute that we're applying to building the platform, to the capability and power of the platform that we get.

最初にこのスライドを示したように、私たちがプラットフォームの構築に適用している計算の指数関数的な進化と、私たちが得るプラットフォームの能力とパワーとの間には、今非常に美しい関係があります。

I just wanted to, sort of without mentioning numbers, which is sort of hard to do, to give you all an idea of the scaling of these systems.

数字を挙げずに、これらのシステムのスケーリングのアイデアを皆さんに伝えたかったのですが、それは少し難しいです。

In 2020, we built our first AI supercomputer for OpenAI.

2020年に、OpenAIのために最初のAIスーパーコンピュータを構築しました。

It's the supercomputing environment that trained GPT-3.

GPT-3を訓練したスーパーコンピューティング環境です。

Like, we're going to just choose marine wildlife as our scale marker.

まるで海洋生物をスケールマーカーとして選ぶつもりです。

You can think of that system about as big as a shark.

そのシステムは、サメほど大きいと考えることができます。

The next system that we built, scale-wise is about as big as an orca.

次に構築したシステムは、スケール的にはシャチほど大きいです。

Like that is the system that we delivered in 2022 that trained GPT-4.

2022年に納品したシステムは、GPT-4を訓練したものです。

The system that we have just deployed is like scale-wise about as big as a whale relative to like, the shark size supercomputer and this orca size supercomputer.

私たちが展開したシステムは、サメサイズのスーパーコンピュータと比べて、クジラサイズのスケールであり、非常に大きいです。

It turns out like you can build a whole hell of a lot with a whale size supercomputer.

クジラサイズのスーパーコンピュータで、非常に多くのものを構築できることがわかりました。

One of the things that I just want everybody to really, really be thinking clearly about, and like, this is going to be our segue to talking with Sam is the next sample is coming.

次にサンプルが来るので、みんな本当に本当に考えてほしいことの1つは、サムと話すための導入になるということです。

Like this whale size supercomputer is hard at work right now, building the next set of capabilities that we're going to put into your hands.

このクジラサイズのスーパーコンピュータは、現在、次にあなたの手に入れる予定の機能を構築しています。

If you saw it there, he said, you can build a whole hell of a lot of AI with a large amount of compute.

彼はそこで言ったように、大量の計算リソースを使って、多くのAIを構築できると言っています。

I'm really intrigued with as to what a whole hell of a lot of compute is going to be giving us.

私は、大量の計算リソースが私たちに何を提供してくれるのか、本当に興味を持っています。

But one thing I do note is that there is going to be a huge amount of capabilities.

ただ一つ注意すべきことは、膨大な数の機能があるということです。

Something that they also spoke about was of course, multimodal agents.

彼らが話したものの一つに、もちろん、マルチモーダルエージェントがありました。

This is going to be something that is here within the next level of frontier state-of-the-art models.

これは、次世代の最先端モデルの中にあるものになるでしょう。

I think that maybe this year we get something but there are also some other things I do want to talk about with as to why we might not get that.

おそらく今年は何か手に入るかもしれませんが、それ以外にもなぜ手に入らない可能性があるのかについても話したいと思います。

But they also demoed the multimodal agents.

しかし、彼らはまた、マルチモーダルエージェントをデモしました。

Of course, you can see that their investment areas are the textual intelligence, cheaper and faster models, the custom models, and of course, multimodal agents.

もちろん、彼らの投資分野は、テキストの知能、より安価で高速なモデル、カスタムモデル、そしてもちろん、マルチモーダルエージェントです。

I want to show you guys this short clip because OpenAI haven't really shown us that much in terms of the agentic workflows.

OpenAIは、エージェントのワークフローについてあまり多くを示していないので、この短いクリップを皆さんに見せたいと思います。

But I think it's important to take a sneak peek because agents are truly going to change the way we interact with computers.

しかし、エージェントは、コンピュータとのやり取り方を本当に変えるでしょうので、一部をのぞいてみることが重要だと思います。

We really believe that in the future, agents may be the biggest change that will happen to software and how we interact with computers.

将来、エージェントがソフトウェアやコンピューターとのやり取りにおいて起こる最大の変化になると私たちは本当に信じています。

Depending on the task, they'll be able to leverage text, they'll be able to leverage access to some context and tools.

タスクによっては、テキストを活用したり、ある文脈やツールへのアクセスを活用したりすることができるでしょう。

Again, all of these modalities that we mentioned will bring also a fully natural and novel way to interact with the software.

再び、私たちが言及したこれらのモダリティは、ソフトウェアとの自然で新しいやり取り方法をもたらすでしょう。

One example of this that I personally love is DevIn by the team at Cognition.

個人的に好きな例の1つは、CognitionチームによるDevInです。

They built essentially an AI software engineer.

彼らは基本的にAIソフトウェアエンジニアを構築しました。

It's pretty fascinating because it's able to take a complex task and it's able to not just write code, but it's able to also understand the task, create tickets, browse the internet for documentation when it needs to fetch new information.

それは複雑なタスクを処理し、コードを書くだけでなく、タスクを理解し、チケットを作成し、新しい情報を取得する必要があるときにはインターネットを閲覧することもできます。

It's able to deploy solutions to create pull requests and so on.

解決策を展開し、プルリクエストを作成することもできます。

It's one of those agentic use cases that I really love.

私が本当に好きなエージェントのユースケースの1つです。

In fact, this tweet from Paul Graham earlier this year caught my eye because he mentioned or realized that the 22-year-old programmers these days are often as good as the 28-year-old programmers.

実際、今年の初めにポール・グレアムがツイートした内容が目を引きました。彼は、今日の22歳のプログラマーは、28歳のプログラマーと同じくらい優れていることに気づいたと述べています。

I think when you reason about how the 20-year-olds are already adopting AI and tools like DevIn, it's no surprise that they're getting more and more productive thanks to AI.

20歳代の人々が既にAIやDevInのようなツールを採用し始めていることを考えると、彼らがAIのおかげでますます生産性を高めていることは驚くべきことではないと思います。

Another agent experience that I think this time is more towards consumer is Presto.

もう1つのエージェント体験は、今回は消費者向けのものであるPrestoです。

Presto is letting customers place orders with their voice, so using a voice agent.

Prestoは、顧客が声を使って注文をすることができるようにしています。つまり、音声エージェントを使用しています。

Of course, there's not many drive-throughs here in Europe.

もちろん、ヨーロッパにはドライブスルーがあまりありません。

But what I found compelling about this example is that it's really helping a market where there's been a labor shortage.

しかし、この例に魅力を感じたのは、労働力不足がある市場を本当に支援しているところです。

In turn, that helps offer not only a great experience, but also let the staff actually focus on food and serving the customers.

その結果、素晴らしい体験を提供するだけでなく、スタッフが実際に食事や顧客へのサービスに集中できるようになっています。

But with that, I'd like to dive into a couple more live demos to illustrate a little bit how you can build assistive experiences and agents practically today.

しかし、それでは、もう少しのライブデモに入りたいと思います。実際に今日、どのように支援体験やエージェントを構築できるかを少し説明します。

Our first incarnation of.

私たちの最初の具現化形態は。

With that, you can see that literally one of the things that this AI-powered drive-through system is, is it's actually been impacting people.

それにより、このAIパワードのドライブスルーシステムの1つの特徴が、実際に人々に影響を与えていることがわかります。

Because one of the things that you might not understand about drive-throughs is that they're kind of limited to human intelligence.

ドライブスルーについて理解していないかもしれないことの1つは、それらが人間の知能に制限されているということです。

One of the things I was thinking about when I saw a demo in a weekly AI video, I covered when someone was actually going through a drive-through with an AI system.

私が週刊AIビデオでデモを見たときに考えていたことの1つは、実際にAIシステムを使ってドライブスルーをしている人のことでした。

They basically spoke about how it was so crazy because an AI system is able to completely understand exactly what you want.

彼らは基本的に、AIシステムが正確にあなたが欲しいものを完全に理解できると話しました。

It's able to understand exactly what you want in other languages too.

それは他の言語でも正確にあなたが欲しいものを理解することができます。

It's also able to converse with you in other languages too, much more fluently than just someone who only speaks one language and isn't bilingual or able to understand other languages.

他の言語でもあなたと会話することができます。ただ一つの言語しか話せない人やバイリンガルでない人よりも、ずっと流暢に話すことができます。

It's patient and it's fast.

それは忍耐強く、速いです。

I think it's something that's going to allow a lot more unique experiences.

私は、より多くのユニークな体験を可能にするものだと思います。

That's why agents are something that is very, very impactful because I think this is where you're really going to see that real-life impact other than just in a day-to-day LLM interface.

だからこそ、エージェントは非常に影響力があるものであり、これが日常の大規模言語モデルインターフェースだけでなく、実際の生活に影響を与えるところだと思います。

Welcome to Wendy's.

ウェンディーズへようこそ。

What would you like?

何が欲しいですか?

Can I have a chocolate frosty?

チョコレートフロスティをいただけますか?

Which size for the chocolate frosty?

チョコレートフロスティはどのサイズですか?

Medium.

中くらいです。

Can I get you anything else today?

本日は他に何かお持ちしましょうか?

No, thank you.

いいえ、結構です。

Please pull up to the next window.

次の窓口までお進みください。

Let's take a look at some of these demos of these agentic workflows that you can actually use and do and what they've shown us in this presentation.

これらのエージェントワークフローのデモを見てみましょう。実際に使用して行えるもので、このプレゼンテーションで示された内容です。

Incarnation of agents for developers is what we call the Assistance API.

開発者向けのエージェントの具現化が、私たちがアシスタンスAPIと呼んでいるものです。

The Assistance API is a complete toolkit that all of you can use in order to bring assistance into your products.

アシスタンスAPIは、皆さんが製品にアシスタンスを取り入れるために使用できる完全なツールキットです。

In this case here, I'm building this travel app called Wanderlust.

この場合、私はWanderlustという旅行アプリを作成しています。

As you can see, there's a map on the right side, but there's also an assistive experience on the left side.

ご覧の通り、右側に地図がありますが、左側にも支援体験があります。

This is completely powered by the Assistance API.

これは完全にアシスタンスAPIによって動作しています。

Let's take a quick look.

さっそく見てみましょう。

If I say, top five venues for the Olympics in Paris, first of all, first thing to note, I don't have to manage any of those.

パリオリンピックのトップ5の会場と言った場合、まず最初に注意すべきことは、私がそれらを管理する必要がないということです。

Let's refresh the app a little bit.

アプリを少しリフレッシュしましょう。

Sounds like we maybe lost network.

ネットワーク接続が切れたかもしれませんね。

Top five venues for the Paris Olympics.

パリオリンピックのトップ5の会場。

The first thing to note is that I don't have to manage that conversation history.

最初に注意すべきことは、私がその会話履歴を管理する必要がないということです。

That conversation history is automatically managed by the Assistance API from OpenAI.

その会話履歴はOpenAIのAssistance APIによって自動的に管理されます。

I don't have to manage my prompt and so on.

プロンプトなどを管理する必要はありません。

Not sure what's happening here.

ここで何が起こっているのかよくわかりません。

Let's take a quick look.

さっと見てみましょう。

Might have lost some Wi-Fi or connection.

Wi-Fiや接続が途切れたかもしれませんね。

Nope.

いいえ。

Let's try it one last time.

最後に1回試してみましょう。

Let's go to Rome.

ローマに行きましょう。

There we go.

そうですね。

Sounds like the Olympics was bad luck, but it sounds like we're back.

オリンピックは不運だったようですが、戻ってきたようですね。

I don't have to actually manage any of those messages.

実際には、これらのメッセージを管理する必要はありません。

The conversation history is automatically managed by OpenAI.

会話履歴はOpenAIによって自動的に管理されます。

The second thing that's really cool to go out here is that, as you could see, when I started to interact with these messages, the map zoomed automatically.

ここで本当にクールな2つ目のポイントは、これらのメッセージとやり取りを始めると、地図が自動的にズームされることがわかるということです。

That's one of my favorite features when I build agents.

私がエージェントを構築する際のお気に入りの機能の1つです。

It's called function calling.

「ファンクションコーリング」と呼ばれています。

Function calling is the ability for all of you to bring knowledge about your unique features in your app and your unique functions over to the model, in this case, GPT-4.

「ファンクションコーリング」とは、皆さんがアプリのユニークな機能や独自の機能に関する知識を、この場合はGPT-4というモデルに持ち込む能力です。

If I say top five things to see in Rome, let's see what happens here.

ローマで見るべきトップ5のものを言ったら、ここで何が起こるか見てみましょう。

In theory, what should pop up here is, once again, an interaction between the text and the map.

理論上、ここにポップアップするべきは、再びテキストと地図の間の相互作用です。

Here we go.

さあ、始めます。

As you can see, as we are talking to the model, it's able to actually pinpoint the map because it knows that this feature exists.

ご覧の通り、モデルと話している間に、実際に地図を特定できるので、この機能が存在することを知っています。

It's really, really cool.

本当にすごいですね。

That's already available as part of the toolkit of the Assistant CPI.

それはすでにアシスタントCPIのツールキットの一部として利用可能です。

Another tool I wanted to call out here is knowledge retrieval.

ここで言及したい別のツールは、知識の取得です。

We know so many of you want to bring factual data into the conversations with models like GPT-4.

多くの方が、GPT-4などのモデルとの会話に事実データを持ち込みたいと知っています。

Usually, you have to build a retrieval stack to do so.

通常、そのためには取得スタックを構築する必要があります。

We've learned from so many developers how complex that can be.

多くの開発者から、それがどれだけ複雑であるかを学びました。

We've made a ton of improvements in our retrieval stack.

私たちは取得スタックに多くの改善を加えました。

I'm going to try to see if I can actually demo this in real time.

実際にリアルタイムでこれをデモできるか試してみます。

I actually bought this book to prepare a trip to Italy from Lonely Planet.

私はイタリアへの旅行を準備するために、この本を実際に購入しました。

It's a pretty comprehensive book.

それはかなり包括的な本です。

It has like 250 pages.

250ページくらいあります。

It's like 95 megabytes.

95メガバイトくらいあります。

I hope the upload is going to work.

アップロードがうまくいくことを願っています。

I'm taking a bit of a risk here.

ここで少しリスクを取っています。

But what's happening in real time as soon as the file will be uploaded, it will be automatically embedded by the Assistant CPI so that I don't have to think about any of these things to do.

しかし、ファイルがアップロードされるとすぐに、アシスタントCPIによって自動的に埋め込まれるので、これらのことを考える必要はありません。

I will be able to just start interacting in the conversation and say, based on this book, what's the best photo spot in Lazio?

会話で相互作用を始めるだけで、この本に基づいて、ラツィオで最高の写真スポットは何ですか?

Before I press Enter, I'll show you a quick look at page 126, I believe.

Enterキーを押す前に、126ページを簡単に見せてあげますね。

Let's go to page 126.

126ページに行きましょう。

The page 126 talks about Lazio, right?

126ページはラツィオについて話していますよね?

I'm going to ask the question here.

ここで質問をさせていただきます。

What's the best photo spot in Lazio?

ラツィオで最高の写真スポットは何ですか?

As I'm browsing the book, we're noticing here that the photo opportunity was mentioned on page 128.

本を見ていると、写真の機会が128ページに記載されていることに気づきます。

It's supposed to be Pitigliano.

それはピティリアーノであるはずです。

Boom, in real time, we were able to find in this book that this is exactly the place for a photo spot.

実際の時間で、この本で写真スポットがまさにこの場所であることがわかりました。

Again, I had to do no engineering work.

もう一度、私はエンジニアリングの仕事をする必要がありませんでした。

I just had to upload the file in the conversation and it was all taken care of for me.

私は単に会話でファイルをアップロードするだけで、すべてが私のために処理されました。

Last but not least, there's also another tool that I wanted to highlight called Code Interpreter.

最後に、Code Interpreterというもう1つのツールを強調したいと思います。

Code Interpreter is this ability to write Python code in the background to answer some very precise questions, usually around numbers and math and financial data.

Code Interpreterは、通常、数値や数学、金融データに関する非常に正確な質問に答えるためにバックグラウンドでPythonコードを書く能力です。

Here, for instance, if I were to say in this conversation, we are sharing an Airbnb for four.

例えば、この会話で「4人でAirbnbをシェアしている」と言った場合、

It's 1,200 euros.

それは1,200ユーロです。

What's my share plus my flight cost of 260?

私のシェアと260ユーロの飛行費用はいくらですか?

By asking this question, this is not a typical thing that LLMs do great at by default, right?

この質問をすることで、これは大規模言語モデルがデフォルトで得意とする典型的なことではありませんね。

But what's happening behind the scenes is that we're actually computing all of this, including currency conversion and so on, by writing code in the sandbox.

しかし、裏側で起こっていることは、実際にはサンドボックスでコードを書くことによって、通貨換算などを含めてすべて計算しているということです。

Once again, as a developer, I have nothing to do.

再び、開発者として、私には何もすることがありません。

But because Aponia is managing this, does not mean it's a black box.

しかし、Aponiaがこれを管理しているからといって、それがブラックボックスであるということではありません。

In fact, if I go here and if we refresh the threads, we should see here that this is the exact threads that we've been feeding.

実際、ここに行ってスレッドを更新すれば、私たちが提供している正確なスレッドが表示されるはずです。

You can see we're going to Rome.

私たちはローマに行く予定です。

Like all of the messages, we see the function calls that I highlighted to annotate the map.

すべてのメッセージのように、私たちは地図に注釈を付けるために強調した関数呼び出しを見ることができます。

Here, this is the Python code that was written behind the scenes to actually answer the question, compute the currency conversion, divide by the number of people, and so on.

こちらは、実際に質問に答えるために裏で書かれたPythonコードです。通貨換算を行い、人数で割り、その他を計算します。

Really, like the Assistant API, complete toolkit with conversation history, with access to retrieval and files.

実際には、アシスタントAPIと同様に、会話履歴、取得やファイルへのアクセスが可能な完全なツールキットです。

You can upload now up to 10,000 files in retrieval, and even Code Interpreter and function calling.

取得には今や最大10,000ファイルをアップロードでき、コードインタプリターや関数呼び出しも可能です。

All of this we can build on from day one.

これらすべてを、最初の日から構築することができます。

Let me know what you think about future models.

将来のモデルについてどう思われるか教えてください。

I mean, one of the things that is a little bit confusing is the fact that they do have GPT-6 and other names trademarked.

ちなみに、少し混乱するのは、彼らがGPT-6や他の名前を商標登録しているという事実です。

I'm wondering if they're just going to continue with the traditional methods.

彼らは従来の方法を続けるだけなのか、と考えています。

But it is quite hard to predict, considering the fact that OpenAI is a company that comes with a lot of drama and, of course, a lot of surprise, and with the rate that AI is exponentially increasing in terms of the capabilities and everything new being discovered, what feels like every week.

しかし、OpenAIが多くのドラマともちろん多くの驚きを伴う会社であり、AIの能力や新しい発見が毎週のように急速に増加していることを考えると、予測するのはかなり難しいです。

I mean, the capabilities trying to predict a year, two years, three years from now are quite hard.

1年後、2年後、3年後を予測しようとする能力はかなり難しいと思います。

But I think from this, we do know that in November, there's probably going to be a new model released.

しかし、これから11月には新しいモデルがリリースされる可能性があることはわかっています。

Whether it is GPT-Next, whether it is GPT-5, I can say one thing is certain is that it's going to be a monumental leap in terms of the capabilities and usability of what we're about to see.

GPT-Nextであろうと、GPT-5であろうと、確かなことは、私たちが見ることになる能力と使いやすさの面で、画期的な進歩になるということです。


この記事が気に入ったらサポートをしてみませんか?