見出し画像

【AGIへの道:OpenAIの挑戦】英語解説を日本語で読む【2024年2月20日|@Wes Roth】

この動画では、人工一般知能(AGI)の急速な進歩について語っています。特にOpenAIの進捗と、これらの発展に対する広範なAIコミュニティの反応を強調しています。当初は懐疑的に見られていたOpenAIの作業、特にChatGPTとテキストから動画へのAI生成プラットフォームであるSoraは、AGIに向けた重要な一歩を踏み出していることを示しています。この物語は、AI能力の指数関数的な成長に触れており、「チェス盤の後半」に例えて、AGIが予測不可能かつ急速に現れる可能性がある点に近づいていることを示唆しています。また、OpenAIがAGIに向けて開発しているさまざまなコンポーネント、AIエージェントやウェブ検索プロダクトなどにも言及し、AGIが日常生活の様々な側面にシームレスに統合される未来を指摘しています。
公開日:2024年2月20日
※動画を再生してから読むのがオススメです。


There's something that's emerging right now that we need to talk about.

今、新たに現れつつあるものがあり、それについて話す必要があります。

And yes, it's quite shocking.

そして、それはかなりショッキングです。

The thing is AGI.

それはAGIです。

There's only one rule to remember: Don't panic.

覚えておくべき唯一のルールが1つあります:パニックしないでください。

Let's go down this RABBIT hole and see how far it goes.

このウサギの穴に入って、どこまで行けるか見てみましょう。

By now you've probably seen OpenAI's latest release, Sora, the text-to-video AI generation platform.

おそらく、今までにOpenAIの最新リリースであるテキストからビデオを生成するAIプラットフォームであるSoraを見たことがあるでしょう。

It's very cool.

それはとてもクールです。

A lot of people are very impressed with the lifelike images that it can produce.

多くの人々が、それが生成できるリアルな画像に非常に感銘を受けています。

But a lot of people are missing what this thing is, what it represents.

しかし、多くの人々がこのものが何であり、何を表しているのかを見落としています。

Recently there's been a lot of talk about AGI, artificial general intelligence.

最近、AGI、人工汎用知能について多くの議論がされています。

When Sam Altman started talking about AGI, he was mocked.

サム・アルトマンがAGIについて話し始めたとき、彼は嘲笑されました。

People said it wasn't serious to talk about building AGI.

人々はAGIの構築について話すことは真剣ではないと言いました。

After they released ChatGPT, people no longer mocked him.

ChatGPTをリリースした後、人々はもはや彼を嘲笑しませんでした。

We have been a misunderstood and badly mocked org for a long time.

私たちは長い間誤解され、ひどく嘲笑された組織でした。

When we started, when we announced the org at the end of 2015, I remember at the time a eminent AI scientist at a large industrial AI lab was DMing individual reporters, being like, these people aren't very good and it's ridiculous to talk about AGI and I can't believe you're giving them time of day.

私たちが始めたとき、2015年末に組織を発表したとき、大手産業用AI研究所の著名なAI科学者が個々の記者にDMを送っていて、これらの人たちはあまり優れていないし、AGIについて話すのはばかげていると言っていました。そして、彼らに時間を割くのは信じられないと。

That was the level of pettiness and rancor in the field that a new group of people saying we're going to try to build AGI.

その分野では、新しいグループの人々が「AGIを構築しようとする」と言ったレベルの小さなこじつけや憎しみがあった。

An AI in DeepMind was a small collection of folks who were brave enough to talk about AGI in the face of mockery.

DeepMindのAIは、嘲笑に直面してもAGIについて話す勇気のある少数の人々の集まりでした。

We don't get mocked as much now.

今はもうあまり嘲笑されません。

We don't get mocked as much now.

今はもうあまり嘲笑されません。

More people believe that yeah, maybe we'll see AGI in the upcoming decades.

もっと多くの人々が、将来の数十年でAGIを見るかもしれないと信じています。

But here's the thing, everyone, including the people that study this stuff, keeps getting thrown by the exponential growth, by the compounding.

しかし、ここがポイントです。この分野を研究している人々も含めて、指数関数的な成長や複利によって振り回され続けています。

We're beginning to hit the second half of the chessboard.

私たちはチェス盤の後半に差し掛かっています。

And things are about to get a little bit nutty.

そして、事態は少し狂ったものになろうとしています。

Let's dive in.

さあ、深く掘り下げてみましょう。

There's this expression, the second half of the chessboard.

「チェス盤の後半」という表現があります。

Now the story about the second half of the chessboard, that the inventor of chess presented his brilliant creation to a grateful Indian king.

チェス盤の後半に関する話は、チェスの発明者がその素晴らしい創造物を感謝しているインドの王に提示したというものです。

The king asked what was the desired reward.

王は望まれる報酬を尋ねました。

The inventor of chess asked for something very simple, for a grain of rice to be placed on the first square, then double that amount on the second square, and so until every square was covered.

チェスの発明者は非常にシンプルなものを求めました。最初のマスに米粒を1つ置き、次のマスにはその2倍を置き、そして全てのマスが覆われるまで続けるようにと。

So basically it goes 1, 2, 4, 8, 16, et cetera, et cetera, doubling each and every single time.

つまり、1、2、4、8、16、といった具合に、毎回倍々になっていきます。

Now this might not seem like a lot, it's just a few grains of rice.

これは多くはないように思えるかもしれませんが、それはただ数粒の米です。

But where this exponential growth, where this compounding gets really hairy, is in the second half of the chessboard.

しかし、この指数関数的な成長、この複利が本当に複雑になるのは、チェス盤の後半です。

It's like a thousand times how much rice is produced in the world like today in modern times.

今日の現代において生産される米の量の1000倍の量です。

But the point is, it was way above anything that the king could have paid.

しかし、ポイントは、王が支払うことができたものをはるかに上回っていました。

The point of all this is that AI progress is entering the second half of the chessboard and it gets really hard to predict what that looks like and how it will unfold.

このすべてのポイントは、AIの進歩がチェス盤の後半に入り、それがどのように見え、どのように展開されるかを予測するのが本当に難しくなるということです。

A lot of people are asking, when will AGI be here?

多くの人が尋ねていますが、AGIはいつここに来るのでしょうか?

I don't like that question, here's why.

私はその質問が好きではありません、その理由はこちらです。

This was from the blog Wait But Why, from 2015, so a while ago, and it had this excellent demonstration of how AI would look like when it arrived.

これは2015年のブログWait But Whyからのもので、それなりに前のもので、AIが到来したときの様子を素晴らしく示していました。

So just pretend that sign says AGI.

その看板がAGIと書いてあると思ってください。

And this is the AGI train station, right?

そして、これがAGIの駅ですね?

And here everybody standing around wondering, when will the AGI train get here?

そして、ここでは皆が立ち止まって、いつAGIの列車が到着するのかを不思議に思っています。

Will it be here in seven months or 12 months or five years?

それは7か月後か、12か月後か、5年後か?

Because we're noticing some signs that it's coming.

なぜなら、それが近づいている兆候を感じているからです。

Hey look, AGI is arriving, right?

ねえ、見て、AGIが到着しているでしょう?

We're seeing it off in a distance yonder.

私たちは遠くの方でそれを見ています。

So when is it going to pull into the station so that we can greet it and see what it looks like?

それが駅に到着して、私たちがそれを迎えてどのように見えるかを見ることができるのはいつですか?

Well, here's the thing, it's coming fast.

それは、急速にやってきています。

And now it's gone.

そして今はもう過ぎ去ってしまいました。

Did you miss it?

それを見逃しましたか?

Here's another chart that kind of shows you how it's going to happen.

これは、それがどのように起こるかを示すチャートです。

So this is the highest intelligence on earth, right?

これが地球上で最高の知性ですよね?

Assuming this is like from the beginning of time, so slowly living forms are getting smarter, smarter, smarter.

仮定すると、これは時間の始まりからのようなもので、徐々に生命体が賢くなっていく、賢くなっていく、賢くなっていく。

And here's the tripwire.

そしてここがトリップワイヤーです。

This is where we create something like self-improving AI and whoosh, it's a vertical line.

ここで、自己改善型のAIのようなものを作り出し、ズームという感じです。

So Tim Urban was the person that runs this blog, Wait But Why, I believe he has a book out now.

ティム・アーバンはこのブログWait But Whyを運営している人物で、今は書籍も出していると思います。

Apparently Elon Musk is a big fan of this blog, he's tweeted about it in the past.

明らかにイーロン・マスクはこのブログの大ファンで、過去につぶやいていました。

And so keep in mind, so this blog post is from 2015, I believe, right around the time that OpenAI was just opening its doors and being mocked for working on AGI, building AGI.

このブログ投稿は2015年のものだと思いますが、その頃OpenAIがちょうど開設されたばかりで、AGI(汎用人工知能)の開発に取り組んでいることでからかわれていましたので、その点を念頭に置いてください。

And so back then the median expert prediction for AGI was 2040.

当時、AGIの中央値の専門家予測は2040年でした。

And ASI, Artificial Superintelligence, was 2060.

そしてASI、人工超知能は2060年でした。

Here's Cathy Wood of ARK Invest, along with some of her analysts that work on this stuff.

こちらはARK Investのキャシー・ウッドと、この分野で働いているいくつかのアナリストです。

This is what they've predicted.

これが彼らが予測したことです。

So here's the chart of when experts believe we will achieve general artificial intelligence and how that changed in 2019 we thought it was 50 years away, a year later, 34 years away, a year later, 18 years away, a year later, we thought it was eight years away.

専門家たちが一般的な人工知能を達成すると信じている時期のチャートをこちらに示します。2019年には50年後だと思われていましたが、1年後には34年後、さらに1年後には18年後、その後8年後だと思われるようになりました。

And so based on this, their forecast was that by 2030, about six years from now, we're going to have AGI.

この予測に基づくと、2030年までに、今から約6年後にはAGIを持つことになると予測されています。

However, progress was so much faster that there was a forecast error.

しかし、進歩が非常に速かったため、予測誤差が生じました。

And assuming that it continues in this way, we're going to have AGI by 2026, two years from now.

そして、このまま進めば、2026年までにAGIを持つことになるでしょう、今から2年後です。

And all the other papers that we covered here kind of say the same thing.

ここで取り上げた他の論文も、だいたい同じことを言っています。

All the experts keep getting surprised by the rapid acceleration of AI.

専門家たちは皆、AIの急速な加速に驚かされ続けています。

So seven years ago, Sam Altman was mocked for saying they're building AGI.

7年前、サム・アルトマンはAGIを構築していると言ったことで嘲笑されました。

Now it's not crazy to say that it's going to be here soon.

今では、もうすぐここに来ると言うのは狂ったことではありません。

When exactly?

具体的にはいつか?

Well, it doesn't matter.

それは重要ではありません。

This is us.

これは私たちです。

And the next moment, it'll pass whatever metric we choose to measure AGI by.

そして次の瞬間、AGIを測定するために選んだ基準を超えていくでしょう。

Before the end of the video, I'll even show you why there's a chance that it has already been achieved.

動画の最後までに、それがすでに達成されている可能性がある理由を示します。

It just hasn't been distributed.

ただし、それはまだ普及していません。

In my previous video, we went over something that Dr. Jim Fan, the senior research scientist what he said.

前回の動画では、シニアリサーチサイエンティストであるジム・ファン博士が言ったことについて説明しました。

The point was that this video generation model, it's learning physics.

このビデオ生成モデルは、物理学を学んでいるというポイントでした。

Its ability to simulate physics is an emergent property.

物理学をシミュレートする能力は、新たに現れる性質です。

As we put in more data and we scale up the resources, these abilities emerge.

より多くのデータを投入し、リソースを拡大すると、これらの能力が現れます。

They start existing.

それらは存在し始めます。

More data and more compute translates into these digital brains being able to sort of implicitly acquire new skills.

より多くのデータと計算能力が、これらのデジタル脳が暗黙的に新しいスキルを獲得できるようになる。

They learn to do stuff that we don't teach it.

私たちが教えないことをするように学びます。

And whenever I post a video talking about this, there's always a vocal minority in the comment section yelling that this can't possibly be true.

私がこれについて話すビデオを投稿するたびに、コメントセクションには、これが絶対に真実ではないと叫ぶ声の多数派がいます。

And we're just imagining things, none of this is happening, etc.

私たちはただ想像しているだけで、これらのことは何も起こっていない、などと言われます。

But it is rapidly becoming the view that more and more people have.

しかし、ますます多くの人々が持つ見解に急速になっています。

OpenAI is talking about it more openly.

OpenAIは、これについてより公然と話しています。

They're not talking about Sora as a little video generator or a picture generator.

彼らはSoraを少しのビデオ生成機や画像生成機として話していません。

They're talking about it as a world simulator.

彼らはそれを世界シミュレーターとして話しています。

They're saying this is a promising path towards building general purpose simulators of the physical world.

これは物理世界の一般的なシミュレーターを構築するための有望な道筋だと言っています。

Sora serves as a foundation for models that can understand and simulate the real world.

Soraは、現実世界を理解しシミュレートできるモデルの基盤として機能します。

A capability we believe will be an important milestone for achieving AGI.

私たちがAGIを達成するための重要なマイルストーンと考える能力です。

Now let's pivot to OpenAI for just a second here.

今度はOpenAIに話を変えてみましょう。

How is OpenAI building AGI?

OpenAIはどのようにAGIを構築しているのですか?

Is ChatGPT the thing that will become AGI?

ChatGPTがAGIになるものですか?

Is Sora the thing that will become AGI?

SoraがAGIになるものですか?

Well, not quite.

まあ、ちょっと違います。

Think of AGI and eventually ASI, the superintelligent form of AGI, as a collection of pieces, each with its own sort of power and abilities.

AGIや最終的にはASI、つまりAGIの超知能形態を、それぞれが独自の力と能力を持つ部分の集まりと考えてください。

But when put together, become AGI, the big thing.

しかし、それらを組み合わせると、AGI、つまり大きなものになります。

So what are those pieces?

では、それらの部分は何でしょうか?

Well, we now know Sora, the world simulator.

Sora、つまり世界シミュレーターを今では知っています。

We know ChatGPT, the fastest growing app of all time that you can now see, hear and speak.

ChatGPT、史上最も急成長しているアプリで、今では見たり、聞いたり、話したりできます。

And is in and of itself a powerful form of AI.

それ自体が強力な形態のAIです。

What are the other pieces?

他の部分は何でしょうか?

Well, one of them is agents.

そのうちの1つはエージェントです。

Sam Altman kind of hinted at this in the developer conference in November.

サム・アルトマンは11月の開発者会議でこれについてほのめかしました。

Actually, I don't know if he was hinting at that, it was kind of vague, but I think myself and a lot of other people assumed that's what he was talking about, autonomous AI agents.

実際、彼がそれをほのめかしていたかどうかはわかりませんが、かなり曖昧でしたが、私自身や他の多くの人々は、彼が自律型AIエージェントについて話していたと思ったと思います。

But these new leaks kind of confirmed that we were all kind of right in assuming that because it seems like OpenAI is rapidly moving towards developing autonomous AI agents.

OpenAIが自律型AIエージェントの開発に急速に進んでいるようですので、私たちがそのように仮定していたことが確認されたと言えるかもしれません。

So Sam Altman has privately called the next iteration of ChatGPT, a super smart personal assistant for work.

サム・アルトマンは、ChatGPTの次のイテレーションを、仕事用のスーパースマートな個人アシスタントとして非公開で呼んでいます。

That agent will take over people's computers and basically do a lot of the tasks for them.

そのエージェントは、人々のコンピューターを引き継ぎ、基本的に彼らのために多くのタスクを行います。

It will be like an operating system that does things for you.

それは、あなたのために何かを行うオペレーティングシステムのようになります。

So instead of clicking on things or typing something in, you will communicate with the whatever form that takes, whether voice or typing, and it will then go and do the things that you request it to do.

何かをクリックしたり何かを入力する代わりに、声やタイピングなど、どんな形であれそれとコミュニケーションを取り、それからあなたが要求したことを行います。

And it will be able to do it autonomously.

そして、それを自律的に行うことができます。

We've tested a few of these AI agents on this channel.

私たちはこのチャンネルでいくつかのこれらのAIエージェントをテストしてきました。

You give it some high level task.

高いレベルのタスクを与えます。

It thinks about it, breaks it up into subtasks.

それについて考え、サブタスクに分割します。

And then starts carrying those out.

そして、それらを実行し始めます。

And OpenAI isn't the only one.

そして、OpenAIだけではありません。

Google CEO Sundar Pichai said the latest technology allows us to act more like an agent over time.

GoogleのCEOサンダー・ピチャイは、最新の技術により、時間の経過とともによりエージェントのように行動できるようになると述べています。

There are other companies that are doing the same thing.

同じことをしている他の企業もあります。

The rabbit r1 device is doing something similar.

rabbit r1デバイスも似たようなことをしています。

There's Multion, which we covered here.

ここで取り上げたMultionもあります。

There's Open Interpreter.

Open Interpreterがあります。

There's Self Operating Computer, I believe it's called.

自己運用コンピューターがあります、それを呼ぶと思います。

There's a bunch of them that are trying to do this.

これを試みている多くのものがいます。

All right, so we have ChatGPT, we have Sora, we have agents.

では、ChatGPTがあります、Soraがあります、エージェントがいます。

What else is there?

他に何がありますか?

Well, OpenAI develops web search product in challenge to Google.

さて、OpenAIはGoogleに挑戦してウェブ検索製品を開発しています。

So we're not sure if that search product is separate from ChatGPT or part of ChatGPT.

その検索製品がChatGPTとは別なのか、ChatGPTの一部なのかはわかりません。

So let's say search is the left leg of the forbidden one or AGI.

では、検索は禁じられた者の左足、またはAGIです。

What else is there?

他に何がありますか?

Well, the massive, massive, massive amount of AI chips, of compute, of GPUs or TPUs or whatever other processors that we need to train these AI models and run inference.

さて、AIモデルを訓練し推論を実行するために必要なAIチップ、コンピュート、GPUやTPU、またはその他のプロセッサーの膨大な量があります。

Inference meaning getting the outputs, the predictions that we're looking for.

推論とは、求めている出力、予測を得ることを意味します。

So Altman has already had a lot of interest from Middle East funds as well as a lot of the Chinese money that flowed into it.

アルトマンはすでに中東のファンドや中国から流入した多額の資金から多くの関心を集めています。

The US government, one of the agencies did, I believe, cancelled and reversed one of the deals that they've had for chips made by Rainne NeuroMorphic that was in San Francisco.

米国政府の機関の1つが、サンフランシスコにあるRainne NeuroMorphicが製造したチップの取引の1つをキャンセルし、取り消したと思います。

But it looks like Sam Altman is not giving up.

しかし、サム・アルトマンは諦めません。

So now he's asking the Biden administration for approval.

今、彼はバイデン政権に承認を求めています。

So Sam Altman is, it said that he's looking for $7 trillion funding to build the infrastructure to produce these chips that are needed.

サム・アルトマンは、これらのチップを生産するためのインフラを構築するために7兆ドルの資金調達を探していると言われています。

So that's $7 trillion in funding.

7兆ドルの資金調達です。

Actually scratch that, it's now $8 trillion.

実際、それは8兆ドルになりました。

But the point is we need a lot of money to build these factories to produce the required amount of chips that will be able to power everything that we want AGI to do.

しかし、ポイントは、私たちがAGIに望むすべてを実現するために、必要な量のチップを生産するために多額の資金が必要です。

Now once we have all the pieces in place, once we have the GPT and the Sora and the DALL·E and the Search and the Autonomous Agents and all the chips, apparently there's also a music/sound generation thing that's not released yet, but that's coming soon.

すべての要素が揃ったら、GPTやSora、DALL·E、Search、Autonomous Agents、そしてすべてのチップが揃ったら、まだリリースされていない音楽/サウンド生成のものもあるようですが、それは近日中に登場する予定です。

I actually got early access to this Sora Plus Audio model and here's some early results.

実際、私はこのSora Plus Audioモデルに早期アクセスを得ました。ここにいくつかの早期結果があります。

So this is two golden retrievers podcasting on top of a mountain.

これは、山の頂上でポッドキャストを行っている2匹のゴールデンレトリバーです。

Here's what that sounds like.

それがどのように聞こえるかを聞いてください。

So I gotta say, not bad.

正直に言って、悪くないと思います。

I expect them to start climbing the iTunes podcasting rankings very rapidly.

彼らがiTunesのポッドキャストランキングを急速に上昇させると予想しています。

But the point that I'm trying to make is this thing that we think of as AGI is likely going to be a multi-part thing, each with its own effects, each with its own strengths, that when combined becomes this thing that is now able to do most of human jobs.

しかし、私が言いたいのは、私たちがAGIと考えているものは、おそらく複数の部分からなるものであり、それぞれが独自の効果を持ち、独自の強みを持ち、組み合わされると、今やほとんどの人間の仕事を行うことができるようになります。

For example, coding assistants are already helping coders work faster, replacing some of the work they have to do.

たとえば、コーディングアシスタントは、すでにコーダーがより速く作業するのを助け、彼らが行わなければならない作業の一部を置き換えています。

Google quietly launches internal AI model named Goose to help employees write code faster.

Googleは、従業員がより速くコードを書くのを助けるために内部AIモデルであるGooseを静かに立ち上げました。

So models like GPT will help coding.

GPTのようなモデルはコーディングを助けます。

If you've played around with Code Interpreter, aka advanced data analytics, a lot of that is going to really help with, well, data analytics.

Code Interpreter(高度なデータ分析とも呼ばれる)で遊んだことがあれば、それはデータ分析に本当に役立つでしょう。

A lot of things that we used to have analysts for can now be done with a few sentences.

たくさんのことは、以前はアナリストが担当していたことが、今では数文章でできるようになっています。

They can go through Excel sheets, organize it how you want to, display various charts, etc.

彼らはExcelシートを見ることができ、希望通りに整理し、さまざまなチャートを表示することができます。

A lot of the coding jobs, a lot of the data analysis jobs, a lot of the writing jobs, that part replaces a lot of the people that's doing that sort of work.

コーディングの仕事、データ分析の仕事、執筆の仕事の多くは、そのような仕事をしている人々の多くを置き換える部分です。

Next, Sora.

次は、Soraです。

Sora produces videos and images, etc.

Soraはビデオや画像などを制作しています。

So think about who does that displace?

それを誰が置き換えるのか考えてみてください。

What kind of skills and people and work environments does that displace?

どのようなスキルや人々、作業環境がそれを置き換えるのでしょうか。

So take a look at something like this.

こういうものを見てみましょう。

So let's say you wanted to shoot something in Tokyo.

では、東京で何かを撮影したいとしましょう。

What do you do?

どうしますか?

Well, you had to fly over there or hire somebody on location to shoot.

まあ、そこに飛んで行くか、現地で撮影するために誰かを雇う必要がありました。

You would need the actors, the editors, the photographers/camera operators, but not only that, because you also need all the people that produce the equipment, the people that produce the cameras, the lighting equipment, the microphones, the storage discs.

俳優、編集者、写真家/カメラオペレーターが必要ですが、それだけでなく、機器を製造する人々、カメラを製造する人々、照明機器、マイク、ストレージディスクを製造する人々も必要です。

For things like this, you needed to hire these special effects creators for movies so they can help you produce visually stunning effects like this.

こうしたことには、映画のための特殊効果クリエイターを雇う必要がありました。彼らは、このような視覚的に見事な効果を生み出すのを手伝ってくれます。

If you wanted to do something like this, that's macro photography.

もし、これと同じようなことをしたいと思ったら、それはマクロ撮影ではありません。

This is not really macro photography.

これは実際にはマクロ撮影ではありません。

There's another better example where it's like zoomed in on someone's eye.

目の中にズームされたようなもっと良い例があります。

You know, you need special lenses for that special glass that has to be made to create those lenses.

その特別なガラスのために作られなければならない特別なレンズが必要です。

You need people to be able to shoot that kind of detail, that macro photography.

そのようなディテールを撮影できる人が必要です、つまりマクロ撮影です。

If we're able to just generate images that are similar to that, all those jobs are affected.

もし私たちがそのような画像を生成できるようになれば、それらの仕事はすべて影響を受けます。

The next part is agents, and agents are going to be everything that you need to, that's going to be kind of like your assistants.

次にエージェントがありますが、エージェントは、あなたが必要とするすべてのもの、つまりあなたのアシスタントのようなものになります。

Anything you need them to answer emails or schedule appointments, do your research online for you, complete whatever task you need with Excel, just anything where you need stuff actually done in the sort of in the digital world, right?

メールの返信やアポイントメントのスケジュール設定、オンラインでのリサーチ、Excelでのタスクの完了など、デジタルの世界で実際に行う必要があることすべてに対応します。

And potentially at some point also over the phone.

そして、おそらくいつかは電話でも対応することになるかもしれません。

So OpenAI has their Whisper model.

OpenAIにはWhisperモデルがあります。

That's another part of this.

これもこの一部です。

So when you talk to it, it's able to transcribe what you're saying to words.

それに話しかけると、あなたが言っていることを単語に変換できます。

So then GPT-4 can then understand what you're saying.

その後、GPT-4はあなたが言っていることを理解できます。

So if you wanted your agent to call a restaurant and, for example, make a reservation for you that would be something like an agent plus GPT, right, ChatGPT, plus something like Whisper that's able to transcribe it.

もしレストランに電話して、例えば予約をしてほしい場合、エージェントに加えてGPT、ChatGPT、そしてWhisperのようなものが必要です。

And then right now we'd have to use ElevenLabs to make the voice, right, to make it sound like a human being is saying.

そして今は、音声を作成するためにElevenLabsを使用する必要があります、つまり人間が話しているように聞こえるようにするためです。

So as ChatGPT outputs the text, it gets transcribed into an AI voice.

ChatGPTがテキストを出力すると、それがAIの声に変換されます。

But again, as I've mentioned before, it sounds like OpenAI has that cooking behind the scenes, that voice model, that audio model, the preview that I gave you, that was just me breathing into a microphone.

しかし、前にも述べたように、OpenAIはその裏で料理をしているようで、音声モデル、オーディオモデル、私が提供したプレビューは、ただマイクに息を吹きかけているだけです。

I hope that was I hope that that comes across okay.

うまく伝わっていることを願っています。

And of course, the chips, the GPUs that are needed, that's like the last piece.

そしてもちろん、必要なチップやGPUは最後のピースのようなものです。

I don't even know if that's necessarily like you would think of that as a piece of AGI or does that just increase the scale?

それがAGIの一部と考えるべきかどうかはわかりませんが、それは単にスケールを拡大させるだけなのでしょうか?

But the point is this, here's how stuff scales when we increase the compute from just nonsense.

しかし、ポイントはここにあります。コンピュートを増やすと、ただの無意味なものからどのようにスケールするかです。

You know, if we increase it for exits is better.

わかりますか、それを増やすと出口が良くなります。

I mean, that's looking pretty good to really lifelike when you bump it up even further, just giving it more processing power, more chips, more compute.

さらに処理能力を高めると、非常にリアルに見えるようになります。もっとチップを追加し、もっとコンピュートを増やすだけです。

By itself scales up incredibly effective.

それ自体が信じられないほど効果的にスケールアップします。

So I guess computer chips, you could think of it as a part of it or more just like the thing that helps it scale, depending on how you want to think about this.

コンピュータチップはそれの一部と考えることもできますし、これがスケールするのを助けるものと考えることもできます。それはどのように考えるかによります。

But the point is when you have all these little pieces on the board together, the thing that emerges, the thing that starts slowly floating through the portal, well, that's AGI.

しかし、ポイントは、ボード上にこれらの小さなピースがすべて揃ったときに現れるもの、ゆっくりとポータルを浮遊し始めるもの、それがAGIなのです。

That's the thing that we'll be able to think, to learn, to do, to produce images and voices and understand all the images and videos that you give it, understand what you mean when you say things.

それが私たちが考え、学び、作成し、画像や声を生成し、与えられたすべての画像やビデオを理解し、言ったことの意味を理解することができるものです。

So when is that coming?

それがいつやってくるのでしょうか?

When are we going to have that?

それはいつ手に入るのでしょうか?

Well, this is Jimmy Apples.

では、これがジミー・アップルズです。

We've mentioned them a few times on this channel before.

このチャンネルで何度か言及してきました。

And as I've said before, take everything here with a grain of salt.

そして以前にも述べたように、ここでのすべてを一つの塩分として受け取ってください。

Jimmy Apples is what appears to be an OpenAI insider, somebody that knows quite a bit about what's happening at OpenAI, who leaks this information in cryptic tweets every once in a while.

ジミー・アップルズは、OpenAIの内部者であり、OpenAIで起こっていることについてかなり詳しい人物であり、時々暗号的なツイートでこの情報をリークしています。

So again, I'm not endorsing anything.

私は何も推奨していません。

I'm not saying that this is true.

これが真実だと言っているわけではありません。

In fact, if at some point this person is just completely wrong about something to where we completely can dismiss whatever he predicts, I feel like my job would get a little bit easier.

実際、この人物が何かについて完全に間違っている場合、彼が予測することを完全に無視できるようになれば、私の仕事は少し楽になると感じています。

But here's the problem.

しかし、問題はここにあります。

He is eerily accurate, which makes it very difficult to just completely dismiss everything that he's saying.

彼は驚くほど正確であり、彼が言っていることを完全に無視するのが非常に難しい状況です。

On this channel, we're going to look at everything.

このチャンネルでは、すべてを見ていきます。

We're going to look at the scientific papers, the data, and we're also going to look at the crazies, at the conspiracy theorists.

科学論文やデータを見る予定であり、陰謀論者や陰謀論者も見る予定です。

This is going to be a full spectrum AI channel.

これは完全なスペクトラムのAIチャンネルになります。

So let's get started.

それでは始めましょう。

Here's yumidiot, I'm going to say, and they're saying after Sora, it became very difficult to connect the dots and coming to the astounding conclusion that OpenAI already has AGI.

こちらがyumidiotですが、Soraの後、点を結びつけることが非常に難しくなり、OpenAIが既にAGIを持っているという驚くべき結論に至ると言っています。

One dot is obviously the existence of Apple and his leaks.

一つの点は明らかにAppleとそのリーク情報の存在です。

Apple being Jimmy Apples and his leaks.

Appleはジミー・アップルズと彼のリークのことです。

So normal people think Apple is just a legendary leaker, but in my opinion, he's a legendary prophet, revealing the divine plans of God Emperor that is sama, Sam Altman.

一般の人々はAppleを伝説的なリーカーだと思っていますが、私の意見では、彼は神聖な計画を明らかにする伝説的な預言者であり、それはsama、サム・アルトマンである神皇帝の神聖な計画です。

Apple scores very well.

Appleは非常に高得点を獲得しています。

March 14th GPT-4 drop score.

3月14日にGPT-4のスコアが下がった。

He predicted that.

彼はそれを予測した。

Gobi and Arrakis names score.

GobiとArrakisの名前がスコアを上げた。

He predicted that.

彼はそれを予測した。

That was confirmed by the information, I believe.

その情報によって確認されたと私は信じています。

Whatever Arrakis was, Arrakis is the alternate name for the planet in Dune.

Arrakisが何であれ、Arrakisは映画「Dune」の惑星の代替名です。

The science fiction novel Dune that is now a movie on Netflix.

今やNetflixで映画になっているSF小説「Dune」。

I actually never read Dune, surprisingly.

実は、私は意外なことに「Dune」を読んだことがありません。

It's one of the classic sci-fi books.

それは古典的なSFの本の1つです。

I just recently got it and am going through it.

私は最近それを手に入れ、それを見ています。

Then they continue.

そして彼らは続けます。

Sama firing score.

Samaの解雇がスコアを下げた。

This was the thing for me that truly solidified that what this guy was saying is likely has some grip on reality.

これは私にとって、この人が言っていることが現実に一部当てはまる可能性があることを確信させるものでした。

So this was October 24th, 2023, Jimmy Apples posts.

これは2023年10月24日、ジミー・アップルズの投稿でした。

There's been a vibe change at OpenAI and we risk losing some key ride or die OpenAI employees.

OpenAIで雰囲気が変わり、いくつかの重要なOpenAI従業員を失うリスクがあります。

So keep that in mind, October 24th.

それを念頭に置いておいてください、10月24日。

So that's the post on October 25th.

それが10月25日の投稿です。

But Sam Altman was fired on November 17th, almost a month later.

しかし、サム・アルトマンは11月17日に解雇されました、ほぼ1か月後です。

And Sam Altman didn't know about the firing.

そして、サム・アルトマンは解雇について知らなかった。

Normal employees did not know about the firing.

通常の従業員は解雇について知りませんでした。

Even Mira Murati didn't know about the firing until the day before the firing, I believe.

ミラ・ムラティさえも、解雇については、解雇の前日まで知らなかったと思います。

The board plus Ilya Sutskover approached Mira the day before.

取締役会とイリヤ・スツコーヴァーは、前日にミラに接触しました。

I don't recall if it was the day before or just a few hours before.

前日だったか、わずか数時間前だったかは覚えていません。

At the point, she was the only one outside of a small group of the board members that knew about it with a bit of an advanced notice because she had to step in as interim CEO.

その時点で、彼女は臨時CEOとして立ち上がらなければならなかったため、それについて少し前もって知っていた取締役会メンバーの小さなグループの外で唯一知っていた人でした。

So Jimmy Apples knew about the vibe change resulting in Sama's firing on October 25th.

そのため、ジミー・アップルズは10月25日にサムの解雇につながる雰囲気の変化について知っていました。

So it looks like Jimmy Apples leaked that there was a big fat release on February 15th.

ジミー・アップルズは、2月15日に大きなリリースがあったことをリークしたようです。

He's saying he released it from an alt, an alternative account.

彼は、代替アカウントからそれをリリースしたと言っています。

Kind of a, again, this is why I say take everything here with a grain of salt because who knows what is happening.

何が起こっているかわからないので、ここでのすべてを塩梅に取ると言っているのですが。

But I'll cut to the chase.

しかし、本題に入ります。

Jimmy Apples is saying that OpenAI has achieved AGI internally.

ジミー・アップルズは、OpenAIが内部でAGIを達成したと言っています。

It will be released in 2025, in one year.

2025年にリリースされる予定です。

Says he's looking for a nice farm to relax on.

彼はリラックスできる素敵な農場を探していると言っています。

And what he wants to see from big labs is working on how to solve future job loss.

そして彼が大手研究所から見たいと思っているのは、将来の仕事の喪失をどのように解決するかに取り組んでいることです。

Jimmy reposted this.

ジミーはこれを再投稿しました。

I've been building autonomous agents for the last eight months.

過去8ヶ月間、自律エージェントを構築してきました。

Can confidently say that AGI is so much closer than anyone expects.

AGIは誰もが予想しているよりもずっと近いと断言できます。

All you need is a cheap GPT-5 that can run locally.

必要なのは、ローカルで実行できる安価なGPT-5だけです。

It wouldn't surprise me if OpenAI has already built this internally.

OpenAIが既にこれを内部で構築している可能性があると私を驚かせないでしょう。

It's just not economically viable.

経済的に実現可能ではないだけです。

He's also reposting some papers, some of which we've covered here on the channel, that deal with agents, autonomous agents.

彼はまた、一部の論文を再投稿しており、その中には当チャンネルで取り上げたエージェント、自律エージェントに関するものもあります。

So for example, Tencent has been, has published multiple papers on autonomous AI agent.

たとえば、Tencentは自律AIエージェントに関する複数の論文を公表しています。

One of them is multimodal agents as smartphone users.

そのうちの1つは、スマートフォンユーザー向けの多様なモードのエージェントです。

There is a lot of research about autonomous agents coming out of China, a lot.

中国からは、自律エージェントに関する多くの研究が出ています。

A lot of these things that he's hinting at.

彼がほのめかしている多くのことがあります。

This was before we had confirmations of OpenAI shifting their AI progress to kind of go going after autonomous agents.

これは、OpenAIがAIの進歩を自律エージェントに向けて進めることを確認する前のことでした。

All right, so we've covered it in a different video, Ben House, an OpenAI employee that's working on what we believe to be these autonomous agents said he's building what he thinks could be an industry defining zero to one product that leverages the latest and greatest from our upcoming models.

さて、別のビデオで取り上げたように、私たちがこれらの自律エージェントであると信じているOpenAIの従業員であるベン・ハウスは、最新かつ最高のモデルを活用した業界を定義する可能性がある製品を構築していると述べています。

And Peter Wellander, OpenAI vice president of product, said that this product that Ben is working on will change everything.

そして、OpenAIのプロダクト担当副社長であるピーター・ウェランダーは、ベンが取り組んでいるこの製品がすべてを変えると述べました。

So again, as much as I would love to dismiss these anonymous leaks, whenever I look back over this stuff, his stuff is like a month to two months leading whatever we see confirmation of.

私は匿名のリークを無視したいと思っても、この情報を振り返るたびに、彼の情報は確認されるのが1か月から2か月遅れているようです。

Here's December 8th, 2023, open source MoE coming soon, MoE is mixture of experts.

こちらは2023年12月8日、オープンソースのMoEが近日公開される予定です。MoEは専門家の混合物を意味します。

This is what we believe OpenAI used with great effect to run GPT-4.

これが、私たちがOpenAIがGPT-4を実行するのに効果的に使用したと考えているものです。

That's one of the reasons why it was so good.

それがそれほど優れていた理由の1つです。

Here he's probably talking about Mistral or Mixtral, the French open source model that is now competing with that's doing really well on a lot of tasks similar to GPT-4.

おそらくここでは、MistralまたはMixtralについて話しているのでしょう。これは、現在GPT-4に似た多くのタスクで非常にうまくいっているフランスのオープンソースモデルです。

I don't remember the exact rankings, but it's definitely one of the very strong open source models that we know uses mixture of experts.

正確なランキングは覚えていませんが、確かに専門家の混合物を使用していることがわかっている非常に強力なオープンソースモデルの1つです。

Also the big thing that completely got overshadowed by Sora's release was Gemini 1.5.

また、ソラのリリースによって完全に影が薄くなってしまった大きな出来事は、Gemini 1.5のリリースでした。

You probably completely ignored this because after like a few hours of this announcement, OpenAI drops Sora.

おそらく、このアナウンスメントの数時間後にOpenAIがSoraをリリースしたため、これを完全に無視したかもしれません。

So this was completely overshadowed, but it's much bigger than it appears.

これは完全に影が薄くなってしまいましたが、見た目以上に大きな意味があります。

Gemini 1.5 is a lot better than Gemini 1.0.

Gemini 1.5は、Gemini 1.0よりもはるかに優れています。

The midsize model is as good as the Ultra, the previous Google Gemini's large model.

中型モデルは、以前のGoogle Geminiの大型モデルであるUltraと同じくらい優れています。

It's faster, cheaper to train.

それはより速く、トレーニングするのにもっと安いです。

It's better.

それはより優れています。

Why?

なぜですか?

Well, one of the reasons is it's with a new mixture of experts, MoE architecture.

新しい専門家の混合物であるMoEアーキテクチャという理由の1つです。

Now you may be saying, yeah, it just seems like he's getting kind of lucky at his predictions and he might not actually know what's happening.

今、彼は単に彼の予測が幸運に見えるようで、実際に何が起こっているのかわからないかもしれないと言っているかもしれません。

Well, here's November 29th, 2023.

では、2023年11月29日はどうですか?

So what about three months ago?

3か月前はどうでしたか?

So he's saying OpenAI made the decision to do video generation back in March of this year.

彼は、OpenAIが今年の3月にビデオ生成を決定したと言っています。

So in 2023.

2023年にはどうでしょうか?

Will we see this next year as in right now?

私たちはこれを来年、つまり今すぐ見ることができるでしょうか?

Yes, we did.

はい、見ることができました。

Reminder that they are still sitting on a new jukebox model.

彼らはまだ新しいジュークボックスモデルに座っていることを思い出してください。

That's that sound jukebox music thing that I gave you a preview of earlier.

それは、以前にプレビューをお見せしたジュークボックス音楽のことです。

And he's saying DeepMind, Runway, Pika, and Open Source are going to force their hand.

そして、DeepMind、Runway、Pika、およびオープンソースが彼らを追い込むだろうと彼は言っています。

Now keep in mind that most OpenAI employees did not know about the video generation model.

ほとんどのOpenAI従業員がビデオ生成モデルについて知らなかったことを覚えておいてください。

They were briefed about it shortly before the release.

彼らはリリース直前にそれについて簡単に説明を受けました。

I read a lot about AI and all the stuff people are talking about.

私はAIについてたくさん読んでおり、人々が話しているすべてのことについても読んでいます。

I can tell you, no one was talking about a video generation model by OpenAI in 2023.

お伝えできますが、2023年にOpenAIによるビデオ生成モデルについて誰も話していませんでした。

And here in November 2023, he's talking about a 4peat, 4peat.

そして、ここは2023年11月で、彼は4peatについて話しています。

We'll come back to that in just a second.

ちょっと待って、その話に戻ります。

So OpenAI was sitting on Sora for almost a year.

OpenAIはほぼ1年間、Soraの上に座っていました。

GPT-4 finished training in July 2022, which by the way, there's some papers out of Microsoft where you see some of the screenshots on those papers where they're testing GPT-4.

GPT-4は2022年7月にトレーニングを終えました。ちなみに、Microsoftからいくつかの論文が出ていて、そこではGPT-4をテストしているスクリーンショットがいくつか見られます。

And that was many months before it was released to the general public.

それは一般の人々に公開される前の数ヶ月前のことでした。

So it was finished training and it was already being tested by some sort of red teamers, people that were testing it for safety, as well as other organizations that are sort of close to OpenAI.

トレーニングが終了し、何らかのレッドチームの人々、つまり安全性をテストしていた人々やOpenAIに近い他の組織がテストしていました。

It was way before we got our hands on it.

私たちがそれを手に入れる前のことでした。

And he's saying there's also Gobi, Arrakis, Q-Star, four-peat, Orion, sounding like far more advanced than GPT-4.

そして、彼はGobi、Arrakis、Q-Star、4peat、Orionなどもあると言っており、GPT-4よりもはるかに進化しているようです。

So we've covered some of these.

これらのいくつかを取り上げました。

So we've covered Q-Star.

Q-Starも取り上げました。

We've covered pretty much all of these.

これらのほとんどを取り上げました。

The 4peat, I believe what he's referring to is Sam Altman saying that four times now it has happened that he was in a room when sort of the frontier of our ignorance was pushed back and sort of our knowledge of the world was pushed forward.

4peat、私が信じているのは、サム・アルトマンが4回も、私たちの無知の最前線が押し戻され、世界の知識が前進したときに部屋にいたということです。

So was that the Q-Star that was leaked?

それがリークされたQ-Starだったのでしょうか?

I have no idea.

全くわかりません。

Was it a separate project?

お別のプロジェクトだったのですか?

We don't know.

わかりません。

Remember when GPT-4 dropped, they did a formal demo day.

GPT-4がリリースされたときを覚えていますか、彼らは正式なデモデーを行いました。

It was kind of a big deal.

それはかなり大きな話題でした。

When Sora released, they did nothing, as if it was nothing so special.

Soraがリリースされたとき、彼らは何もせず、それが特別なことではないかのようでした。

They dropped the thing so close to AGI and called it nothing.

彼らはAGIに非常に近いタイミングでそれをリリースし、何も特別なことではないと言いました。

They're working on ASI alignment, not AGI alignment.

彼らはAGIの整合性に取り組んでおり、AGIの整合性ではありません。

So this begs the question, what is AGI?

疑問が生じます、AGIとは何でしょうか?

Like what even is that?

それって、一体何なのでしょうか?

Well, here's Google's take on it.

では、Googleの見解をご紹介します。

This is Google's levels of AGI.

これがGoogleのAGIのレベルです。

So here's kind of like the level of AGI and here's where we have narrow AGI.

こちらがAGIのレベルで、こちらが狭いAGIの位置です。

So for example, we have narrow AI that is superhuman, means that it outperforms 100% of humans on these narrow tasks, right?

例えば、我々は超人的な狭いAIを持っています、それはこれらの狭いタスクで100%の人間を上回ることを意味します、そうですよね?

Of course, if you think about something like AlphaFold, alpha go, so the this narrow AI that just placed chess is superhuman level AI, narrow AI.

もちろん、AlphaFoldやAlphaGoのようなものを考えると、チェスをプレイするだけのこの狭いAIは超人的なレベルのAI、狭いAIです。

It will beat any human at chess.

それはチェスでどんな人間にも勝つでしょう。

So that's narrow tasks and the general sort of side of that is anything, basically most tasks.

それが狭いタスクで、一般的な側面は基本的にほとんどのタスクです。

So like a level zero AI was narrowly narrow was calculator level one is emerging and this is where they put ChatGPT, GPT-4, Bard, LLaMA 2, Gemini, right?

レベルゼロのAIは狭く、計算機レベル1は新興で、ここにChatGPT、GPT-4、Bard、LLaMA 2、Geminiが置かれていますね。

It's sort of level one emerging AGI.

それは、新興のAGIのレベル1のようなものです。

So it's equal to, or somewhat better than an unskilled human.

もしくは未熟な人間よりもやや優れているということです。

And then level two is competent.

そして、レベル2は有能です。

This is where it's at least 50th percentile of skilled adults.

これは、少なくとも熟練した大人の50パーセンタイル以上です。

And here they give examples of competent narrow AI, but competent AGI has not yet been achieved where it beats 90% of skilled adults.

ここでは、有能な狭いAIの例を挙げていますが、有能なAGIはまだ達成されておらず、それが熟練した大人の90%を上回るという段階です。

It's in the 90th percentile.

それは90パーセンタイルに位置しています。

And for narrow AI here, they put things like image and DALL·E three, so generative image models, right?

そして、ここでは狭いAIについて、画像やDALL·Eなど、生成画像モデルなどが挙げられていますね。

Then level four, Virtuoso, better than 99% of skilled adults and they have Deep Blue and AlphaGo.

次に、レベル4、Virtuoso、熟練した大人の99%よりも優れており、Deep BlueとAlphaGoがあります。

We'll beat 99% of skilled adults.

我々は熟練した大人の99%を上回ります。

It beats Lee Sedol, the world champion go player five zero, I believe, but I guess it's still not as insanely good as the chess playing AI, right?

それは、世界チャンピオンの囲碁プレーヤーである李世ドルを打ち負かしますが、チェスをプレイするAIほど驚くほど優れているわけではないと思いますね。

And of course, superhuman just completely better than a hundred percent of humans currently how the world is.

そしてもちろん、超人的な、現在の世界の100%よりも完全に優れているということです。

We believe we're kind of here.

我々は、ここにいると信じています。

We're in this emerging AGI.

我々はこの新興のAGIの段階にいます。

And when most people talk about AGI, like when will AGI get here?

AGIがいつ到来するか、というとき、ほとんどの人が話しているのは、おそらく、有能なAGIや専門家のAGIのようなものだと感じます。

I feel like they're probably talking something like competent AGI or expert AGI.

彼らは、大人の下半分、熟練した大人の下半分を上回るか、あるいは熟練した大人の90%を上回るかのどちらかだと思います。

So either it beats the bottom half of adults, of skilled adults, or perhaps 90% of skilled adults.

それは半分の人よりも優れているか、90%の人よりも優れているか、あるいはその間のどこかに位置しているか、ということです。

At some point, Sam Altman said something about future AI models being better than the median human, I think he said, basically competent AGI.

ある時点で、サム・アルトマンは、将来のAIモデルが中央値の人間よりも優れていると何か言っていたと思います。基本的には有能なAGIだと。

Let's take our definition of AGI to be somewhere between level two and level three.

AGIの定義を、レベル2とレベル3の間に位置するものとしましょう。

So it's either better than half of the people or better than 90% of the people or somewhere in between, whatever.

それは人々の半分よりも優れているか、90%の人々よりも優れているか、あるいはその間のどこかに位置しているか、ということです。

Now you ask yourself this, could OpenAI have something behind closed doors that is at least as good as half of skilled adults?

では、OpenAIが、熟練した大人の半分程度と同等以上の能力を持つ何かを秘密裏に持っている可能性はありますか?

So it writes, it does taxes, it checks your spelling, it can produce images and videos and product packaging and write marketing copy, they can use Excel and Word, can browse the web.

文章を書いたり、税金を計算したり、スペルをチェックしたり、画像や動画や製品パッケージを作成したり、マーケティングコピーを書いたり、ExcelやWordを使ったり、ウェブを閲覧したりできる、ということです。

All the tasks that your office workers can do, like it's as good as half of them.

オフィスの従業員ができるすべてのタスクを行うことができる、つまり、彼らの半分ほどの能力を持っている、ということです。

Is it conceivable that OpenAI has this?

OpenAIがこれを持っている可能性は考えられますか?

Well, if they trained GPT-4 in July 2022 and had a bunch of discoveries since, and by the way, GPT-4 is still one of the best models.

もし彼らが2022年7月にGPT-4を訓練し、それ以降いくつかの発見をしていたとしたら、ちなみに、GPT-4はまだ最高のモデルの1つです。

I mean, now it finally, it has competition, has legitimate competition.

つまり、今やついに、競争相手が現れ、正当な競争相手がいるということです。

And I think Gemini 1.5 will actually beat it in a lot of, in certain areas at least.

そして、Gemini 1.5は実際には、少なくともいくつかの分野でそれを上回るでしょう。

So GPT-4 isn't the undisputed champion anymore, but it's not by any stretch obsolete or out of date or anything like that.

GPT-4はもはや独占的なチャンピオンではありませんが、陳腐化したり時代遅れになったりすることは全くありません。

So if that's the model that we're using, that's at the top of the leaderboards and it's trained in July 2022, then it's important to understand that what we're seeing is like light from very distant galaxies, whatever we're seeing happened a long, long time ago.

もし私たちが使用しているモデルが、リーダーボードのトップに位置し、2022年7月に訓練されたものであるなら、私たちが見ているものは、非常に遠い銀河からの光のようなものであり、見ているものはずっと昔に起こったことだと理解することが重要です。

So going back to this, if we were looking at something like this and the question was, how likely do you think that OpenAI has a level two competent AGI as what they call basement AGI?

この点に戻ると、もし私たちがこのようなものを見ていて、質問が、OpenAIが彼らが地下AGIと呼ぶレベル2の有能なAGIを持っている可能性はどれくらいあるというものだったら?

In other words, it exists, but it's behind closed doors.

言い換えれば、それは存在していますが、扉の向こうにあります。

It's not accessible by the world, right?

それは世界にはアクセスできませんね。

It's in somebody's basement.

それは誰かの地下室にあります。

And let's assume it doesn't have to be economically viable, meaning that, for example ChatGPT, it costs cheap enough to run to where they can have a model for free.

それが経済的に実現可能である必要はないと仮定しましょう。つまり、例えばChatGPTのように、ランニングコストが十分に安くなっているため、彼らは無料でモデルを持つことができます。

They can have a paid model.

有料モデルを持つことができます。

Perplexity has a free version and has a paid version.

Perplexityには無料版と有料版があります。

So the point is, they got the cost down to where it could be released to the public the whole world could use it, etc.

要点は、彼らはコストを下げて、それを一般に公開し、全世界がそれを使用できるようにしたということです。

Forget that for a second.

それを一時忘れましょう。

From certain papers that we read on this channel, it seems like spending more compute on inference, sort of letting the computer think really hard about the answer, that improves its ability to answer that question.

このチャンネルで読んだ特定の論文から、推論により多くのコンピュートを費やすこと、つまりコンピュータに答えを熟考させることは、その質問に答える能力を向上させるようです。

It almost replicates the abilities of a more advanced AI.

それはほぼより高度なAIの能力を複製しています。

So for example, if we asked GPT-4 a question, and let's say normally it costs 10 cents in compute costs to answer that question.

例えば、もし私たちがGPT-4に質問をした場合、そして通常その質問に答えるために10セントのコンピュートコストがかかるとします。

What if we allowed it to spend 10 million dollars of compute to answer that question?

もし私たちがその質問に答えるために1,000万ドルのコンピュートを費やすことを許可したらどうなるでしょうか?

What would happen?

何が起こるでしょうか?

Well, it seems like from some of the research that we've seen, it seems like that would be a simulation of how, for example, GPT-5 would answer that question.

私たちが見てきた研究のいくつかからは、例えばGPT-5がその質問に答える方法のシミュレーションになると思われるようです。

Just by increasing the compute, we're able to see how that model would behave at a much more advanced level.

コンピュートを増やすだけで、そのモデルがより高度なレベルでどのように振る舞うかを見ることができます。

In fact, I believe Ilya Sutskever talked about that a little bit because he said it would basically this sort of approach would allow him to do some safety testing on next generation models to make sure that everything's cool before we actually train that model, before we unleash it, we can kind of simulate how it would behave by just spending much, much more resources on it answering any given question.

実際、イリヤ・サツキヴァーは少し話したと思います。この種のアプローチは、次世代モデルの安全性テストを行うことを可能にし、実際にそのモデルを訓練する前に、それを解き放つ前に、どのように振る舞うかをシミュレートすることができます。それには、与えられた質問に対してはるかに多くのリソースを費やすだけで十分です。

Sort of it's a way to approximate it, to kind of glimpse into the future almost.

実際、それはそれを近似する方法であり、将来をほぼのぞき見る方法です。

So my question is, knowing that we know about where OpenAI is what we see versus what they most likely have behind closed doors, and also not taking how much stuff costs into account.

OpenAIがどこにいて、私たちが見ているものと、おそらく彼らが密室で持っているものとの違いを知っているとして、かつ、物事のコストを考慮しないでください。

So let's assume they just have unlimited access to compute.

彼らが単にコンピュートに無制限にアクセスできると仮定しましょう。

Is it possible that they have a competent AGI?

彼らが有能なAGIを持っている可能性はありますか?

Something that's as good as 50% of skilled adults?

それが熟練した大人の50%ほど優れているものですか?

What odds would you give that?

どのような確率を与えますか?

To me, that seems very likely, very possible at least.

私にとっては、それは非常にありそうで、少なくとも可能性があります。

Maybe better than 50:50.

50:50よりも良いかもしれません。

So in terms of answering the question, when will we have AGI?

では、質問に答えるとすれば、我々はいつAGIを手に入れるのでしょうか?

Whoops, did you miss it?

おっと、見逃しましたか?

Because if OpenAI had GPT-4 in July 2022, it has been compounding since, because keep in mind, the GPUs have improved drastically since then.

なぜなら、OpenAIが2022年7月にGPT-4を持っていた場合、それ以降複利で増加してきたからです。なぜなら、その間にGPUは劇的に改善されています。

The funding has improved, the technology, the research, everything has improved.

資金が改善され、技術、研究、すべてが改善されています。

And you know, assuming they've been compounding this whole time, dropping more and more grains of rice on the board, and we're well into that second half of the chessboard, well, maybe the thing is already here.

そして、彼らがこの間ずっと複利をしていると仮定して、チェス盤にますます多くの米粒を落としており、私たちはすでにそのチェス盤の後半に入っており、おそらくそのものはすでにここにあるかもしれません。

The AGI is here.

AGIはここにあります。

It's just not distributed yet.

まだ配布されていません。

It's just not released yet.

まだリリースされていません。

And that's why Sam Altman talks about staggering the release, releasing it incrementally, not all at once.

サム・アルトマンはリリースを段階的に行うこと、一度にすべてをリリースしないことについて話しています。

Some of the other OpenAI employees have also mentioned the same thing.

他のいくつかのOpenAIの従業員も同じことを言及しています。

They want to give people a preview of what's coming to let everybody kind of adjust and figure out how they're going to go about it.

彼らは人々に来るもののプレビューを提供し、みんなが調整してどのように対処するかを考える時間を与えたいと考えています。

Things are about to get nutty.

事態は混沌としてきそうです。

Exactly what this means is kind of hard to predict.

これが具体的に何を意味するのかは予測するのが難しいです。

Like I always say, I'm fairly optimistic about this whole AGI thing in the long term.

いつも言っているように、私は長期的にはこのAGI全体にかなり楽観的です。

It will be awesome for humanity in the long term.

長期的には人類にとって素晴らしいことになるでしょう。

But in the short term, it might get bumpy.

しかし、短期的には波乱が起こるかもしれません。

We might have to reconsider some things, change how things function.

いくつかのことを再考し、物事の機能を変えなければならないかもしれません。

We have to learn to think from first principles, whatever inertia and momentum that humanity has has achieved.

人類が達成した慣性や勢いから、最初の原理から考えることを学ばなければなりません。

We might have to like say, wait, rethink how all of this works.

我々は、待って、これらすべてがどのように機能するかを再考する必要があるかもしれません。

If AGI exists, how do we think about jobs, money, the economy?

AGIが存在する場合、仕事、お金、経済についてどのように考えるべきでしょうか?

How do we think about the things that we see in video and images and text?

ビデオや画像、テキストで見るものについてどのように考えるべきでしょうか?

How do we think about human achievement and a sense of self-worth?

人間の業績や自己価値感についてどのように考えるべきでしょうか?

Like what's our purpose in life if machines can do most things better?

機械がほとんどのことをより良くできるようになったら、私たちの人生の目的は何でしょうか?

I know that scares a lot of people.

それが多くの人々を怖がらせていることはわかっています。

I see a lot of people that are very smart, very talented that are scared because I guess they believe that some of that advantage that they have over other people, that it will get erased.

とても賢く、才能のある人々がたくさんいるのを見ますが、彼らは他の人々よりも優位性を持っていると信じている部分が消えてしまうのではないかと心配しているようです。

This is where a lot of artists seem to be very concerned.

ここが多くのアーティストが非常に心配しているところです。

If you've seen some of the things that the artist community is saying about AI, they're very, very hostile towards it.

AIについてアーティストコミュニティが言っていることを見たことがあれば、非常に敵対的な態度を取っています。

Not everybody, I'm generalizing, but at least some subsection of that community anonymously on Twitter.

全員がそうではないですが、少なくともそのコミュニティの一部は匿名でTwitter上で発言しています。

They just say they really don't like that.

彼らは本当にそれが好きではないと言っています。

They don't like it.

彼らはそれが好きではありません。

They want it to be made illegal.

それを違法にしたいと考えています。

And they're saying that no good will come of it.

そして、それには何の利益もないと言っています。

I think it was late 2019, I stumbled on this Reddit forum that was talking about a virus that was happening somewhere on the other side of the world.

私は2019年の終わりごろだったと思うのですが、Redditのフォーラムで、世界のどこかで起こっているウイルスについて話しているのを見つけました。

It was making people sick and it was spreading fast.

人々を病気にさせ、急速に広がっていました。

At that time, it was just one city in a very populous country.

その当時、それは非常に人口の多い国の1つの都市だけでした。

Some people on the forum were concerned because of how rapidly it was spreading.

一部の人々は、それがどれだけ急速に広がっているかについて心配していました。

That exponential growth, that compounding was much faster than we've seen before.

その指数関数的な成長、複利が、以前に見たことよりもはるかに速かった。

Of course, people were concerned.

もちろん、人々は心配していました。

I was a little bit concerned.

私も少し心配していました。

I had no idea how that whole situation would end because nobody was yet talking about it.

その状況がどのように終わるか全く分からなかった。誰もそれについて話していなかったからです。

It wasn't on the news.

ニュースにも出ていませんでした。

It wasn't talked by people.

人々にも話題にされていませんでした。

We didn't even have a name for it at the time.

その時点では、それに名前すらついていませんでした。

People were just calling it by the city where it originated.

人々は、それを発生した都市の名前で呼んでいました。

I discussed it with a friend of mine, kind of let him know what I was seeing.

私は友達とそれについて話し合い、私が見ていることを彼に伝えました。

And we both took some actions to prepare for it.

そして、私たちは両方ともそれに備えるための行動を取りました。

I stocked up on some medical supplies, hand sanitizer and such.

私はいくつかの医療用品やハンドサニタイザーなどを備蓄しました。

I bought several of those huge hand sanitizer things from Costco.

コストコからいくつかの大きなハンドサニタイザーを買いました。

I think I still have them to this day.

今でもそれらを持っていると思います。

Now somehow that wasn't the thing that we ran out of.

しかし、それが私たちが品切れになったものではなかったのです。

The thing that everyone ran out of was toilet paper.

トイレットペーパーが不足していたのはみんな同じだった。

The correct answer was toilet paper.

正解はトイレットペーパーだった。

And my friend, he shorted the living bejesus out of airline and cruise stocks.

そして友達は航空会社やクルーズ船の株を大量に空売りしていた。

My friend in the meantime made tons of money shorting various travel, airplanes and cruise stocks.

その間、友達はさまざまな旅行、航空機、クルーズ船の株を空売りして大金を稼いだ。

And then at the bottom, he poured all his money into various stocks that he believed would be affected by the massive money printing that was happening.

そして、最低点で彼は、起こっている大量のマネー印刷に影響を受けると信じていたさまざまな株に全財産を投入した。

So the question is with the coming of AGI, however you describe that with this massive compounding force that is building up and it's about to hit the world and no one really knows how and what it will affect.

AGIの登場とともに、この巨大な複利効果が蓄積されており、世界に打撃を与える準備が整っており、誰も本当にそれがどのように何を影響するかを知らないという問題です。

How do you navigate those currents?

これらの流れをどのように航行しますか?

How do you protect yourself from risks?

リスクから自分自身を守るにはどうすればよいですか?

How do you take advantage of the upsides?

メリットを活用するにはどうすればよいですか?

And I'm not just talking money, just in general, how do you navigate this new world we're about to be thrust into?

お金だけでなく、一般的に、私たちが突入する新しい世界をどのように航行しますか?

Well, we can't possibly cover that today.

今日はそれを網羅することは不可能です。

But in one of my next videos, we're going to dig up a piece written a long, long time ago, maybe like early 2023, about the two or three things that will actually matter in a post-AGI society.

しかし、次のビデオの1つで、私たちは、おそらく2023年初頭に書かれた、AGI後の社会で実際に重要な2つまたは3つのことについて掘り下げる予定です。

If you enjoyed this, please hit thumbs up, hit subscribe, leave me a comment.

もしこれを楽しんでいただけたら、高評価をクリックして、チャンネル登録をして、コメントを残してください。

I try to read as many of them as possible.

できるだけ多くのコメントを読もうと努力しています。

It's hard to read all of them, but I try.

すべてを読むのは難しいですが、できる限り読もうとしています。

And finally, I know you are probably dying to hear the rest of the podcast by the two golden retrievers podcasting on top of a mountain.

最後に、おそらく山の頂上でポッドキャストをしている2匹のゴールデンレトリバーのポッドキャストの残りを聞きたいと思っているでしょう。

So to close out this video, here's the full two hour long podcast.

この動画を締めくくるために、こちらが2時間のフルポッドキャストです。

I'm kidding.

冗談です。

Bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?