見出し画像

【OpenAIの画期的なAIブレイクスルーとその影響】英語解説を日本語で読む【2023年11月24日|@TheAIGRID】

この動画では、OpenAIが重要なAIのブレイクスルーを達成し、その結果としてCEOのサム・アルトマンが解任されたとの匿名情報が伝えられています。OpenAIの研究者たちは、より強力なAIモデルの開発に伴うリスクを懸念しており、イーロン・マスクもこれに関する懸念を表明しています。また、プロジェクト「Q-Star」が人工汎用知能(AGI)のブレイクスルーである可能性や、GPT-4の能力を予測する新技術が開発されていることが紹介されています。
公開日:2023年11月24日
※動画を再生してから読むのがオススメです。


So, this might be one of the most important videos that we do make because this is concerning a topic that has been recently discussed in the artificial intelligence space, and this is referring to a major breakthrough at OpenAI from many anonymous sources that are telling us that OpenAI have achieved the major breakthrough that many were speculating around last week, which additionally led to the firing of the OpenAI CEO Sam Altman and a whole host of many other decisions.

これは私たちが作る中で最も重要なビデオの1つかもしれません。これは最近人工知能の分野で議論されているトピックに関連しており、多くの匿名の情報源からの情報によると、OpenAIが先週に多くの推測を呼んだ重大なブレークスルーを達成したということを教えてくれています。これにより、OpenAIのCEOであるサム・アルトマンが解雇され、多くの他の決定が下されました。

So, right here you can see on this article it says OpenAI made an AI breakthrough before Sam Altman firing, stoking a payment and concern one day before he was fired by OpenAI's board last week.

この記事には、サム・アルトマンが解雇される前にOpenAIがAIのブレークスルーを達成したと書かれており、先週彼がOpenAIの取締役会から解雇される1日前に支払いと懸念を煽ったと書かれています。

Sam Altman alluded to a recent technical advance the company had made that allowed it to push the veil of ignorance back and the frontier of discovery forward.

サム・アルトマンは、同社が最近行った技術的進歩について言及し、それによって無知のベールを押し戻し、発見のフロンティアを前進させることができたと述べた。

I will be showing you guys that clip later because it is a real clip from Sam Altman that was recently made by himself.

このクリップはサム・アルトマン自身が最近作成した本物のクリップなので、後で皆さんにお見せします。

So, this isn't just some random person saying this, these are comments from the CEO himself.

つまり、これはどこかの誰かが言っているのではなく、CEO自身のコメントなのだ。

It says the cryptic remarks at the Apex CEO Summit went largely unnoticed as the company descended into turmoil, but some OpenAI employees believe that Altman's comments were referred to an innovation by the company's researchers earlier this year that would allow them to develop far more powerful artificial intelligence models, a person familiar with the matter said.

Apex CEO Summitでの不可解な発言は、会社が混乱に陥る中、ほとんど気づかれなかったという。しかし、OpenAIの従業員の中には、アルトマンの発言は、同社の研究者が今年初めに行った、はるかに強力な人工知能モデルの開発を可能にする技術革新に言及したものだと考えている者もいると、この件に詳しい関係者は語った。

The technological breakthrough, spearheaded by OpenAI Chief Scientist Elia Satk, raised concerns among some staff that the company didn't have proper safeguards in place to commercialize such advanced AI models.

OpenAIのチーフ・サイエンティストであるエリア・サトックが主導したこの技術的ブレークスルーは、同社がこのような高度なAIモデルを商業化するための適切な保護措置を講じていないという懸念を一部のスタッフに抱かせた。

And this is an article from The Information, the same place that was giving us all of the breaking news when OpenAI was going through quite the tumultuous period.

これはThe Informationという記事であり、OpenAIがかなりの混乱期を経験していた時に私たちにすべての最新ニュースを提供していた場所です。

Now, we do know that this article does hold some credence because not only did Sam Altman make numerous statements, there have been numerous things that we discussed in previous videos that allude to the fact that AGI potentially and most likely has been achieved on some degree internally.

さて、この記事が信憑性を持っていることはわかっています。なぜなら、サム・アルトマンが多くの発言をしただけでなく、以前のビデオで議論した多くのことが、AGIが内部である程度達成されている可能性が高いことを示唆しているからです。

So, let's take a look here.

では、ここで見てみましょう。

One thing that we did want to include was the fact that Elon Musk also did take a look at this article and stated that it was extremely concerning.

私たちが含めたかった1つのことは、イーロン・マスクもこの記事を見て非常に心配していると述べたことです。

Now, of course, this makes sense because Elon Musk is an avid player in the AI space, whilst owning companies like Tesla and, of course, his new company X, which recently launched the Grock large language model, which is said to compete with CH GPT.

イーロン・マスクは、テスラはもちろん、最近CH GPTと競合すると言われる大規模言語モデルGrockを発表した新会社Xのような会社を所有する一方で、AI分野の熱心なプレーヤーだからだ。

But now, let's take a look at the article that Elon Musk tweeted himself.

それでは、イーロン・マスク自身がツイートした記事を見てみよう。

You can see that this is another article covering the exact same topic but from a little bit of a different angle.

これは全く同じトピックを扱った別の記事だが、少し違った角度から見たものであることがわかるだろう。

It says OpenAI researchers won the board of AI breakthroughs ahead of the CEO's alert, sources say.

情報筋によれば、CEOの警告に先立ち、OpenAIの研究者たちがAIのブレークスルーの取締役会を勝ち取ったという。

And this is, of course, from Reuters.

これはもちろんロイターの記事だ。

So, this is on November 23rd, which is, of course, today, and this was only a couple of hours ago.

これは11月23日のことで、もちろん今日ですが、これはほんの数時間前のことです。

Now, it says ahead of OpenAI CEO Sam Altman's alert, several researchers wrote a letter to the board directors warning of a powerful AI discovery that they said could threaten humanity, two people familiar with the matter told Reuters.

OpenAIのCEOであるサム・アルトマンの警告に先立ち、数人の研究者が、人類を脅かす可能性のある強力なAIの発見を警告する手紙を取締役宛に書いたと、この問題に詳しい2人の関係者がReutersに語ったという。

Now, I find it interesting choice of words here that they said could threaten humanity, as that is something that is only largely discussed or talked about when people are saying that those who are discussing it are largely iders.

ここで興味深い言葉の選択があると思います。彼らは人類を脅かす可能性があると言っていますが、それは大部分が議論されたり話されたりするだけのことであり、それを議論している人々は大部分が間違っていると言っているときにのみ大きく話されるものです。

But if this is true, then this could mark the very next category in evolution of large language models because this means that we've discovered something that would lead them to greater capabilities.

しかし、もしこれが真実なら、これは大規模な言語モデルの進化における非常に次のカテゴリーを示すものかもしれません。これは、彼らがより大きな能力につながる何かを発見したことを意味します。

So, it continues to state that the previous unreported letter and AI algorithm were key developments before the board's alert of Altman.

つまり、先の未報告の書簡とAIアルゴリズムは、理事会がアルトマンを警告する前の重要な進展であった、と続けている。

The poster child of generative AI, the two sources said.

ジェネレイティブAIの申し子、と2人の情報筋は言う。

Prior to his triumphant return late Tuesday, more than 700 employees had threatened to quit and join back Microsoft, which is, of course, something that you do know.

彼の栄光の帰還が遅い火曜日に行われる前に、700人以上の従業員が辞職を脅迫し、マイクロソフトに戻ることを脅しました。これは、もちろん、あなたが知っていることです。

Now, of course, what was also interesting, it says that the internal message to staffers referred to a project called QAR or Q asterisk.

さて、もちろん興味深いのは、従業員への内部メッセージがQARあるいはQアスタリスクと呼ばれるプロジェクトに言及していたということだ。

I'm just going to call it Q for now.

今のところ、それをQと呼びます。

And a letter to the board before the events weekends, one of the people said.

そして、週末のイベントの前に取締役会に宛てた手紙、そのうちの一人が言った。

An OpenAI spokesperson said that the message sent by longtime executive Mira Morati alerted staff to certain media stories without commenting on their accuracy.

OpenAIの広報担当者は、長年の幹部であるミラ・モラティが送ったメッセージは、その正確性についてコメントすることなく、特定のメディアの記事についてスタッフに注意を促したものだと述べた。

So, essentially what we have here is the name of this project, which we're just going to call it QAR or Q asterisk.

つまり、本質的にここにあるのはこのプロジェクトの名前であり、我々はただQARあるいはQアスタリスクと呼ぶことにしている。

So, this is why you've been seeing on Twitter recently everyone has been talking about this because this is the code name.

だから、最近ツイッターでみんながこの話をしているのは、これがコードネームだからだ。

Now, we don't know what it refers to, but there are some interesting theories as to what it truly refers to, and we're going to get into that later because there's a lot to discuss regarding the capabilities of this model and how exactly it works and why this is probably true.

今、それが何を指しているのかはわかりませんが、それが真に指しているものについてはいくつかの興味深い理論があります。そして、このモデルの能力や具体的な動作方法、なぜこれがおそらく真実であるのかについては、後ほど詳しく議論します。

The article continues to state that some at OpenAI believe QAR could be a breakthrough in the startup's search for what's known as artificial general intelligence, aka AGI.

記事は続けて、オープンエーアイの何人かは、QARが人工知能、別名AGIと呼ばれるものを探求するスタートアップのブレークスルーになると信じていると述べている。

One of the people told Reuters, OpenAI defines AGI as autonomous systems that surpass humans in most economically valuable tasks.

この関係者の一人がロイターに語ったところによると、オープンAIはAGIを、経済的に価値のあるタスクのほとんどにおいて人間を凌駕する自律的なシステムと定義している。

Given the vast computing resources, the new model was able to solve certain mathematical problems, the person said on condition of anonymity because the individual was not authorized to speak on behalf of the company.

膨大なコンピューティング・リソースを考えると、新モデルは特定の数学的問題を解くことができたと、その人物は会社を代表して話す権限がないため匿名を条件に語った。

Though only performing math on the level of grade school students, acing such tests made the researchers very optimistic about Q's future success.

小学生レベルの数学しかできないとはいえ、このようなテストに合格したことで、研究者たちはQの将来の成功を非常に楽観視するようになった。

So, we do need to talk about how and why acing such tests made researchers very optimistic about Q's future success.

では、なぜこのようなテストに合格したことが、Qの将来的な成功を研究者たちに楽観視させたのか、その経緯について話す必要がある。

One thing I've seen online and from many people on Twitter, they're saying that acing such tests doesn't mean anything because if they can perform math at the level of grade students, this doesn't absolutely mean anything.

オンラインやTwitterで多くの人々から見たことがありますが、彼らは、このようなテストに合格しても何も意味しないと言っています。なぜなら、彼らが学年の生徒と同じレベルの数学を行えるからといって、それが絶対に何かを意味するわけではないからです。

Now, I'd like to firmly disagree because the next slide is going to show you, and this was pointed out by a tweet.

次のスライドをご覧いただきたいのですが、これはあるツイートによって指摘されたものです。

I don't remember which tweet this was, but I want you all to see this because this is from OpenAI's actual page.

どのツイートだったか忘れましたが、これはOpenAIの実際のページからのものなので、皆さんに見ていただきたいのです。

So, take a look at this piece of information.

この情報を見てみてください。

What we have here is something from OpenAI, and what you're looking at is something called predictability scaling.

ここにあるのはOpenAIのもので、あなたが見ているのは予測可能性のスケーリングと呼ばれるものです。

So, it says here, A large focus of the GPT-4 project has been building a deep learning stack that scales predictably.

GPT-4プロジェクトの大きな焦点は、予測可能にスケールするディープラーニングスタックを構築することでした。

The primary reason is that for very large training runs like GPT-4, it's not feasible to do extensive model-specific tuning.

その主な理由は、GPT-4のような非常に大規模なトレーニングでは、モデル固有の大規模なチューニングを行うことが不可能だからです。

We developed infrastructure and optimization that are very predictable behavior across multiple scales.

私たちは、複数のスケールにわたって非常に予測可能な動作をするインフラと最適化を開発しました。

To verify this scalability, we accurately predicted in advance GPT-4's final loss on our internal code base, which is not part of the training set, by extrapolating from models trained using the same methodology but 10,000 times less compute.

このスケーラビリティを検証するため、トレーニング・セットには含まれない内部コード・ベースについて、同じ手法でトレーニングされたモデルから外挿することで、GPT-4の最終的な損失を事前に正確に予測しました。

So, you can see right here that OpenAI's codebase next work prediction.

つまり、OpenAIのコードベースが次の作業予測に使えることがわかります。

As it continues and continues, we have the observed and then we have the prediction, and of course, we have GPT-4's abilities, which means currently that essentially they were able to predict GPT-4 capabilities before training it.

続けていくと、観測されたものと予測されたものがあります。もちろん、GPT-4の能力もあります。つまり、現在、訓練する前にGPT-4の能力を予測することができました。

And if you don't believe me, take a look right here.

もし信じられないなら、ここを見てください。

You can see that this is tweeted by Peter Welinder.

これはピーター・ウェリンダーのツイートです。

He used to be the research leader at OpenAI, and now he's the VP of product at OpenAI.

彼はかつてOpenAIの研究リーダーで、今はOpenAIの製品担当副社長だ。

This is the guy that worked at OpenAI for 6 years.

この人はOpenAIで6年間働いていた人です。

He says, Important detail in GPT-4 blog post: our research team were able to predict how smart it would be before it was trained.

GPT-4のブログ記事の重要な詳細:我々の研究チームは、訓練される前にどの程度賢くなるかを予測することができた。

And it is very likely that that is what they are saying about QAR or this new secret model.

そして、それがQARやこの新しい秘密のモデルについて言っていることである可能性が非常に高い。

And this does make sense because not only did we get this blog post, which is from GPT-4's blog post, and not only did we get this article, we also got some of Sam Altman's statements.

これは意味があります。GPT-4のブログ記事からのものであり、この記事だけでなく、サム・アルトマンの発言もいくつか得ました。

So, one of the statements that Sam Altman made, you should check out, which I will play now, is that Sam Altman did talk about how they managed to discover some ability, but they push the veil of ignorance back and they advance forward for humanity.

サム・アルトマンの発言のひとつは、これからお見せしますが、サム・アルトマンは、彼らがある能力を発見することができたが、彼らは無知のベールを押し戻し、人類のために前進するのだと話しています。

That's probably not the like for four times now in the history of OpenAI.

それはおそらく、OpenAIの歴史の中で今までに4回あったようなものではないでしょう。

The most recent time was just in the last couple of weeks.

最近のものはちょうど数週間前です。

I've gotten to be in the room when we sort of like push the front, sort of the veil of ignorance back and the frontier of discovery forward.

私は、私たちが無知のベールを押し戻し、発見のフロンティアを前進させる部屋にいることがありました。

And getting to do that is like the professional honor.

そして、それを成し遂げることは、プロフェッショナルとしての名誉のようなものだ。

So, now that you've seen that clip, and that clip was very, very recent, which is quite interesting considering all the information going around.

ですので、そのクリップを見た後、そしてそのクリップは非常に最近のものであり、周囲の情報を考慮すると非常に興味深いです。

And I think it's rather fascinating that this statement by Sam Altman would be made at the same time that is these certain leaks and the other things are going on, which I will continue to discuss.

サム・アルトマンのこの発言は、このようなある種のリークやその他のことが起こっているのと同時になされたことは、むしろ魅力的だと思います。

Now, there was one statement that people are saying where Sam Altman said, Is this a tool or have we built a creature?

さて、サム・アルトマンが、これはツールなのか、それともクリーチャーを作り上げたのか、と発言したことがあります。

But it has been, I think this is like definitely the biggest update year for people yet, and maybe the biggest one we'll have because from here on, now people accept that powerful AI is going to happen, and there will be incremental updates, but there's like, you know, there was like the year the first iPhone came out.

しかし、これは間違いなく人々にとって最も大きなアップデートの年であり、おそらくこれからは最大のアップデートになるでしょう。強力なAIが起こることを人々が受け入れ、インクリメンタルなアップデートが行われることはあるかもしれませんが、最初のiPhoneが発売された年のようなものがありました。

And then, there was like, everyone.

そして、誰もがそうなった。

Since, and at this point, like, you, you really know the difference between this one and last year's one.

それ以来、この時点では、去年のものと今のものとの違いがわかるようになった。

Um, so, this was like, I think, a big moment.

これは大きな出来事だったと思う。

One thing that I am happy about is, uh, I think people are viewing these viewing these systems as correctly as tools, artists in particular, but um, other people as well.

私が嬉しいと思うことの1つは、これらのシステムをツールとして正しく見ているということです。特にアーティストはそうですが、他の人々も同様です。

And there was this, I think, there's a real moment of fear, which is like, is this a tool we have built or a creature we have bu?

そして、これは、私たちが作ったツールなのか、私たちが作った生物なのか、という本当の恐怖の瞬間があったと思います。

What is, what is that going to mean?

それは、それがどういう意味を持つのか、どういうことを意味するのでしょうか?

I think people now view this as a new thing in the toolbox of humanity and are doing like, really remarkable things with it.

今、人々はこれを人類の道具箱の中にある新しいものとしてとらえ、それを使って本当に驚くべきことをやっていると思う。

It's very, and I do want to firmly say that Sam Alman has previously, multiple times, stated that it's not a creature.

非常に重要なことですが、サム・アルマンは以前に何度も述べてきたことですが、それは生物ではないということです。

So, any of these statements that people are saying, I definitely think that this comment was taken out of context and I'm going to show you guys the full clip so you can see the entire context and not be confused.

ですので、人々が言っているこれらの発言の中で、私はこのコメントが文脈から外れていると思います。私はフルのクリップを見せて、皆さんが全体の文脈を見て混乱しないようにします。

But that doesn't mean that Sam Alman isn't hinting or at least giving us certain hints towards this AGI because we've known that Sam Alman has made comments and made previous statements and then retracted them when they were also looked at further.

しかし、それはサム・アルマンがこのAGIをほのめかしていないということではありません。私たちは、サム・アルマンが以前にコメントをしたり、以前の発言を撤回したりしたことを知っています。

So, one of the things that he also looked at after looking at these clips, you can see that it says, ChatGPT boss says he's created human-level AI, then he said he's just Ming AGI has been achieved internally at OpenAI.

彼がこれらのクリップを見た後に見たものの1つは、ChatGPTのボスが人間レベルのAIを作成したと言っているところですが、その後、OpenAI内でAGIが実現されたと言い直しました。

Sam Alman writes on Reddit before backtracking, and I did a whole video on this around two weeks ago where I took a deep dive into every single AGI claim and all these secrecies that were taking place.

サム・アルマンがRedditに書いていますが、私は2週間ほど前にこの件に関するビデオを作成し、AGIの主張の一つひとつを深く掘り下げて、これらの秘密が行われていたことを調べました。

Many people hadn't realized that OpenAI secretly made several changes to their website to showcase that they were going to be moving towards an AGI future.

多くの人々は、OpenAIがAGIの未来に向かって進んでいることを示すために、彼らのウェブサイトにいくつかの変更を密かに加えていたことに気づいていなかった。

And if you thought that that was not weird, you should take a look at some of the clips from that video, which I will include now because they have a more deep dive into some of these AGI specifics.

そして、それが奇妙ではないと思ったなら、そのビデオのいくつかのクリップを見てみるべきです。それらのクリップでは、これらのAGIの具体的な詳細により深く踏み込んでいます。

So, you can, you can see right here that currently the core values have shifted to AGI focus, and it says, We are committed to building safe, beneficial AGI that will have a massive positive impact on humanity's future.

ですので、ここで見ることができるように、現在のコアバリューはAGIに焦点を当てて変わっており、それは「私たちは安全で有益なAGIの構築に取り組んでおり、それは人類の未来に大きなポジティブな影響を与えるでしょう」と述べています。

Anything that doesn't help with that is out of scope.

そのために役立たないものは、すべて範囲外です。

So, that is crazy because they've put this as the first point, meaning that currently something has changed to OpenAI to where they've decided that AI is going to be their North Star, and by North Star, I mean their focal point for where the company is going to go, which means that systems like ChatGPT and DALL·E 3 are going to potentially be subparts of this AGI.

それは狂っているということです。なぜなら、彼らはこれを最初のポイントとして置いているからです。つまり、現在、OpenAIはAIが彼らの北極星になると決めたということであり、北極星とは、会社が進む方向の焦点を指します。これは、ChatGPTやDALL·E 3のようなシステムが、おそらくこのAGIの一部になる可能性があることを意味します。

And what's interesting is that they said anything that doesn't help with that is out of scope, so maybe this means that OpenAI was working on certain things and certain products that weren't necessarily going towards AGI but may still be AI-based, and now they've decided, you know what, we're not going to be working on that anymore.

興味深いことに、彼らはそれに役立たないものは対象外と言っています。つまり、OpenAIはAGIに向かわないかもしれないが、AIに基づいた特定のことや製品に取り組んでいた可能性があり、今はそれに取り組まないことに決めたのかもしれません。

We've now decided to just be focusing on AGI.

私たちはAGIに集中することに決めました。

So, that is why this is a secret bombshell that they secretly dropped, silently updating their page, and we now know that this is pretty insane.

それがなぜ、彼らが秘密裏にドロップしたこの秘密の爆弾であり、静かに彼らのページを更新し、私たちは今それがかなり狂気じみていることを知っているのです。

Now, further on the video, you might be thinking, who on Earth is Jimmy Apples and why does his statement on AGI even matter?

今、ビデオのさらに先に進むと、あなたはおそらく「ジミー・アップルズって誰?そして、なぜ彼のAGIに関する発言が重要なの?」と思うかもしれません。

Jimmy Apples, if you didn't know, is essentially an OpenAI leaker.

ジミー・アップルズ(Jimmy Apples)は、ご存じないかもしれませんが、本質的にはOpenAIのリーカーです。

We aren't sure of what he is or what he does, but we do know that he always does have early information about GPT-4 or whatever OpenAI is currently working on.

彼が何者なのか、何をしているのかは定かではありませんが、GPT-4やOpenAIが現在取り組んでいることに関する初期の情報を常に持っていることは知っています。

If you're wondering about any skepticism regarding his statements, previous statements around OpenAI have come out with 100% accuracy.

もしあなたが、彼の発言について懐疑的な見方をするのであれば、OpenAIに関する過去の発言は100%正確です。

For example, he actually tweeted and got the release date of GPT-4 a week before it was even announced, meaning that he definitely has some kind of inside information.

たとえば、彼は実際にツイートして、GPT-4のリリース日を発表される1週間前に知っていました。彼は間違いなく何らかの内部情報を持っているようです。

Now, many sources speculate that this Jimmy Apples guy is someone that spies on people near the OpenAI headquarters.

多くの情報筋は、このジミー・アップルズという人物はOpenAI本部の近くでスパイ活動をしている人物だと推測しています。

Now, you can see that there's a 10-minute video which goes into this, and they talk about how Jimmy Apples says that let's pick a random date, and March 14th.

今、ここには10分のビデオがあります。これについて説明しており、ジミー・アップルズはランダムな日付を選びましょう、と言っています。3月14日です。

And then, of course, GPT-4 is, of course, announced on that exact date.

そしてもちろん、GPT-4はその正確な日に発表される。

We know that this person, whoever they are, definitely has some inside information.

この人物が誰であれ、内部情報を持っていることは間違いない。

Now, back to the statement about AGI.

さて、AGIについての発言に戻ろう。

He said that AGI has been achieved internally on September the 18th, 2023.

彼はAGIが2023年9月18日に内部で達成されたと述べました。

Now, what's crazy is that a week later, the CEO Sam Altman tweeted that AGI has been achieved internally, okay?

さて、クレイジーなのは、その1週間後、CEOのサム・アルトマンが社内でAGIが達成されたとツイートしたことだ。

And he tweeted this on a certain post.

彼は特定の投稿でこれをツイートしました。

And then, what was crazy was that he actually edited this comment and said, Obviously, this is just meing.

そして、クレイジーだったのは、彼が実際にこのコメントを編集し、「明らかに、これは単なるミーイングだ。

When AGI is achieved, it will be announced, and it won't be announced with a Reddit comment.

AGIが達成されれば、それは発表されるでしょうし、Redditのコメントで発表されることはないでしょう。

So, at the same time, it seems that Sam Altman is aware of this opening eye leaker, and he understands that whatever is going on behind the scenes, that Jimmy Apples is likely to know a decent amount about it.

つまり、サム・アルトマンはこの開眼リーカーを認識しており、舞台裏で起こっていることが何であれ、ジミー・アップルズがそれなりのことを知っている可能性が高いことを理解しているようだ。

So, at the same time, I find it super interesting that Jimmy Apples goes ahead and says AGI has been achieved internally.

だから同時に、ジミー・アップルズが社内でAGIが達成されたと言い出したことは、非常に興味深い。

Then, a little bit over a month later, OpenAI starts to talk about AGI and state that AGI is simply their main focus and their core values.

そして、その1ヶ月ちょっと後に、OpenAIはAGIについて語り始め、AGIは単に彼らの主な焦点であり、コアバリューであると述べています。

Anything that doesn't help with that is out of scope, which leads me to believe that Sam Altman and his team at OpenAI are much closer to AGI than we initially think.

このことは、サム・アルトマンとOpenAIの彼のチームは、私たちが当初考えていたよりもずっとAGIに近づいているのだと思わせる。

So, we do have this tweet that breaks it down, and I'm not going to read all of this because I don't want to confuse many of the standard viewers, and sometimes you can get confused.

そのため、サム・アルトマンとOpenAIのチームは、私たちが当初考えていたよりもずっとAGIに近づいているのだと私は信じている。

So, I'm going to just try and break this down in the most simplest way possible.

というわけで、できるだけ簡単な方法で説明しようと思う。

But you can see right here that this is quoting the article, and he says, You need this type of thing to solve really hard math problems, and it's really probably closer to reinforcement learning with AI feedback.

しかし、ここで引用されているのは、本当に難しい数学の問題を解くためには、このタイプのものが必要であり、それはAIのフィードバックを伴った強化学習により近い可能性があると彼は言っています。

Then we have a comment from Elon Musk that says, It's some kind of AlphaZero self-play applied to large language models.

また、イーロン・マスクのコメントでは、大規模な言語モデルに適用されるアルファゼロのセルフプレイのようなものだと述べている。

Now, if you don't know what he's referring to there, he's referring to the fact that AlphaGo, which is one of the state-of-the-art models, was able to do crazy things, including beating the AlphaGo world champion with unorthodox moves and doing things that nobody could predict.

彼がそこで言及しているのは、AlphaGoが、世界チャンピオンを破るという予測できない手法で驚くべきことを成し遂げたという事実を指しています。

It was because it was able to use something called Monte Carlo Tree Search, where it was able to think in a radically different way, and because of that, it was able to make radically different moves.

それは、モンテカルロ木探索と呼ばれるものを使うことができたからで、根本的に異なる方法で考えることができ、そのおかげで根本的に異なる手を打つことができたのだ。

Essentially, Elon Musk here is stating that it's going to use this kind of technology.

基本的に、イーロン・マスクはここで、この種の技術を使うと明言している。

So, it's going to be like AlphaZero self-play applied to large language models.

つまり、アルファゼロのセルフプレーを大規模な言語モデルに応用したようなものだ。

And essentially, what that was as well was that AlphaGo actually played against itself millions and millions of times.

そして、本質的には、AlphaGoは実際に何百万回も自分自身と対戦しました。

And then, it became the best player in the world.

そして、それは世界で最高のプレイヤーになりました。

It didn't actually need to play humans anymore.

実際には、もはや人間と対戦する必要はありませんでした。

It just played itself and iterated upon that data.

ただ自分自身と対局し、そのデータを反復したのです。

Then, of course, we have the Q learning explanation.

そしてもちろん、Q学習についての説明もある。

So, Q learning is basically a type of reinforcement learning which teaches computers to learn by rewarding them for making good decisions and then penalizing them for making bad ones.

Q学習は基本的に強化学習の一種で、コンピューターが良い決断をしたら報酬を与え、悪い決断をしたらペナルティを与えることで学習するように教えるものです。

This is something that you've heard before, but this one is a bit different because it allows you to make long-term decisions.

これは以前にも耳にしたことがあると思いますが、長期的な意思決定を可能にするという点で少し違います。

So, if we get into the six stages of this, we have the environment and the agent, which is where you have the environment like a video game or a maze, and the agent, which is the AI or computer program that needs to learn how to navigate this environment.

では、この6つの段階に入ってみましょう。環境とエージェントがあります。環境はビデオゲームや迷路のようなもので、エージェントはAIやコンピュータプログラムで、この環境をどのように進むかを学ぶ必要があります。

Then, of course, we have the states and the actions.

そしてもちろん、ステートとアクションがある。

The environment is made up of many different states, like different positions or scenarios in the game, and then there are many different actions that you can take in the game, like moving left or right or jumping.

環境は、ゲーム内のさまざまな位置やシナリオのような、多くの異なる状態から構成されています。そして、左右に移動したりジャンプしたりといった、ゲーム内でできるさまざまなアクションがあります。

Then, we have the Q table, which is the cheat sheet that tells the agent what action is best to take in each state.

そして、各状態でどのような行動をとるのがベストかをエージェントに伝えるカンニングペーパーであるQテーブルがあります。

The table is filled with the guesses because the agent doesn't know the environment yet.

エージェントはまだ環境を知らないので、表は推測で埋め尽くされます。

Then, of course, we have the learning by doing.

そしてもちろん、行動による学習がある。

You start to explore the environment, and every time it takes an action in the state, it gets feedback from the environment.

環境を探索し始め、状態でアクションを起こすたびに、環境からフィードバックを受け取ります。

It rewards the positive points and penalizes the negative points.

ポジティブなポイントには報酬を、ネガティブなポイントにはペナルティを与える。

Then, of course, it updates the Q table.

そしてもちろん、Qテーブルを更新する。

And then, the Q table essentially considers the current reward and the potential future rewards.

そして、Qテーブルは基本的に現在の報酬と将来の潜在的な報酬を考慮する。

This way, the agent doesn't just learn to maximize immediate rewards, but to consider long-term consequences.

こうすることで、エージェントは目先の報酬を最大化するだけでなく、長期的な結果も考慮するようになる。

Over time, it gets more and more accurate and it becomes better at predicting which actions will yield the highest rewards.

時間が経つにつれて、エージェントはより正確になり、どの行動が最も高い報酬をもたらすかを予測するのがうまくなる。

And eventually, it can navigate the environment effectively.

そして最終的には、環境を効果的にナビゲートできるようになる。

So, it goes on to state here, and this is from GPT-4, that Q learning is like playing a complex video game where over time, you learn the best moves and strategies to get the highest score.

これはGPT-4からの引用だが、Q学習とは複雑なビデオゲームをプレイするようなもので、時間をかけて最高得点を得るための最善の動きや戦略を学んでいくものだ。

Initially, you don't know the best actions to take, but as you play, the more you learn, you're going to get better and better at the game.

最初のうちは、取るべき最善の行動がわからないが、プレイするうちに、学べば学ぶほど、どんどんゲームがうまくなっていく。

And that's exactly what Q learning is.

そして、それこそがQラーニングなのだ。

So, here are some of the tweets from the wider AI community that have been on Twitter that are rather interesting that I thought I'd share.

というわけで、Twitterで流れてきた、より広いAIコミュニティからのツイートで、わりと興味深いものがあったので紹介しよう。

And it says, What could opening eyes breakthrough QAR be about?

そして、それは「Opening EyesのブレークスルーQAR」というものに関連している可能性があります。

It sounds like it's related to Q learning.

それはQ学習に関連しているようです。

For example, Q star denotes the optimal solution of the Bellman equation, alternatively referring to a combination of the AAR algorithm and the Q learning.

例えば、Qスターはベルマン方程式の最適解を示し、AARアルゴリズムとQラーニングの組み合わせを指すこともある。

One of the natural guesses is that it's alpha-o style Monte Carlo tree search of the token trajectory, which is previously, of course, what we discussed.

自然な推測としては、トークンの軌跡のα-o式モンテカルロ木探索で、もちろん以前私たちが議論したものです。

And it says, Previously, papers like AlphaGo showed that even very naive brute force sampling in an LLM can get huge improvements in competitive programming.

アルファ碁のような論文は、LLMで非常に素朴な総当たりサンプリングでも、競争的プログラミングで大きな改善が得られることを示した。

The next logical step is to search the token tree in a more principled way.

次の論理的なステップは、より原理的な方法でトークンツリーを探索することです。

So, it says, Indeed, QAR seems to be about solving math problems.

つまり、QARは数学の問題を解くためのものだと言える。

Then, of course, we have a very interesting clip here, which is from Shane Legg, the founder and chief AGI scientist at Google DeepMind.

もちろん、ここに非常に興味深いクリップがあります。グーグル・ディープマインドの創設者でありチーフAGIサイエンティストであるシェーン・レッグのものです。

And he actually talks about how this method that they're planning on using is pretty much exactly what we need in that next stage of evolution.

彼は実際に、彼らが使おうとしているこの方法が、進化の次の段階でまさに必要なものだと話しています。

So, take a look at that clip now.

では、その映像をご覧ください。

These Foundation models are World models of a kind, and to do really creative problem solving, you need to start searching.

これらのFoundationモデルは一種のワールドモデルであり、本当に創造的な問題解決をするためには、探索を始める必要があります。

So, if I think about something like AlphaGo, in the move 30 famous move 37, where did that come from?

アルファ碁のようなものについて考えてみると、30手目の有名な37手目はどこから来たのでしょうか?

Did that come from all its data that it's seen of human games or something like that?

アルファ碁が人間の対局を見てきたデータから得たのでしょうか?

No, it didn't.

いや、そうではない。

It came from it identifying a move as being quite unlikely, but you know, possible.

それは、ある動きを非常に起こりにくいと識別したことによるものですが、可能性はあるということです。

And then, via a process of search, coming to understand that the that was actually a very, very good move.

そして、探索のプロセスを経て、その手が実はとてもいい手だと理解するようになった。

So, you need to, you know, get real creativity.

だから、本当の創造性が必要なんだ。

You need to search through spaces of possibilities and find these sort of hidden gems.

可能性の空間を探して、隠れた宝石のようなものを見つける必要がある。

That's what creativity is, I think.

それこそが創造性だと思う。

Current language models, they don't really do that kind of thing.

現在の言語モデルでは、そのようなことはできません。

They really are mimicking the data, they're mimicking all the human ingenuity and everything which they have seen from all those data that's coming from the internet, that's originally derived from humans.

彼らは本当にデータを模倣しているのであって、インターネットから送られてくるデータ、元々人間に由来するデータから彼らが見てきた人間の創意工夫やすべてを模倣しているのだ。

If you want a system that can go beyond that and not just generalize in novel ways, so it can, you know, blend things, they can do, you know, Harry Potter in the style of a Kanye West rap or something, even though it's never happened, they can blend things together.

それを超えて、ただ斬新な方法で一般化するだけでなく、物事を融合させることができるシステムを望むなら、カニエ・ウエストのラップのスタイルでハリー・ポッターをやったりすることができる。

But to do something that's truly creative, that is not just a blending of existing things, that requires searching through a space of possibilities and finding these hidden gems that are sort of hidden away in there somewhere.

しかし、本当に創造的なことをするには、既存のものを単に組み合わせるのではなく、可能性の領域を探索し、そこに隠された宝石を見つける必要があります。

And that requires search.

そのためには探索が必要だ。

So, I don't think we'll see systems that truly step beyond their training data until we have powerful search in the process.

ですから、その過程で強力な検索ができるようになるまでは、トレーニングデータを真に超えるシステムは出てこないと思います。

And then, of course, lastly, we do have the Google DeepMind founder, Demis Hassabis, saying that using a method called treesearch to explore with a large language model is largely going to be the next evolution of LLMs, which they were planning to use in Gemini, which they haven't released yet.

そしてもちろん最後に、Google DeepMindの創設者であるデミス・ハサビスは、大規模な言語モデルで探索するためにツリーサーチと呼ばれる手法を使用することが、LLMの次の進化になるだろうと述べています。

So, if they managed to beat them to this, it would be a surprise since they've been working on this for quite some time.

だから、もし彼らがこれに先んじることができたとしたら、彼らはかなり長い間これに取り組んできたのだから、それは驚きだろう。

With that being said, let me know your thoughts on OpenAI's recent breakthrough.

とはいえ、OpenAIの最近の躍進についてあなたの考えを聞かせてください。

Has AI been achieved?

AIは実現したのでしょうか?

I personally do think so.

個人的にはそう思う。

With everything said, and if it has been achieved, what do you think they're going to do next?

すべてを考慮して、それが実現された場合、次に彼らは何をすると思いますか?


この記事が気に入ったらサポートをしてみませんか?