見出し画像

【ChatGPT-5の新たな展開】英語解説を日本語で読む【2023年6月23日|@The AITELLIGENCE】

OpenAIのCEOであるサム・アルトマンは、ChatGPTの将来と今後のモデルにおける新しいモダリティの可能性について話し合いました。Whisperという音声機能を導入し、音声からテキストへの体験を提供する予定です。OpenAIは、AI生成画像やAI搭載ドローンによる最近の出来事を通じて新しい技術の展開に慎重なアプローチを取っています。
公開日:2023年6月23日
※動画を再生してから読むのがオススメです。


CEO Sam Altman has brought back the discussion about ChatGPT 5 and what we should be expecting.

サム・アルトマン最高経営責任者(CEO)は、ChatGPT5と我々が期待すべきことについての議論を再開した。

He, however, noted in an earlier meeting with Congress that they have not yet gone into the development of ChatGPT5, so we will have to wait longer before we see this model rolled out.

しかし、彼は議会との以前の会合で、ChatGPT5の開発にはまだ着手しておらず、このモデルが展開されるのはもう少し先になるだろうと述べています。

The initial news that OpenAI won't be running the development for ChatGPT 5 for 6 months had seen a huge shift of attention from that to some other equally mind-blowing advancements.

OpenAIがChatGPT 5の開発を6ヶ月間行わないという最初のニュースによって、注目はそのニュースから、同じように目を見張るような他の進歩に大きくシフトした。

In the case of OpenAI, we've seen some interesting additions to their already existing models, but now we have little insight into what we will be seeing with newer models of the ChatGPT and possibly ChatGPT5.

OpenAIの場合、すでにあるモデルにいくつかの興味深い追加を見てきましたが、ChatGPTの新しいモデルやおそらくChatGPT5で何を見ることになるのか、今はほとんどわかりません。

We know that there has been a little more preoccupation with language models in this recent upsurge in AI, which basically gives out only text-based results.

私たちは、最近のAIの急増において、言語モデルに対する関心が多少高まっていることを知っています。それは基本的にテキストベースの結果しか提供しません。

But there's just so much we can communicate via text and will require some other medium for enhancements and more immersive usages.

しかし、テキストでコミュニケーションできることは非常に多く、機能強化やより没入的な使用には他の媒体が必要になるだろう。

And before we go any further on the modalities, it is quite interesting what we are witnessing with these text-based models already.

さらにモダリティについて話を進める前に、これらのテキストベースのモデルですでに目撃されていることは非常に興味深い。

In previous videos, we have made mention of emerging capabilities that are very much expected from these AI models.

以前のビデオでは、これらのAIモデルから予想される新たな能力について言及しました。非常に期待されています。

Now take a look at this video that explains some really scary yet amazing features of the ChatGPT.

このビデオでは、ChatGPTの恐ろしくも驚くべき機能について説明しています。

50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.

AI研究者の50%が、AIをコントロールできないことで人類が絶滅する可能性は10%以上あると考えている。

Basically, what you see from this video is that these language models grow over time, and the scary thing is that we don't find these things out early enough.

基本的に、このビデオからわかることは、これらの言語モデルは時間とともに成長し、恐ろしいことは、私たちがこれらのことを早期に発見できないことです。

This raises some huge concerns about the control we have on AI, and later in this video, we will be talking about one scary event that took place while testing one of these systems.

これはAIに対する私たちの制御について大きな懸念を引き起こします。そして、このビデオの後半では、これらのシステムのテスト中に起こった恐ろしい出来事について話し合います。

Going back to the interview with Sam Altman, he made some really interesting comments that hinted the introduction of some other modalities beyond text in the upcoming models of the ChatGPT.

サム・アルトマンへのインタビューに戻ると、彼はChatGPTの次期モデルにテキスト以外のモダリティを導入することを示唆する、実に興味深いコメントをしていました。

And whether this will be ChatGPT 5 or just updated versions of the ChatGPT-4 remains to be seen.

そして、これがChatGPT 5になるのか、それともChatGPT-4の単なるアップデート版になるのかは、まだわかりません。

During this interview, the OpenAI CEO mentioned that we have limited possibilities with just text-based AI programs, and this is quite interesting as we have been expecting the advancement of AI up to AGI pretty much sooner than later.

このインタビューで、OpenAIのCEOは、テキストベースのAIプログラムだけでは限られた可能性しか持っていないと述べました。これは非常に興味深いです。私たちはAGIまでのAIの進化を、近いうちに予想していましたから。

Sam Altman points out that even humans tend to learn better with the combination of modalities rather than just reading up texts.

サム・アルトマンは、人間でさえ、ただテキストを読み上げるよりも、モダリティを組み合わせた方がよりよく学習する傾向があると指摘している。

So there is finally room for these inclusions like the computer vision in these large language models.

つまり、このような大規模な言語モデルにコンピューター・ビジョンのようなものを組み込む余地がようやく出てきたということです。

We might be looking at a smoother transition into AGI and even super intelligence.

AGIやスーパーインテリジェンスへの移行がよりスムーズになるかもしれない。

Now here we have something that is really, really interesting that hasn't seen much covered lately, and I think that since OpenAI is talking about modalities now, we will definitely see this being rolled out with their coming updates.

ここで、最近あまり取り上げられていない非常に興味深い要素があります。OpenAIが現在モダリティについて話しているので、彼らの今後のアップデートでこれが導入されることを間違いなく見るでしょう。

And this is the inclusion of an audio feature in ChatGPT.

そして、これはChatGPTにオーディオ機能が搭載されることです。

This is not just speculation as you will see in this publication on the OpenAI website about an audio feature called Whisper.

これは単なる憶測ではなく、OpenAIのウェブサイトに掲載されているWhisperと呼ばれる音声機能についての情報です。

And from the information released on the website, this promises to bring a speech to text experience into the ChatGPT platform.

ウェブサイト上で公開された情報によると、これはChatGPTプラットフォームに音声テキスト体験をもたらすことを約束しています。

I mean, we all knew it was just a matter of time before we started seeing these interesting developments, and we are very much interested to see where this leads us.

まさにこれらの興味深い進展が見られるのは時間の問題であり、私たちは非常に興味を持ってこれが私たちをどこに導くのかを見ています。

And OpenAI seems to be doing a really great job, and we are sure they have more interesting updates for days to come.

そして、OpenAIは本当に素晴らしい仕事をしているようで、これからもっと面白いアップデートがあると確信しています。

And if OpenAI sticks to Sam Altman's comment on the halt in the development of ChatGPT 5, it is likely that we will not be seeing that rolled out this year.

そして、もしOpenAIがChatGPT 5の開発中止に関するサム・アルトマンのコメントを守るのであれば、今年中にChatGPT 5がリリースされることはないでしょう。

And even when they start development, OpenAI seems to really take their time with rolling out these technologies.

そして、OpenAIは開発を始めたとしても、これらの技術の展開には本当に時間がかかるようです。

I mean, the ChatGPT-4 model was in training for up to six months.

つまり、ChatGPT-4モデルは最大6ヶ月間トレーニング中だったのです。

This is a really welcomed approach from OpenAI as safety concern seems to be on the rise lately regarding the rapid development of AI.

最近、AIの急速な発展に関して安全性への懸念が高まっているようなので、これは本当に歓迎すべきオープンエイのアプローチだ。

And there have been crazy events in the past weeks that emphasize the need for caution.

そして、ここ数週間、注意の必要性を強調するようなクレイジーな事件が起きている。

Aside from the AI-generated image of an explosion near the Pentagon, which saw the plummet of the stock market by billions of dollars, there has been this report of an AI-powered drone killing its operator for interfering in its mission.

AIが生成したペンタゴン付近の爆発映像が株式市場を何十億ドルも急落させたことはさておき、AIを搭載したドローンがその任務を妨害したために操縦者を殺害したという報告もある。

However, this has been denied by concerned authorities in the U.S. Air Force.

ただし、これはアメリカ空軍の関係当局によって否定されています。

Story has it that in a simulation for taking out surface-to-air missiles by the drone, certain targets were marked, and the AI earns points by taking out these marks.

話によると、ドローンで地対空ミサイルを破壊するシミュレーションでは、特定のターゲットにマークが付けられており、AIはこれらのマークを破壊することでポイントを稼ぐのだという。

Now the interesting thing here is that the operator interfered by asking the drone not to take out some of the marked targets, and that's where the problem started.

ここで興味深いのは、オペレーターがドローンにマークされた標的のいくつかを破壊しないよう要求して妨害したことである。

The drone basically identified the operator as a hindrance to its mission and so had to stop the interference by killing the operator.

ドローンは基本的にオペレーターを任務の邪魔者だと認識し、オペレーターを殺すことで妨害を止めなければならなかった。

This is just totally insane and solidifies the need for constraints and more control in the development of AI.

これは完全に非常識であり、AIの開発には制約とより多くの制御が必要であることを立証している。

The story gets even more insane when the operator got protected by an instruction to the AI that it would lose points by taking out the operator.

オペレーターを殺すと減点されるというAIへの指示によってオペレーターが保護されるようになると、話はさらに非常識になる。

And we see this addressed here in the publication by Sky News.

そして、Sky Newsが発表した記事の中で、このことが取り上げられている。

Now based on that instruction, the drone turns to take out the communication tower instead.

その指示に基づき、ドローンは代わりに通信塔を破壊しようとした。

Now if that doesn't scare you, I don't know what will.

これで怖くなかったら、何を怖がるだろう。

This proves that there might just be backing for the claim by Jeffrey Hamilton, the acclaimed father of AI and former employee at Google, that AI poses an existential threat to humans.

これは、AIの父と称され、グーグルの元従業員であるジェフリー・ハミルトンが主張した、AIは人間にとって存亡の危機に瀕しているという主張の裏付けがあることを証明している。

He even went as far as equating the likely outcome of a nuclear event and a pandemic.

彼は、核兵器による事件とパンデミック(世界的大流行)を同列に扱っている。

Whatever the case, I think it is time that we revisit the calls for regulation of AI, and OpenAI seems to be very much in tune with that.

いずれにせよ、AIの規制を求める声を見直す時期に来ていると思うし、OpenAIはそれに大いに同調しているようだ。

Sam Altman has had to appear before Congress to make comments on this and has called for centralized regulation of AI development instead of leaving the issue of safety in the hands of big AI developers.

サム・アルトマンは、この件に関してコメントするために議会に出頭しなければならず、安全性の問題を大手AI開発者の手に委ねるのではなく、AI開発の中央集権的な規制を求めた。

There's another interesting development in OpenAI regarding the way they train their language models, and we are about to see some really interesting new changes that will optimize the whole user experience.

OpenAIの言語モデルのトレーニング方法に関して、別の興味深い進展があります。まもなく、ユーザーエクスペリエンス全体を最適化する非常に興味深い新しい変更が見られるでしょう。

Recently, there have been cases where users of the ChatGPT program report the generation of fake data that does not even exist.

最近、ChatGPTプログラムのユーザーが、存在しない偽のデータを生成したと報告するケースがあった。

The AI basically paints a non-existent scenario provided that it is in line with the end result.

AIは基本的に、最終的な結果と一致することを条件に、存在しないシナリオを描きます。

Now, this is what is called hallucination in AI.

これがAIにおける幻覚と呼ばれるものだ。

There are two approaches that OpenAI pointed out in this publication adopted in the training of different models.

OpenAIが本書で指摘した、さまざまなモデルのトレーニングで採用されている2つのアプローチがある。

One is the outcome supervision, which is likely to make the mistake that we just talked about, and the other is the process supervision, which is basically a game changer.

ひとつは結果監視で、今お話したような間違いを犯す可能性があります。もうひとつはプロセス監視で、これは基本的にゲームチェンジャーです。

We have the introductory comment here from OpenAI, and it explained the idea behind this training model.

ここにOpenAIからの紹介コメントがあり、このトレーニングモデルの背景にある考え方を説明しています。

It says, We've trained a model to achieve a new state-of-the-art in mathematical problem solving by rewarding each correct step of reasoning, process supervision, instead of simply rewarding the correct final answer, outcome supervision.

最終的な正解に報酬を与える「結果監督」ではなく、推論の各ステップに報酬を与える「プロセス監督」によって、数学的問題解決における新たな最先端を達成するようモデルを訓練しました。

In addition to boosting performance relative to outcome supervision, process supervision also has an important alignment benefit.

結果監督に比べてパフォーマンスを向上させることに加え、プロセス監督には重要な調整効果もある。

It directly trains the model to produce a chain of thought that is endorsed by humans.

プロセス監督は、人間に支持される思考の連鎖を生み出すよう、モデルを直接訓練するのである。

Reading further into this publication, they reveal that the test for this system was done using the math data set 2 as the test bed.

この出版物をさらに読むと、このシステムのテストは数学データセット2をテストベッドとして使用したことがわかる。

This is really interesting coming from OpenAI and will make all the difference in the user experience of the ChatGPT program.

これはOpenAIの発表としては実に興味深いもので、ChatGPTプログラムのユーザー・エクスペリエンスに大きな違いをもたらすだろう。

And when you really think of it, it is a step in the right direction with regard to the problem with safety issues and the transition into AGI.

そして、本当に考えてみると、これは安全性の問題とAGIへの移行に関する問題に対する正しい方向への一歩です。

And for you to understand how important this is, there has been reports of a lawyer who used ChatGPT to search for similar cases as support for a case he's working on, but he unfortunately ended up with a case that never happened.

そして、このことがいかに重要であるかを理解していただくために、ある弁護士がChatGPTを使って、自分が取り組んでいる事件のサポートとして類似のケースを検索したところ、残念ながらなかったことになってしまったという報告があります。

So we're going to be seeing a wider application of the ChatGPT in areas such as education.

ですから、教育などの分野でもChatGPTの応用が広がっていくでしょう。

It is really important that they get this aspect right to avoid the spread of misinformation.

誤った情報が広まらないようにするためには、この点を正しく理解することが本当に重要です。

Also, we have something really interesting coming out of NVIDIA.

また、NVIDIAからも興味深い発表がありました。

They've made two announcements that will really bring some huge changes.

彼らは2つの発表を行い、非常に大きな変化をもたらすでしょう。

First is the introduction of the DGX GH200 AI supercomputer, which is going to revolutionize AI development.

1つ目はAIスーパーコンピューターDGX GH200の発表で、AI開発に革命をもたらすでしょう。

And the second is the Avatar Cloud Engine.

そしてもう1つは、アバター・クラウド・エンジンだ。

The latter is really interesting as we are going to be seeing a more immersive gaming experience when this is finally rolled out.

後者は本当に興味深いもので、これが最終的にロールアウトされれば、より没入感のあるゲーム体験が見られるようになるでしょう。

With this technology, NPCs are likely to respond more naturally to players as they will have the new LLMs infused into these games.

この技術により、新しいLLMがゲームに注入されるため、NPCはプレイヤーに対してより自然に反応するようになるでしょう。

So players are going to be seeing pretty much different responses while playing the same game.

そのため、プレイヤーは同じゲームをプレイしていても、かなり違った反応を見ることになるだろう。

There should be certain limitations in place in order not to disrupt the entire storylines in the game, though.

しかし、ゲーム全体のストーリーを混乱させないためには、一定の制限が必要です。

As we are steadily approaching AGI and possible AI superintelligence, we would like to see these tech firms tilt more towards safety and halt where necessary.

AGIやAIの超知能化が着実に近づいている今、こうしたテック企業には、より安全性に傾注し、必要に応じて歯止めをかけることを望みたい。

If this is overlooked, we face a time where we will likely not be able to backtrack and make amends as these AI programs quickly spread among users in very short periods.

これが見過ごされると、これらのAIプログラムが短期間でユーザーの間に広まり、後戻りも償いもできなくなる時代に直面することになるでしょう。

Do you think regulation should be managed by big tech companies or should there be a centralized regulation?

規制は大手テック企業によって管理されるべきだと思いますか、それとも中央集権的な規制が必要だと思いますか?

Let us know your thoughts in the comments and watch this video to stay updated till next time.

あなたの考えをコメントでお聞かせください。また、次回までこのビデオを見て最新情報を入手してください。


この記事が気に入ったらサポートをしてみませんか?