見出し画像

【マシュー・バーマンのAIニュース:NVIDIAの新モデル、Runway Gen-3、Apple AIの発表、そしてOpenAIの内紛】英語解説を日本語で読む【2024年6月19日|@Matthew Berman】

先週はAIの世界で多くの出来事がありました。まず、テキストからビデオへの技術が爆発的に進化しており、特にLuma AIのDream Machineが注目されています。このツールはテキストや画像から高品質なビデオを生成でき、その物理的な一貫性もほぼ完璧です。一方、Runwayも新しいモデルGen-3 Alphaを発表しました。これは非常に高い精度でリアルなビデオを生成し、物理的な一貫性も保たれています。さらに、NVIDIAは3400億パラメータの新モデル「Nemotron-4 340B」を発表しました。このモデルは小規模なモデルの訓練用に合成データを生成する目的で開発されており、オープンソースで提供されています。スタンフォード大学の研究者たちは、ロボットが人間の動きを模倣する「Shadowing」システムを発表しました。これは、単一のRGBカメラを使って人間の動きをリアルタイムでクローンするもので、ボクシングやピアノ演奏などを高精度で再現できます。DeepMindとハーバード大学は、AIニューラルネットワークを使った仮想のネズミを開発しました。これは、生物力学的に正確なモデルを持ち、実際の神経活動と仮想神経活動を比較することが可能です。AppleはiOS 18、iPadOS 18、macOSにChatGPTを統合するためにOpenAIと提携しましたが、実際にはAppleの独自開発のAIが主に機能を担っています。最後に、OpenAIは退役した米陸軍将軍ポール・ナカサネを取締役会に迎え、サイバーセキュリティの専門家としての役割を期待しています。しかし、一部の人々はこれを規制の取り込みと見なしています。
公開日:2024年6月19日
※動画を再生してから読むのがオススメです。


So much happened in the world of AI in the last week.

先週、AIの世界でたくさんのことが起こりました。

I'm going to cover it all so you're caught up.

すべてを網羅して、最新の情報をお伝えします。

We're going to be covering robots, text-to-video, a new model from NVIDIA, virtual rodents, and so much more.

今回は、ロボット、テキストからビデオへの変換、NVIDIAからの新しいモデル、仮想ネズミなど、さまざまな話題を取り上げます。

First, text-to-video is exploding right now.

まず、テキストからビデオへの変換が急速に進んでいます。

Just when we thought Sora was the end-all be-all of text-to-video models.

Soraがテキストからビデオモデルの最高峰だと思っていたときに、新たな展開がありました。

We now have two new text-to-video models that are absolutely incredible.

私たちは今、まったく素晴らしい2つのテキストからビデオへのモデルを持っています。

Let me show you Luma AI first.

まずはLuma AIをご紹介します。

This is Dream Machine.

これがDream Machineです。

It allows you to do text-to-video or image-to-video.

テキストからビデオまたは画像からビデオを作成することができます。

Look at these examples here.

こちらの例をご覧ください。

Look at the detail in these videos.

これらのビデオの細部を見てください。

They are absolutely gorgeous.

それらは本当に美しいです。

I've noticed a little bit of Morphing, but for the most part, the physics are fairly consistent through the videos.

少しの変形が見られますが、ほとんどの部分で物理学はビデオ全体を通してかなり一貫しています。

Here's an example of what it looks like when it's actually rendering.

実際にレンダリングされたときの見本をこちらに示します。

You can get up to 120 seconds.

最大で120秒まで取得できます。

There we go.

さあ、始めましょう。

Here are some more examples.

こちらにさらにいくつかの例があります。

In this one, I want to show you right here.

この例では、ここでお見せしたいと思います。

You could see the balloons Morph from what looks like a person, then he's carrying them, and then they kind of go behind these other people in the background.

風船が人のように見えるものから変形し、それから彼がそれらを持っているのが見え、そして背景の他の人たちの後ろに行くのがわかります。

Definitely still some mistakes, but I believe Sora has a lot of these mistakes as well.

間違いはまだいくつかありますが、Soraも多くの間違いをしていると思います。

Here's a cool Pixar character.

こちらは素敵なピクサーのキャラクターです。

Here's something that looks like it's from Harry Potter, maybe.

こちらはハリー・ポッターから出てきたようなものですね、多分。

We have something realistic right here.

ここにはリアルなものがあります。

Dream Machine understands how people, animals, and objects interact with the physical world, aka a world model.

ドリームマシンは、人々や動物、物体が物理世界とやり取りする方法を理解しています、つまり世界モデルです。

The people in these examples look incredibly real.

これらの例の中の人々は信じられないほどリアルに見えます。

This one is especially impressive with so much detail, so much physics going on.

これは特に印象的で、たくさんのディテールがあり、たくさんの物理が起こっています。

Here are some current limitations.

現在のいくつかの制限事項があります。

You could see this Porsche is actually Morphing forwards and backwards.

このポルシェが実際に前後に変形しているのがわかります。

It's pretty interesting.

かなり興味深いです。

It looks like it's Morphing from kind of a brand new Porsche to an older version, an older year Porsche.

見た感じ、新しいポルシェから古いバージョン、古い年のポルシェに変わっているようです。

Movement still a little bit broken.

動きはまだ少し壊れています。

You could see the Corgi's legs are not moving at all.

コーギーの足が全く動いていないのがわかります。

Text struggles with, but most text-to-video, text-to-image products struggle with text and something called Janus, which I've never heard of that.

テキストは苦労していますが、ほとんどのテキストからビデオ、テキストから画像の製品は、テキストとジャヌスという何かに苦労しています。私はそれについて聞いたことがありません。

But yeah, basically the polar bear is coming out of its rear end here.

でも、基本的にはここから極地クマが尻から出てきています。

But overall, really, really impressive.

でも、全体的には、本当に、本当に印象的です。

There's a ton of examples on Twitter of people trying it out.

Twitterには、それを試している人々のたくさんの例があります。

You could try it out for free right now.

今すぐ無料で試すことができます。

But not to be done.

しかし、やるべきではありません。

The company that really started the text-to-video revolution and we haven't heard from in a long time, Runway just announced the third version of their product and it is incredible.

テキストからビデオへの革命を本当に始めた会社で、長い間耳にしていなかったRunwayが、彼らの製品の第3バージョンを発表し、それは素晴らしいです。

Thanks to Alvarez-Cintas for putting these together.

Alvarez-Cintasさんがこれらをまとめてくれたおかげで、感謝しています。

Runway just announced their new AI video generation model called Gen-3 Alpha.

Runwayは、Gen-3 Alphaという新しいAIビデオ生成モデルを発表しました。

Look at these 10 examples.

これらの10の例を見てください。

Bald man is happy to have a new wig.

禿げた男性は新しいかつらを持ってうれしいです。

The person looks real.

その人は本物のように見えます。

The wig comes down.

かつらが下りてきます。

The hair's physics are nearly flawless.

髪の物理学はほぼ完璧です。

I see a little artifact coming off.

少しのアーティファクトが出ているのが見えます。

Watch when the wig comes down.

かつらが下りるのを見てください。

You can see a tiny little artifact fly off to the left side here.

ここで左側に小さなアーティファクトが飛んでいくのが見えます。

There, but very minor overall incredibly impressive.

非常にわずかながらも、全体的に非常に印象的です。

Here is a dragon toucan walking through the Serengeti.

ここには、セレンゲティを歩くドラゴンツカンがいます。

Very impressive, very consistent.

非常に印象的で、非常に一貫しています。

All the plants in the background look good.

背景のすべての植物が良く見えます。

Here is first-person view internal locomotive cab of a train moving at hyperspeed in an old European city.

ここには、旧ヨーロッパの街で超高速で移動する列車の内部機関車の一人称視点があります。

I think one thing I'm slightly noticing is that the power cables that are hung up right here kind of go in and out.

私がわずかに気づいていることは、ここに吊るされている電力ケーブルが、ある程度出入りしているということです。

But otherwise all of the physics of the architecture look really good really consistent.

しかし、それ以外の建築物の物理学は非常に良く、本当に一貫しています。

Here's one subtle reflections of a woman on the window of a train moving at hyperspeed in a Japanese city.

これは、日本の都市で超高速で移動する電車の窓に映る女性の微妙な反射です。

This is a direct comparison to Sora's version of this.

これは、それのSoraバージョンとの直接比較です。

In fact, I'm going to play them side by side so you can see it.

実際、両方を並べて再生するので、それを見ることができます。

Which one do you think is better?

どちらがより良いと思いますか?

Next a wide symmetrical shot of a painting in a museum.

次に、美術館の絵画を広い対称的なショットで撮影します。

The camera zooms in close to the painting.

カメラは絵画に近づいてズームインします。

Here is handheld camera moving fast flashlight light in a white old wall in a old alley at night a black graffiti that spells runway.

こちらは、夜の古い路地の白い壁に手持ちカメラで素早く移動する懐中電灯の光が映る、"runway"と綴られた黒い落書きのシーンです。

Here's one that works really well for my channel an astronaut running through an alley in Rio de Janeiro.

こちらは、リオデジャネイロの路地を駆け抜ける宇宙飛行士のシーンで、私のチャンネルにとてもよく合うものです。

Look at even the kind of luggage bags on his stomach area.

彼の腹部にある荷物の種類さえ見てください。

They move around and it looks completely real.

それらは動き回り、完全にリアルに見えます。

Everything in the windows moves by and looks correct physically.

窓の中のすべてが動き、物理的に正しく見えます。

Here is a view out a window of a giant strange creature walking in runway city at night one single street lamp dimly lighting the area.

夜の滑走路都市を歩く巨大で奇妙な生物が1つの街灯で明るく照らされたエリアを見る窓の景色がここにあります。

Here's another one close up shot of a young woman driving a car looking thoughtful blurred green forest visible through the rainy car window and all of the trees are consistent.

ここにもう1つ、若い女性が車を運転して考え込んでいるクローズアップショットがあり、雨の車窓を通してぼんやりと緑の森が見え、すべての木々が一貫しています。

This is just super super impressive.

これは本当にすごく印象的です。

There's definitely a little bit of uncanny Valley with the person driving but overall I think it looks really good.

運転している人には確かに少し違和感がありますが、全体的にはとても良く見えると思います。

Finally a first person view shot zooming through a tunnel into a vibrant underwater space.

ついに、トンネルを通って活気ある水中空間にズームする一人称視点のショットがあります。

Lots going on here a lot of consistency necessary very very good.

ここではたくさんのことが起こっており、非常に一貫性が必要です。とても素晴らしいです。

I cannot wait to try these out text to video and specifically Sora has significant competition now coming from multiple different companies.

これらを試してみるのが待ちきれません。テキストからビデオへ、特にSoraは今、複数の異なる企業から重要な競争を受けています。

One thing that I haven't seen a lot of is open source text to video models.

私があまり見たことがないものの一つは、オープンソースのテキストからビデオへのモデルです。

In fact, I don't know if I know of any even if there were some they would probably only be a few seconds long.

実際、私は、もしあれば、それらを知っているかどうかさえわかりません。それがあったとしても、おそらく数秒しか続かないでしょう。

I'm really hoping an open source text to video model comes out that is competitive with everything we're seeing from these closed source companies.

私は本当に、これらのクローズドソース企業から見ているすべてと競争できるオープンソースのテキストからビデオへのモデルが登場することを願っています。

For the rest of the stories Brett adcock the founder of Figure robotics who is making an incredible robot who I've made multiple videos about has put together a list of all the biggest AI news to come out in the last week.

残りのストーリーでは、私が複数のビデオを作成した信じられないほどのロボットを製作しているFigure Roboticsの創設者であるBrett Adcockが、先週発表されたすべての最新のAIニュースをまとめたリストを作成しました。

Let's just take a look now first obviously Apple had their big announcement.

まずはっきりと、Appleが大きな発表を行ったので、今すぐ見てみましょう。

I've covered it already.

すでにそれについては触れています。

I'll link the link to that video in the description below.

そのビデオへのリンクを以下の説明に貼り付けます。

One of the coolest features is of course calculator app on iPad.

最もクールな機能の1つは、もちろんiPadの電卓アプリです。

But more importantly you can now just draw a math formula draw equals and then it will automatically solve that problem for you.

しかし、さらに重要なのは、今では数式を描いて等号を描くだけで、自動的にその問題を解決してくれることです。

Apple and OpenAI announced a partnership to directly integrate ChatGPT into iOS 18, iPad OS 18, and Mac OS.

AppleとOpenAIは、ChatGPTをiOS 18、iPad OS 18、およびMac OSに直接統合するためのパートナーシップを発表しました。

There seems to be a deep misunderstanding about what was actually announced.

実際に発表された内容について、深刻な誤解があるようです。

I want to clarify it real quick.

私はそれをすぐに明確にしたいと思います。

In fact, I posted something on X specifically about this.

実際、私はこれについてXに特に投稿しました。

I'm a huge fan of the all in podcast and all of the besties on it.

私はall in podcastとその中のすべてのベスティーズの大ファンです。

I was listening to the latest episode over the weekend and was kind of blown away by how this group of hyper successful entrepreneurs incredibly brilliant people got the facts wrong of Apple's AI announcements.

週末に最新エピソードを聞いていて、この一群の超成功した起業家や信じられないほど優れた人々が、AppleのAIの発表に関する事実を誤解しているのに驚かされました。

Here I actually talk about it.

実際にここでそれについて話しています。

You got the facts wrong about Apple intelligence on this week's episode of all in and here's the confusion a lot of people and the all in podcast included just thought OpenAI was powering everything and that there was this huge security concern and even Elon Musk tweeted about it and he misunderstood what was going on.

今週のエピソードで、Appleの知能に関する事実を間違えています。多くの人々やall inポッドキャストも、OpenAIがすべてを支配していると思っていました。そして、巨大なセキュリティ上の懸念があると誤解され、イーロン・マスクもツイートしていましたが、彼は何が起こっているのかを誤解していました。

Here's the breakdown.

ここに分解があります。

Apple did develop their own AI.

Appleは独自のAIを開発しました。

They have a 3 billion parameter model that is run locally.

彼らはローカルで実行される30億のパラメーターモデルを持っています。

That is the beauty of the Apple silicon.

それがAppleのシリコンの美しいところです。

It is incredibly powerful at running local inference.

ローカル推論を実行する際に非常に強力です。

You have this 3 billion parameter model that is essentially powering things that you want to get done on your phone.

基本的には、携帯電話で行いたいことを支える30億パラメータのモデルがあります。

It's kind of powering Siri and you can actually accomplish tasks with AI then for any larger tasks or more complex tasks.

Siriを支えており、AIを使って実際にタスクを達成できます。より大きなタスクや複雑なタスクには、その後にAIを使用することができます。

They have a private cloud service that they offload requests and inference to when necessary.

必要に応じて、リクエストや推論をオフロードするためのプライベートクラウドサービスがあります。

This cloud service, which has a large model much larger than 3 billion parameters, is also owned and operated and created by Apple completely.

このクラウドサービスは、30億以上のパラメータを持つ大規模なモデルを完全に所有し、運営し、Appleが作成しています。

OpenAI has nothing to do with it.

OpenAIはそれとは何の関係もありません。

Where OpenAI actually comes into play is if you have world knowledge questions, meaning who won the election in 1996 or how do I tie my shoes, whatever it is, these general world knowledge questions when you ask it, Apple will then prompt you and say hey, we're going to ping ChatGPT about this.

OpenAIが実際に関与するのは、1996年の選挙で誰が勝ったか、靴の結び方など、世界知識に関する質問がある場合です。あなたがそれを尋ねると、Appleはあなたに促し、ChatGPTに問い合わせると言います。

Do you want to do that?

それを行いますか?

It actually confirms before sending the prompt off to ChatGPT.

ChatGPTにプロンプトを送信する前に、実際に確認します。

It is little more than just an API call.

それは単なるAPI呼び出し以上のものです。

Everybody saying that it's deeply integrated into the OS.

みんなが言っているのは、それがOSに深く統合されているということです。

It's just not true.

それはただ単に真実ではありません。

In fact, I believe that's why the stock ripped so much in the following days after the announcement because a lot of the market realized that first a lot of what they announced is awesome, but also they are not as dependent on OpenAI as a lot of the reports are saying they are.

実際、私はその発表後の数日間で株価が急騰した理由が、市場の多くが彼らが発表したことの多くが素晴らしいと気づいたからだと信じていますが、同時に彼らはOpenAIに依存していると報告されているほどではないということも理解しています。

Here's an example question you type to Siri.

ここにSiriに入力する例の質問があります。

I have fresh salmon lemons tomatoes help me plan a five course meal with a dish for each taste bud.

新鮮なサーモン、レモン、トマトがあります。それぞれの味覚に合った料理を含めた5コースの食事を計画するのを手伝ってください。

This is what would be considered a world knowledge question.

これは世界知識の質問と考えられるものです。

If you were to ask it something like I need to text my mom and tell her I'm going to be late or can you take this email and summarize it for me and then put that summary into an email to somebody else that is what Apple's local inference would do.

例えば、母親に遅れることを伝えるテキストを送る必要があるとか、このメールを要約して別の人に送信する必要があるとか、そういった場合、Appleのローカル推論が行うことです。

But as soon as you have this world knowledge question, it's going to ask if you want to send it to ChatGPT like so.

しかし、一度世界知識の質問があると、ChatGPTに送信するかどうかを尋ねます。

Do you want me to use ChatGPT to do that sending to ChatGPT and there we go and this is ChatGPT's answer.

ChatGPTを使用して送信するようにしますか?送信して、そうして、これがChatGPTの回答です。

I am very bullish on Apple AI.

私はAppleのAIに非常に期待しています。

I was very impressed with what they announced.

彼らが発表した内容には非常に感銘を受けました。

They were obviously quite conservative with their announcements and what the functionality actually accomplishes.

彼らは明らかに、自分たちの発表や実際の機能がどのような成果をもたらすのかについてかなり保守的でした。

But what I believe is the need of asking questions that are world knowledge is actually quite limited maybe a couple times a day but having AI that can actually accomplish tasks and is super personal to me and accomplishes tasks on my behalf is going to be needed all day every day.

しかし、私が信じているのは、世界知識に関する質問の必要性は実際にはかなり限られているということで、おそらく1日に数回程度ですが、私にとって非常に個人的でタスクを実行し、私の代わりにタスクを遂行できるAIが必要になるでしょう。

That is going to make humans super productive hyperproductive.

それによって人間は非常に生産的で超生産的になるでしょう。

And so that in my mind is actually much more valuable.

そして、私の考えでは実際にはそれははるかに価値があります。

The local model that they are running on the phone is much more valuable than the ChatGPT API call that they're sending off next on Friday and video release their own model A huge 340 billion parameter model called Nemetron 4 340B and it's a family of models optimized for NVIDIA NeMo and NVIDIA Tensor RT-LLM includes cutting-edge instruct and reward models and a data set for generative AI training.

彼らが電話で実行しているローカルモデルは、彼らが金曜日に次に送信するChatGPT APIコールよりもはるかに価値があり、ビデオリリースで自分たちのモデルを公開します。巨大な340億パラメータモデルで、Nemetron 4 340Bと呼ばれるモデルファミリーは、NVIDIA NeMoとNVIDIA Tensor RT-大規模言語モデルに最適化されており、最先端の指示と報酬モデル、生成的AIトレーニング用のデータセットが含まれています。

What this model was made for is to teach smaller models and it is open source.

このモデルが作られた目的は、より小さなモデルを教えることであり、オープンソースです。

Obviously you can run inference I believe in their NIMS product, but if you wanted to download it you totally can and again its purpose is to generate synthetic data to train smaller models.

明らかに、NIMS製品で推論を実行できると思いますが、ダウンロードしたい場合は完全に可能であり、再びその目的は、より小さなモデルをトレーニングするための合成データを生成することです。

This might be a huge breakthrough for smaller model training and actually allows a lot of companies that didn't have access to data beyond what is on the public web to actually compete.

これは、より小さなモデルのトレーニングにおける重要な進歩であり、実際には、公共のウェブ上にあるデータを超えるアクセス権を持たなかった多くの企業が実際に競争できるようになります。

For example OpenAI is paying a ton of companies including Reddit to get their proprietary data, but now if you can generate all of this synthetic data that could be really powerful.

例えば、OpenAIはRedditを含む多くの企業にプロプライエタリデータを提供していますが、もし合成データを生成できるようになれば、それは本当に強力なものになるかもしれません。

I haven't tested it out.

まだ試していません。

I'm really excited to you know, I'm going to make a video about it.

それについて、本当に興奮しています。動画を作る予定です。

Let me know specifically what you want to see about Nemetron next researchers from Stanford introduce human plus a shadowing ability of robots humanoids are born for using human data.

次に、スタンフォード大学の研究者が紹介したNemetronについて具体的に何を見たいか教えてください。人間とロボットの影の能力を持つ人間型ロボットが、人間のデータを使用するために生まれました。

We build a real-time shadowing system for using a single RGB camera and a whole body policy for cloning human motion.

私たちは、単一のRGBカメラを使用したリアルタイムの影のシステムを構築し、人間の動きを複製するための全身ポリシーを作成しました。

Here's some examples boxing playing the piano ping-pong tossing typing and completely open source.

以下は、ピアノ演奏、卓球、投げる、タイピングなどの例です。そして、完全にオープンソースです。

Thank you Stanford.

スタンフォード大学、ありがとうございます。

Here's a great example of it and remember all of this is just a clone of something a human did and they actually detail some of the specifics of the robot.

これは素晴らしい例です。そして、これらすべては実際には人間が行った何かのクローンであり、彼らはロボットの具体的な詳細を実際に詳細に説明しています。

They're using inspire robots hands.

彼らはインスパイアロボットの手を使用しています。

They're using unitary robotics h1 robot body.

彼らはユニタリーロボティクスのH1ロボットボディを使用しています。

They're using the dynamixel motors and razor webcams and completely open source hardware design as well.

彼らはダイナミクセルモーターとレーザーウェブカメラを使用し、完全にオープンソースのハードウェアデザインを採用しています。

The RGB camera takes a video somebody does something it does the body and hand post estimation then they convert it into what the robot would look like and then they actually make the robot do the behavior very cool.

RGBカメラは、誰かが何かをするビデオを撮影し、それが体と手のポスト推定を行い、その後ロボットがどのように見えるかに変換し、実際にロボットに非常にクールな振る舞いをさせます。

Next, DeepMind in Harvard created a virtual rodent powered by an AI neural network.

次に、DeepMindとハーバード大学がAIニューラルネットワークによって動作する仮想ネズミを作成しました。

Let's take a look at this video with deep reinforcement learning and learn to operate a biomechanically accurate rat model allowing us to compare real and virtual neural activity.

このビデオを見て、深層強化学習を行い、生体力学的に正確なネズミモデルを操作する方法を学び、実際の神経活動と仮想の神経活動を比較することができます。

This is essentially a simulated rat.

これは基本的にシミュレートされたネズミです。

If we could do a rat, if we scale up, what do you think is going to be next?

もし私たちがラットを行うことができたら、規模を拡大した場合、次に何が起こると思いますか?

The cool thing about this is it's literally predicting the neural behavior of the rat and using AI.

この素晴らしいことは、それが実際にラットの神経行動を予測し、AIを使用していることです。

It is again another step towards a fully simulated world.

これは再び完全にシミュレートされた世界に向けたもう一歩です。

Next, OpenAI announced that Paul M Nakasane brings world-class cybersecurity expertise to OpenAI's board of directors.

次に、OpenAIは、ポール・M・ナカサネが世界クラスのサイバーセキュリティの専門知識をOpenAIの取締役会にもたらすことを発表しました。

This is a retired US Army general joining the board of directors on OpenAI.

これは、引退した米国陸軍の将軍がOpenAIの取締役会に加わることを意味します。

They are framing it as being a cybersecurity expert and that's why he's joining but I think a lot of people lost trust in OpenAI as I did kind of and I see it more as potentially regulatory capture.

彼らは、サイバーセキュリティの専門家として位置付けており、それが彼が参加する理由だとしていますが、私も含めて多くの人々がOpenAIに対する信頼を失ったと思います。私は、これを規制当局による支配と見ています。

What I'm thinking is they're getting deep into the security establishment.

私が考えているのは、彼らが安全保障機関に深く関与していることです。

The NSA, the army, the military in general and yet this is just more regulatory capture in my mind and I also read something recently that OpenAI has something like a 40 person team specifically dedicated to lobbying Washington.

NSA、陸軍、軍隊全般に関わっているが、これは私の考えでは単なる規制当局による支配であり、最近OpenAIがワシントンにロビー活動を専門に行う40人のチームを持っているということも読んだ。

This is just kind of more the same in my mind and I also read that Sam Altman is considering converting OpenAI into a completely for-profit company not run by a nonprofit entity.

私の考えでは、これは同じようなものであり、また、サム・アルトマンがOpenAIを非営利団体によって運営されない完全な営利企業に転換することを検討しているとも読んだ。

Nobody is surprised at that though.

しかし、誰もそれに驚いていません。

I think if OpenAI continues down this path, they are just going to lose the trust of everybody but at the same time they're the only AI company making significant revenue in the billions.

もしOpenAIがこの道を進み続けるなら、彼らは皆の信頼を失うだけでなく、同時に数十億ドルの収益を上げている唯一のAI企業でもあります。

Maybe I'm wrong at the end of the day if their models are the best probably 90% of the world doesn't care about anything else.

もしかしたら、最終的には私が間違っているかもしれません。彼らのモデルが最高であれば、おそらく世界の90%は他のことには興味を持たないでしょう。

They do next Stability AI release Stable Diffusion 3 medium.

彼らは次の安定したAIリリースであるStable Diffusion 3を行います。

I've tested it out.

私はそれを試してみました。

I was thinking about creating a tutorial for how to get it set up on your machine, but there's a lot out there plus it's not that great.

自分のマシンにセットアップする方法のチュートリアルを作成しようと考えていましたが、既に多くの情報があり、それほど優れていないということもあります。

I haven't found it to be really mind-blowing at all.

実際には、それは全く驚くべきものではないと感じています。

If you want to see it just let me know in the comments if I get enough people asking of course, I'll make it next out of Japan.

もしあなたがそれを見たいと思うなら、コメントで知らせてください。もちろん、十分な人数が要求すれば、次は日本から作ります。

We have a new approach to autonomous vehicles and it is humanoids actually just driving them.

自律車両には新しいアプローチがあり、実際には人型ロボットが運転しています。

The vehicle is a standard vehicle, but the humanoid robot in it is actually looking around interpreting what it needs to do and driving the vehicle and they have a full research paper that they published about it.

車両自体は標準的なものですが、中にいる人型ロボットは実際に周りを見回し、何をすべきかを解釈して車両を運転しており、それについて公開された完全な研究論文があります。

I recommend you check it out and last and I believe I'm going to make an entire video just about this deep seek Coder v2 is out deep seek Coder was one of the best coding models out there and now they have the brand new open source v2 version and it beats GPT for turbo and coding and math.

それをチェックすることをお勧めします。そして、私はこのDeep Seek Coder v2についての動画を作るつもりで、Deep Seek Coderは最高のコーディングモデルの1つであり、今では全く新しいオープンソースのv2バージョンがあり、ターボとコーディング、数学においてGPTを凌駕しています。

If we take a look at the stats in the striped blue line here across the board, we can see that it beats out GPT-4 Turbo, Gemini 1.5 Pro, Claude 3 Opus, Llama-3-70B and code stroll.

ここで横断的に見ると、ストライプの青い線の統計を見ると、GPT-4 Turbo、Gemini 1.5 Pro、Claude 3 Opus、Llama-3-70B、およびコードストロールを上回っていることがわかります。

This is the top of the top.

これは最高の最高です。

These are all of the best coding models out there and deep sea Coder v2 beats them at human eval mbpp plus math gsm 8k.

これらはすべて、最高のコーディングモデルであり、ディープシーコーダーv2は、ヒューマン評価mbppプラス数学gsm 8kでそれらを上回っています。

On the actual coding framework side, after Live Codebench and Sui Bench, but on Live Codebench and Sui Bench.

実際のコーディングフレームワークの側面では、Live CodebenchとSui Benchの後、しかしLive CodebenchとSui Benchの後。

It does come in under the others, but after, in my opinion, is the best right now.

他のものよりも少し劣るかもしれませんが、私の意見では、今のところ最高です。

I'm actually going to make another video about after, a follow-up video soon.

実際には、その後についての別のビデオを作る予定です。近日中にフォローアップビデオを公開します。

Stay tuned for that, but just look at its performance.

そのためにお楽しみにしていてくださいが、その性能を見てください。

It is so impressive.

それは非常に印象的です。

It excels in coding and math, supports 338 programming languages, has 128k context length, fully open source with two sizes, 230 billion parameters, which is humongous, but it also comes with API access and a smaller 16 billion parameter version.

コーディングや数学で優れており、338のプログラミング言語をサポートし、128kのコンテキスト長を持ち、完全にオープンソースで2つのサイズがあり、2300億のパラメータを持っています。これは膨大ですが、APIアクセスと16億のパラメータバージョンも提供されています。

Definitely check it out.

ぜひチェックしてみてください。

Stay tuned for my video on this model.

このモデルに関する私のビデオをお楽しみにしてください。

I can't wait to test it out.

テストするのが待ちきれません。

If you enjoyed this video, please consider giving a like and subscribe and I'll see you in the next one.

このビデオを楽しんでいただけたら、いいねやチャンネル登録を考えていただけると嬉しいです。次のビデオでお会いしましょう。


この記事が気に入ったらサポートをしてみませんか?