見出し画像

【AIニュース】英語解説を日本語で読む【2023年9月23日|@TheAIGRID】

OpenAIはDALL-E3という画像生成ソフトウェアをリリース予定で、GPT-4.5としても知られる。DALL-E3はデザイン用途に有用で、複数のAIモデルの組み合わせが今後のトレンドとされる。3D生成技術も進展中で、AI利用のリスクと対策が議論される中、YouTubeはクリエイター向けのAIツールセットを発表した。MicrosoftはWindows 11にAI機能を追加し、Googleとの連携を強化するBard、そしてAmazonのAlexaが音声改善を目指している。
公開日:2023年9月23日
※動画を再生してから読むのがオススメです。


So, one of the things that was just recently released was DALL·E3.

さて、つい最近公開されたものにDALL-E3がある。

Now, DALL·E3, if you don't know, is similar to DALL·E2.

DALL-E3はDALL-E2に似ている。

It's essential image generation software, quite like Midjourney.

Midjourneyのような、本質的な画像生成ソフトウェアだ。

But this one is a bit different, you see, OpenAI actually did something that I didn't predict they were going to do.

でもこれはちょっと違いますね、OpenAIは実際に私が予測していなかったことをやったんです。

And what they were able to do was they were able to add text.

彼らができたことは、テキストを追加できたことです。

As you can see on screen, it says Larry is so cute, what makes him super duper.

画面にあるように、Larry is so cute, what makes him super duperと書かれています。

So essentially, they've integrated this chatbot with DALL·E3, which is, of course, an image generation software.

つまり、彼らはこのチャットボットをDALL-E3と統合したのです。DALL-E3はもちろん画像生成ソフトウェアです。

So you can see they're able to design some stickers, they're able to talk about many different things.

だから、ステッカーをデザインしたり、いろいろなことを話したりできるんだ。

And I think this is probably GPT-4.5.

これはおそらくGPT-4.5だと思います。

And you might be wondering, why are you saying that this is GPT-4.5?

なぜこれがGPT-4.5だと言うのか不思議に思うかもしれません。

Because previously, we did talk about how ChatGPT is going to get incrementally upgraded, more things are going to be released, and we know that it is going to be more multimodal than it is going to be anything else.

なぜなら、以前にも話しましたが、ChatGPTは段階的にアップグレードされ、より多くの機能がリリースされることがわかっていますし、それは他の何よりもマルチモーダルになることがわかっています。

So of course, this is technically DALL·E3, but it's also an upgrade to ChatGPT.

もちろん、これは技術的にはDALL-E3ですが、ChatGPTのアップグレードでもあります。

So of course, everyone's wondering when is GPT5, yada yada yada.

もちろん、みんなが気になっているのは、いつGPT5が出るのか、などなどです。

It seems like we're getting these updates in ChatGPT that are essentially becoming, you know, slowly and surely, um, towards GPT5.

ChatGPTのアップデートは、GPT5に向けて、ゆっくりと、そして確実に行われています。

So this is a major update for ChatGPT because, um, something like this is really cool because you can now actually talk with the text and, you know, ChatGPT can now give you an image.

これはChatGPTの大きなアップデートです。テキストで話すことができるようになり、ChatGPTが画像を提供できるようになりました。

And of course, we do know that this isn't exactly like the previous image capabilities where you can analyze images.

もちろん、これは以前の画像の機能とは少し違いますね、画像を分析することができる前のものとは。

But in order to create these images, quite like MidJourney, this is really, really cool.

しかし、MidJourneyのように画像を作成するには、これは本当に、本当にクールです。

Now, we aren't sure how good this is compared to MidJourney in terms of realism, but we do know that in terms of stickers and various artistic things, this is pretty, pretty good.

リアルさという点ではMidJourneyと比べてどの程度優れているかはわからないが、ステッカーやさまざまな芸術的なものに関しては、かなり優れていることは確かだ。

So we don't know when this is going to be released.

ですから、これがいつリリースされるかはわかりません。

I think OpenAI did say that it's going to be released sometime in September, but it will be really, really interesting to see how this does work.

OpenAIは9月中にリリースすると言っていたと思いますが、これがどのように機能するのか、本当に、本当に興味深いです。

So if you did want to see some comparisons between ChatGPT and, of course, MidJourney in terms of DALL·E3 vs MidJourney, the top one that we can see here, this is, of course, MidJourney.

ですので、ChatGPTとMidJourneyの比較を見たい場合は、もちろん、DALL·E3とMidJourneyの比較ですが、ここで見える一番上のものは、もちろんMidJourneyです。

And the bottom one that we can see, no, no, top one is actually DALL·E3.

そして一番下が、いやいや、一番上がDALL-E3です。

And of course, the bottom one right here is, of course, MidJourney.

そしてもちろん、この一番下がMidJourneyです。

Now, this one, you're supposed to have like a heart with a universe inside of it, um, with clouds coming from the sky.

さて、これは、宇宙が内部にあるハートのようなもので、空から雲が出てくるものです。

And I do think that this one that they've shown us does actually beat MidJourney in this area.

そして、私は彼らが私たちに見せたこれが、実際にはMidJourneyをこの領域で上回っていると思います。

But once again, I do think that what we're starting to see from certain image generations is that certain image generations are best at certain styles.

しかし、繰り返しになるが、ある特定のイメージ世代から見えてきたのは、ある特定のイメージ世代がある特定のスタイルを最も得意としているということだ。

I don't think there's one image generation that is best for all styles.

すべてのスタイルに最適なイメージ世代はないと思う。

Even in MidJourney, you have to use V4 for more artistic and V5 for more realistic, and version 5.2 for more realistic and, I guess, artistic combined together.

MidJourneyでも、よりアーティスティックなものにはV4を、よりリアルなものにはV5を、よりリアルでアーティスティックなものにはバージョン5.2を使う必要がある。

For example, this is an example of um, some leaves dressed up as dancers or anthropomorphic leaves, um, as some country folklore singers.

例えば、これはダンサーの格好をした葉っぱや、擬人化された葉っぱ、カントリー・フォークロアの歌手の格好をした葉っぱの例です。

And this is DALL·E, which looks pretty good.

そして、これがDALL·Eで、かなり良さそうです。

And then, of course, this is mid Journey, but like I said before, I'm not sure which engine the person did use in Midjourney, so I can't really judge that.

もちろん、これは『ミッド・ジャーニー』だけど、さっきも言ったように、『ミッド・ジャーニー』でどのエンジンを使ったのかわからないから、判断できないんだ。

But this is why I'm saying various different softwares, and depending on which version is released, they're going to generate a different specific result.

しかし、だからこそ、いろいろな異なるソフトがあり、どのバージョンがリリースされるかによって、異なる具体的な結果を生み出すことになると言っているのです。

And then, of course, we have this one right here, which is a close-up of a hermit crab nestled in wet sand.

そして、もちろん、こちらは湿った砂に潜んでいるヤドカリのクローズアップです。

And the top is, of course, Daily 3, and the bottom is, of course, mid Jenny.

上はもちろんデイリー3、下はもちろんミッド・ジェニーだ。

Like we said, mid Journey does look more realistic, um, like insanely realistic.

さっきも言ったように、ジャーニーの真ん中の方がよりリアルに、うーん、めちゃくちゃリアルに見える。

I would believe this is a real picture.

これは本物の写真だと信じたい。

Um, and then this one, of course, also does one look realistic as well, but I don't want to say this is actually a hermit crab and this is actually just a normal crab.

もちろん、これもリアルに見えるようになっていますが、これが実際にエビゾウカニで、これが普通のカニだと言いたくはありません。

So, I mean, it's up to you which one you think is better.

つまり、どちらがいいと思うかはあなた次第ということです。

I'd love to know your thoughts down in the comment section below.

コメント欄で皆さんの意見を知りたいですね。

But, um, let's move now.

さて、話を変えよう。

This was something I did want to talk about last week, but the video was like 28 minutes, so we just didn't have time to put it in.

これは先週話したかったことなんだけど、ビデオが28分もあったから、入れる時間がなかったんだ。

But this is next GPT any to any multimodal LM, and this is generally where I think GPT-5 and all these other large language models are going to go.

しかし、これはマルチモーダルLMの次のGPTであり、GPT-5や他のすべての大規模言語モデルが目指すところです。

I know that many different people in the industry are thinking that, you know, we're going to decide one large language model that can do absolutely everything, and maybe that's going to be possible.

多くの業界関係者が、私たちは絶対にすべてをできるような大規模な言語モデルを決めるだろうと考えていることを知っています。そして、それが可能になるかもしれません。

But I like to think that what we can see here with next GPT, um, any to any multimodal LM, like previously, like Microsoft's Jarvis and other systems, is that this is much more realistic.

しかし、私は、次のGPT、つまり、以前のマイクロソフトのJarvisや他のシステムのようなマルチモーダルLMに見られることは、これがはるかに現実的であるということだと思いたい。

So I think what we're going to have is one large language model in the middle, and then this large language model is going to call on every single other large language model for the specific requests.

つまり、真ん中にひとつの大きな言語モデルがあり、その大きな言語モデルが、特定のリクエストに対して他のすべての大きな言語モデルを呼び出すということだ。

So, for example, when it needs to generate an image, it's going to use mid Journey or maybe Daily 3.

例えば、画像を生成する必要があるときは、Mid JourneyやDaily 3を使う。

When it needs text, it's going to use ChatGPT.

テキストが必要なときはChatGPTを使う。

When it needs to do audio, it's going to pull on the ElevenLabs API.

音声が必要なときは、ElevenLabs APIを使う。

Um, and when it needs Vision, it's going to pull on the best Vision generator out there.

ヴィジョンが必要なときは、最高のヴィジョン・ジェネレーターを使う。

And I think with all that combined, that's going to be more like an AGI rather than doing one AI that can do absolutely everything.

これらを組み合わせることで、1つのAIで何でもできるというよりは、AGIに近いものになると思います。

I mean, I think it's going to be similar to how the human body works, or you have the brain that pulls on, you know, the nose for smelling, you know, the tongue for tasting, the eyes for seeing, um, rather than the brain just absolutely doing everything.

つまり、これは人間の体の働き方に似ていると思います、例えば、脳が嗅覚のために鼻を引っ張る、味覚のために舌を引っ張る、視覚のために目を使う、というように、脳がすべてを絶対にやるのではなく、引っ張っているんです。

So I think it's going to be kind of like a body.

だから、ある種の身体のようなものになると思うんだ。

Um, and this was a paper, so you know, it says, As we humans always perceive the word and communicate with people through various moDALL·Eties, developing an any-to-any large language model capable of accepting and delivering content becomes essential to human-level AI.

これは論文であり、私たち人間は常に言葉を知覚し、さまざまな方法で人々とコミュニケーションを取るため、受け入れとコンテンツの提供が可能な任意の大規模言語モデルの開発は、人間レベルのAIにとって不可欠です、と書かれています。

So I think that is going to be very interesting because it can do any-to-any, um, which is even video.

そのため、Any-to-Any、つまりビデオさえも扱うことができるので、非常に興味深いものになると思います。

So I think that's where things are going to go.

だから、それが物事が進む方向だと思う。

Um, and it will be interesting to see how that does work.

それがどのように機能するかを見るのは興味深いですね。

But I think that this is where these large language model systems are going to go.

しかし、このような大規模な言語モデル・システムは、これから進んでいくと思います。

In even when we just before saw how ChatGPT is already using DALL·E3, I think that is exactly where we are headed.

ChatGPTがすでにDALL-E3を使っているのを見たときでさえ、私たちはまさにそこに向かっていると思います。

So if you're wondering what the future of AI is going to look like, this is a good show.

AIの未来がどうなるのか気になるなら、これは良いショーです。

This is another thing I did want to include as well.

もうひとつ、これも紹介したいと思います。

This is called MV dream multi-view diffusion for 3D generation.

これは3D生成のためのMVドリーム・マルチビュー・ディフュージョンと呼ばれるものです。

This is really, really good.

これは本当に素晴らしい。

I mean, I've seen tons of different 3D model generations, and this is really, really good.

つまり、私は何トンものさまざまな3Dモデル生成を見てきましたが、これは本当に本当に優れています。

Like, it's approaching that level of detail where you can actually use this stuff right now.

まるで、実際にこの素材を使えるくらいの詳細レベルに近づいています。

You can see Viking Axe fantasy weapon AK Blender.

Viking Axe fantasy weapon AK Blenderをご覧ください。

Um, and this is just a text-to-3D prompt.

これはテキストから3Dへのプロンプトです。

So I mean, look at this.

つまり、これを見てください。

I mean, Gandalf smiling white hair examples.

ガンダルフが微笑む白い髪の例ですね。

I mean, this is really, really good.

つまり、これは本当にとても良いです。

Like, before, you would see a lot of stuff as, of course, like right here, this is where you're seeing every other project, and all of the examples, I mean, you can see how it looks.

以前は、いろいろなものを見ることができましたが、もちろん、ここにあるように、他のプロジェクトや、すべての例を見ることができます。

You know, this one's blurry.

これはぼやけている。

This one's, that one's not too bad, but these ones aren't as good.

これはまあまあですが、これらはあまり良くありません。

And of course, you can see they've managed to fix various issues and various quality issues.

そしてもちろん、様々な問題や様々な品質の問題を修正しているのがわかるだろう。

Um, and yeah, this is really, really promising because when you compare it and you see the level of detail on this one, um, it just goes to show that with 3D, like, I feel like every week we're getting increases.

うーん、そうですね、これは本当に本当に有望ですね、なぜならこれと比較してこのレベルの詳細さを見ると、3Dでは毎週進化しているように感じますから。

And here's the thing that someone previously said on Reddit, I'm not sure what the post is, but what they did say is that sometimes what people are looking for is one major breakthrough.

そして、以前Redditで誰かが言っていたことなのですが、その投稿が何なのかは分かりませんが、彼らが言っていたのは、人々が求めているのは時に大きなブレークスルーなのだということです。

And of course, that does happen.

もちろん、それは起こる。

But sometimes all of these smaller breakthroughs on the smaller level allow us to create that much more smoother transition into whatever it is that we might be moving towards.

しかし、時には小さなレベルでのブレークスルーが、私たちが向かっているものが何であれ、よりスムーズな移行を可能にするのです。

So of course, you can see right here that 3D is getting maybe 10% better, you know, every now and again, like 10% better every month.

もちろん、ここで3Dが10%ずつ改善されているのがわかります。毎月10%ずつ改善されています。

You know, eventually you can have something that's crazy.

いつかは、すごいものを持つことができるかもしれません。

Remember mid Journey, every month it got better and better.

途中の旅では、毎月良くなっていきましたよね。

And eventually now we have something that is pretty crazy.

そして最終的には、かなりクレイジーなものができる。

So this is crazy.

これはクレイジーだね。

Like Jack Sparrow wearing sunglasses, boom, a 3D model.

サングラスをかけたジャック・スパロウのような3Dモデルだ。

Um, and that's pretty crazy for me.

僕にとってはかなりクレイジーだね。

So, um, yeah, I think this is, uh, really, really cool.

ええ、これは本当にすごいと思います。

I think it's very, very interesting.

とても興味深いと思います。

Um, I know something that I wanted to put out there.

それで、ちょっと言いたいことがあるんだけど。

I'm pretty sure there is a GitHub page that you can use or a Hugging Face spot.

GitHubのページとか、Hugging Faceのスポットがあると思うんだけど。

But this shows promising results because once this is perfected, guys, it's really going to change the entire.

でも、これは有望な結果を示している。これが完成すれば、みんな、本当に全体が変わるだろうからね。

Then, of course, you can see right here, tech tycoons combined with a net worth of roughly 550 billion gathered in the same room today for a cinema for a Senate Forum on the future and regulation of AI from Bloomberg.

それで、もちろん、こちらで見ることができますが、総資産がおおよそ5500億ドルのテクノロジー大物たちが、今日、AIの未来と規制についての上院フォーラムのために同じ部屋に集まりました。それはブルームバーグからの情報です。

So here you can see all of the people who are leaders and pioneers in the AI space.

ですので、こちらではAI分野のリーダーや先駆者となっている人々をすべて見ることができます。

They're pretty much, you know, own the decision on where this stuff is going to move, are discussing AI.

彼らは、ある意味、この技術がどの方向に進むかの決定権を持っており、AIについて議論しています。

Now, what was interesting was one of the conversations that they had.

今、興味深かったのは、彼らが行った会話の1つです。

Now, the conversation wasn't that great, but there was something that I did want to pick up on because I don't think enough people are paying attention to this.

その会話はそれほど素晴らしいものではありませんでしたが、私が注目したいことがあります。なぜなら、十分に注意を払っている人が少ないと思うからです。

And I think once again, it shows that we are right now in a race to the ball.

そして、私は再び、私たちが現在ボールを追っている競争の中にいることを示していると考えます。

So you can see right here, according to the Washington Post, one of the 22 tech titans at that Senate meeting, Tristan Harris of the Center for Humane Technology pulled the room that with 800 and a few hours of work, his team were able to strip Metis safety controls of its open source large language model, LAMA 2, and the AI responded to prompts with instructions to develop a biological weapon.

ですので、ワシントンポストによれば、上院の会議での22人のテクノロジー大物のうちの1人、ヒュームンテクノロジーのセンターのトリスタン・ハリスは、彼のチームが僅か800時間でオープンソースの大規模言語モデル、LAMA 2の安全装置を取り除くことができ、AIは生物兵器を開発する指示に対して反応したと部屋に伝えました。

Now, you have to understand that this is a problem because, of course, Meta Chief Mark Zuckerberg reportedly replied that those obstructions are available on the internet.

今、このことは問題であることを理解しなければなりません。なぜなら、もちろん、メタの最高責任者マーク・ザッカーバーグが、そのような指示はインターネット上で利用可能であると報じられたからです。

This is an example of AI doing sophisticated research.

これはAIが高度なリサーチを行う一例です。

Fair enough.

十分理解しました。

But like we stated, this is just the beginning.

しかし、私たちが述べたように、これは始まりに過ぎません。

So remember, okay, um, this is pretty crazy, okay?

だから、覚えておいてください、これはかなり驚くべきことですね?

Because, of course, as they state, DeepMind was able to develop AlphaFold, which is pretty pretty crazy.

なぜなら、もちろん、彼らが述べるように、DeepMindはAlphaFoldを開発することができました。これはかなり驚くべきことです。

That solved a lot of stuff that would have taken us years to solve.

それは私たちが何年もかかるであろう多くの問題を解決しました。

So the point here is that, of course, right now, these AI systems aren't great.

ですので、ポイントは、もちろん、現在のAIシステムは素晴らしいとは言えません。

I mean, they're great, but they aren't great to the point where they can develop completely new biological agents.

つまり、彼らは素晴らしいですが、完全に新しい生物学的エージェントを開発するほどには素晴らしくありません。

But the point is, is that if they're able to do that, you know, five, ten years from now, that is going to be crazy.

しかし、ポイントは、彼らがそれを実現することができるのであれば、5、10年後にはそれが驚くべきことになるでしょう。

Because if we have open source tools which anyone can access, of course, this is good that anyone can access it, but that, of course, opens up to bad actors.

なぜなら、私たちが誰もがアクセスできるオープンソースのツールを持っている場合、もちろん、それが誰もがアクセスできるのは良いことですが、それは、もちろん、悪意のある行為者に扉を開けることになります。

Maybe someone wants to develop something that could ruin a whole town, ruin parts of the world.

誰かが、一つの町全体を破壊し、世界の一部を破壊する何かを開発したいと思うかもしれません。

I mean, it's definitely something that we need to be careful of.

つまり、私たちはこれに対して注意を払う必要があります。

Because if we don't have safeguards and we don't have regulations, then this kind of stuff is going to fall into the wrong hands.

なぜなら、もし私たちが安全策を持っていない、または規制を持っていないならば、このようなものは間違った手に渡るでしょう。

And of course, you know, they equate this to being somewhat of a nuclear bomb.

そしてもちろん、彼らはこれをある意味で核爆弾と同じと考えています。

And giving a nuclear bomb to everyone on the planet is a recipe for disaster.

そして、地球上の全ての人々に核爆弾を与えることは、災害へのレシピです。

Because it only takes one person to set it off.

それを起爆させるのは一人だけで十分です。

And we know that with eight billion people, there's definitely at least a few of those who are crazy enough to just do something just to see how it goes.

そして、80億人の中で、単にどうなるかを見てみたいだけの十分に狂っている人が少なくともいることを私たちは知っています。

So it is definitely something that shows that although open source AI models are good, I don't think that the best, because the risk of people using them to, you know, create fraud and just do many different things, it's just too much.

ですので、オープンソースのAIモデルが良いことは確かですが、私は最も良いとは思いません。なずなら、それを使って、詐欺を生み出したり、様々なことをするリスクが、単に高すぎるからです。

But it'll be interesting to know what you guys think.

しかし、皆さんが何を考えているのか知るのは興味深いでしょう。

If these open source AI models should still be allowed, or if you think that the risk of bad actors is just too high.

これらのオープンソースAIモデルがまだ許可されるべきか、あるいは悪意のある行為者のリスクが単に高すぎると思うか、教えてください。

Then what we have here is something that is very interesting.

それでは、ここに非常に興味深いことがあります。

I'm glad that this is now starting to get more recognition.

これがより多くの認識を受けるようになったことに感謝しています。

This is called autonomous driving with Chain of Thought autopilot thinking out loud in text.

これはChain of Thought autopilot thinking out loud in textと呼ばれる自動運転のことです。

It says, Linger One is the most interesting work I've read in auto driving for a while.

Linger Oneは、しばらくの間で読んだ自動運転に関する最も興味深い作品です。

Before perception, then driving action, then after perception, textual reasoning, and then action.

知覚の前に行動、知覚後にテキストの理論、そして行動です。

So if you don't know what Chain of Thought prompting is, it's essentially where you ask a large language model a question.

もしあなたがChain of Thoughtのプロンプトが何であるか知らないのであれば、大きな言語モデルに質問するところです。

Okay, so for example, let's say I asked GPT, What's two plus two?

まあ、例えば、私がGPTに「2プラス2は?」と聞いたとしましょう。

Um, it might just say back four.

それは単に「4」と答えるかもしれません。

But let's say I asked it, What's two plus two?

しかし、私がそれに「2プラス2は?」と尋ねたとしましょう。

And then I say, let's think step by step and show your reasoning and explain your reasoning before you give them your answer.

そして、私が答えを出す前にあなたの推論をステップバイステップで考えて説明してと言ったとしましょう。

Then it's going to say two plus two is four because when you add two and then you add two, it's gonna be four.

それからそれは、「2を加え、2を加えると、4になるから、2プラス2は4です」と言うでしょう。

And of course, it's meant for more complex questions, but they're now applying this to, I guess you could say, driving.

もちろん、これはより複雑な質問のために意図されていますが、彼らは今、これを運転に適用していると言えます。

So it says Lingo One trains a video language model that comments on the ongoing scene.

それはLingo Oneが進行中のシーンにコメントするビデオ言語モデルを訓練すると言います。

And then you can ask it to explain its decisions as to why you stopped planning and what are you going to do next.

そして、あなたはそれに停止の計画と次に何をするのかを説明するように尋ねることができます。

And of course, it shows you okay, why it's made these decisions.

もちろん、それはなぜこれらの決定をしたのかを示してくれます。

So, um, at the start, we can see here it says, I'm edging due to the slow-moving traffic.

ですので、最初に、それは「私は遅い動きの交通のためにエッジングしています」と言っているのが見えます。

And then, of course, um, as you move on, it says, I'm overtaking a vehicle that's parked on the side.

そして、もちろん、進むと、「私は道路脇に駐車している車両を追い越しています」と言います。

So I think this is interesting because it gives us an insight as to how these large language models are making their decisions.

私はこれが興味深いと思います。なぜなら、これはこれらの大規模な言語モデルがどのように決定を下しているかについての洞察を与えてくれるからです。

I'm accelerating now since the road is clear and remaining stationary as the lead vehicle is also stopped.

私は今、道路がクリアであり、先行車両も停止しているため、加速しています。

Um, and I think this might be, it might be a breakthrough.

そして、これがブレークスルーかもしれないと思います。

I'm not too sure, but um, I think Elon Musk did make a comment on this because he did talk about LLMs.

私は確信していませんが、エロン・マスクがコメントをしたことがあると思います。なぜなら、彼はLLMsについて話していたからです。

But yeah, I can't, I can't, I can't find the actual tweet from Elon Musk where he does talk about LLMs.

しかし、はい、私は、エロン・マスクがLLMsについて話す実際のツイートを見つけることができません。

But I do think that this is going to be interesting to see if this is, uh, more successful than other decisions.

ただ、これが他の決定よりも成功するかどうかは興味深いと思います。

Of course, contextual reasoning, as we know, does improve a model's response by around, you know, 20 to 30, or in some cases, even five times.

もちろん、文脈的な推論は、我々が知っているように、モデルの応答をおおよそ20から30%、または場合によっては5倍向上させます。

So it will be interesting to see how, right now, what's also very, very interesting as well is that Elon Musk actually said something literally an hour ago that means he has inside information about.

だから、今はどうなるか見るのが興味深いです。また、とても興味深いのは、エロン・マスクが実際に1時間前に何かを言ったことで、彼は内部情報を持っていることを意味しています。

So he said, Okay, that Midjourney will be releasing something significant soon.

彼は、ミッドジャーニーが近いうちに何か重要なものをリリースするだろうと言いました。

Okay, and this was in response to a tweet where it was talked about DALL·E3.

これは、DALL·E3についてのツイートへの返信でした。

Once deployed, we'll improve at a faster rate.

一旦展開されると、成長率はより速くなります。

And Elon Musk says, Midjourney will be releasing something significant soon.

そして、イーロン・マスクは、ミッドジャーニーが近いうちに何か重要なものをリリースすると言いました。

So that means, of course, Elon Musk has insider information about what's going on at Midjourney.

それは、もちろん、イーロン・マスクがミッドジャーニーの内情を知っているということを意味します。

And it's no surprise, I mean, if I work there, but I'm trying to think what exactly is Midjourney releasing?

それは驚くことではありません。もし私がそこで働いていたら、でも私はミッドジャーニーが具体的に何をリリースするのか考えてみます。

Is it going to be finally 3D?

ついに3Dになるのでしょうか?

Because apparently that's what they're working on.

それが彼らが取り組んでいることだと言われています。

Or is it going to finally be the desktop browser/area that they were working on that was leaked?

それとも、彼らが取り組んでいたとされるデスクトップブラウザ/エリアになるのでしょうか、それがリークされましたか?

It was leaked and it was, and I did see, I do have the screenshot to show you because they don't want anyone to see that stuff.

それはリークされ、私がスクリーンショットを持っています、なぜなら彼らは誰もそれを見たくないからです。

And I'm guessing they're just waiting competition and they want to save you that kind of stuff.

私は彼らが単に競争を待っているだけで、あなたにそのようなものを保存したいと思っているのではないかと推測しています。

Now, there's a tweet here that does say, according to David Holes, Midjourney V6 will be a bigger jump from V5 with better image quality and text prompting.

今、ここにあるツイートには、デイビッド・ホールズによれば、ミッドジャーニーV6はV5からのより大きな飛躍になり、画像品質とテキストプロンプトが向上するとあります。

And Midjourney 3D should come out in the next six months.

そして、ミッドジャーニー3Dは次の6ヶ月以内に出るはずです。

Now, if you want to know what 3D might look like, we do have an image trailer from this account, Nick Floats.

3Dがどのように見えるか知りたい場合、このアカウント、ニック・フローツからの画像トレーラーがあります。

Now, I'm not sure if he made this himself.

彼がこれを自分で作ったのかどうかはわかりません。

I'm pretty sure it was him because I didn't manage to find this trial, but this does look very interesting.

私はこれを見つけることができなかったので、彼だったと思いますが、これは非常に興味深いです。

And this is possible because the software and technology does exist to do this already.

これが可能なのは、このようなことをすでに行うソフトウェアと技術が存在するからです。

Okay, and I'm not surprised if this does actually happen with Midjourney because, like we stated before, being able to do this, I know looking at crime scenes as we discussed before, like a snapshot of a crime scene or something like that, that would be pretty interesting for detectives or managing to do real estate or, you know, try to virtually explore and figure out where you're going to be, where you place certain things.

私は、ミッドジャーニーでこれが実際に起こると驚かないでしょう。なぜなら、これができることは、私たちが前に議論したように、犯罪現場のスナップショットや、実際に不動産をやってみる、または、どこに行くべきか、何を置くべきかを仮想的に探索しようとすることが、探偵や不動産業者にとって非常に興味深いと思われるからです。

I definitely think it's going to, you know, be that next.

私は確かにそれが次のものになると思います。

Then, of course, we have RoboFab introducing the world's first factory for humanoid robots.

そして、ロボファブが世界初のヒューマノイドロボットの工場を紹介しています。

And essentially, this is pretty crazy because, of course, as you know, humanoid robots are becoming more and more popular.

そして、このことはかなり驚くべきことです。なぜなら、ヒューマノイドロボットがますます人気になっているからです。

But this is a factory for the, you know, humanoid robots that are basically going to be everywhere.

しかし、これは、実際にどこにでもあるヒューマノイドロボットのための工場です。

And this is what they want.

これが彼らの望むものです。

So they're trying to reduce the cost of these automated rooms.

彼らはこれらの自動化された部屋のコストを削減しようとしています。

Essentially, what's even crazy about this, as well, so that I forgot to mention, is that they're going to be using the robots to actually assist in the factory in which they're building robots.

実際に、これについてもっと驚くべきことは、言い忘れましたが、彼らはロボットを使って実際にロボットを組み立てる工場で助けをする予定です。

So I guess you could say this is somewhat kind of exponential and very interesting because I didn't expect to see this, you know, technological announcement happening so quickly.

だから、これは何とかして指数関数的であり、とても興味深いです。なぜなら、この技術的な発表がこんなにも早く起こるとは思っていなかったからです。

So these robots, I'm desperately sure that these companies are going to be getting more funding and more crowdfunding because, of course, investors definitely want to benefit from this huge, huge industry that is projected to have billions and billions of dollars, will be worth trillions.

だから、これらのロボットは、もちろん、これらの企業がより多くの資金とクラウドファンディングを得ることを切望していることを私は確信しています。なぜなら、投資家たちは、何兆ドルもの価値があると予測されるこの巨大な産業から利益を得たいからです。

It will be interesting to see how this does play out.

これがどのように進展するかを見るのが興味深いでしょう。

Then essentially what we had was a surprise. We had this platform, YouTube, saying that they're going to release a bunch of new AI tools and it's going to be helping creators and anyone that does want to become a content creator.

そこで、我々が驚くべきことになったのは、このプラットフォーム、YouTubeが、新しいAIツールをたくさんリリースし、コンテンツクリエーターになりたい人々を助けると言っていることでした。

So it will be interesting to see exactly how this stuff does work, how it does change the entire platform in terms of content creation.

このスタッフがどのように機能するのか、また、コンテンツ作成の全体的なプラットフォームをどのように変えるのかを見るのが興味深いでしょう。

If it's actually going to be good or if it's going to be just pretty bad.

それが実際に良いものになるのか、それともかなり悪いものになるのか、みんなが心配しています。

So it says AI images for shorts and stuff.

AI画像のショートやそのようなものだと言われています。

So what I'm going to do is I'm going to leave some of the video in here so you guys can see exactly how it looks and how it works because this explanation is vastly better than mine.

だから私は、ビデオの一部をここに残して、みなさんがそれがどのように見えるか、どのように機能するかを正確に見ることができるようにします。なぜなら、この説明は私のものよりもずっと優れているからです。

Yeah, are you actually rolling?

実際に録画していますか?

We're actually, oh, we're rolling.

実際、ああ、録画しています。

Okay, yeah, we're good to go. Let's go.

わかりました、うまくいきます。行きましょう。

Okay, so YouTube just announced this set of AI and editing tools that are going to revolutionize the platform, making creation easier and more fun for everybody.

さて、YouTubeは、このAIと編集ツールのセットを発表しました。これはプラットフォームを革命的にし、全員にとっての作成をより簡単で楽しくします。

The aim is to unlock more creativity for more creators than ever before.

目標は、これまでにないほどのクリエイターのためのクリエイティビティを解放することです。

The most exciting part to me is that what was announced is supposedly just the beginning.

私にとって最も興奮する部分は、発表されたものが実際には始まりに過ぎないということです。

Let's get into it. Okay, first up, let's talk about DreamScreen, the new image and video generation experiment that's making its way to YouTube shorts.

さっそく話しましょう。DreamScreenという、YouTubeショートに登場する新しい画像とビデオ生成の実験についてです。

Powered by amazing AI technology, DreamScreen lets you bring your imagination to life by simply typing in ideas as text prompts.

驚異的なAI技術によって駆動されているDreamScreenは、アイデアをテキストプロンプトとして入力するだけで、あなたの想像力を生き生きとさせます。

It then generates super fun images and videos that you can use to set the scene.

それは、シーンを設定するために使用できる超楽しい画像とビデオを生成します。

Alright, let's see this in action. (laughs) I kind of don't want to leave.

さて、これをアクションで見てみましょう。 (笑) 私は出て行くのが嫌だ。

This is nice.

これは素敵です。

These new tools are expanding the boundaries of digital art.

これらの新しいツールは、デジタルアートの境界を拡大しています。

And that's not all.

それだけではない。

Meet YouTube Create.

YouTube Createに会ってみてください。

This is a new app that YouTube is building to make editing easier for everybody.

これはYouTubeが誰もが編集を簡単にするために開発している新しいアプリです。

And it's free of charge.

そして、無料です。

It includes access to thousands of royalty-free tracks and sound effects.

数千のロイヤリティフリーのトラックや効果音へのアクセスが含まれています。

And you can automatically create captions for your video with just one tap.

ワンタップでビデオのキャプションを自動作成することができます。

Cleo Jade, are you not mindless?

クレオ・ジェイド、あなたはうっかりしていませんか?

I'm very excited about this in a genuine way.

本当にこれについて非常に興奮しています。

Last but not least, and my personal favorite, there's a feature that lets you clean up and remove any background noise.

最後に、そして私のお気に入りは、バックグラウンドのノイズをクリーンアップし除去する機能があります。

I live in New York.

私はニューヨークに住んでいます。

That would be really helpful.

それは本当に役立つでしょう。

The beta for YouTube Create is available first on Android to creators in select countries right now.

YouTube Createのベータ版は、現在、一部の国のクリエイター向けにAndroidで最初に利用可能です。

So go and check it out.

ぜひチェックしてみてください。

These announcements show that YouTube is really starting to transform the way that content is created, helping more creators make more content in more ways than ever before.

これらの発表は、YouTubeがコンテンツの作成方法を本当に変え始めていることを示しており、今まで以上に多くのクリエイターが多くの方法でコンテンツを作成するのを支援しています。

They're shrinking the gap between our wildest ideas and what we can actually create.

彼らは私たちの最も夢のようなアイディアと実際に作成できるものとの間のギャップを縮めています。

Until then, just keep making things.

それまで、物を作り続けてください。

I'll see you on YouTube.

YouTubeでお会いしましょう。

Okay, so of course we had Microsoft announce Your Copilot, which is the Windows 11 update.

もちろん、MicrosoftがWindows 11のアップデートであるYour Copilotを発表したことがあります。

And it's going to include most, um, pretty much just a ton of different AI updates, including Paint, Photos, ClipChamp, and more, all to your Windows PC.

そして、それにはPaint、Photos、ClipChampなど、あなたのWindows PC向けの多くのAIのアップデートがほとんど含まれています。

And of course, well, they also talked about how was that Bing is going to be adding support for the latest DALL·E3 model from OpenAI and deliver more personalized answers based on your search history.

もちろん、BingがOpenAIからの最新のDALL·E3モデルのサポートを追加し、検索履歴に基づいてよりパーソナライズされた答えを提供する方法についても話しました。

And of course, just essentially a whole update that just makes everything a lot better.

もちろん、基本的にはすべてを大幅に向上させるアップデート全体です。

So it's going to be really interesting because, of course, Microsoft is pushing this entire AI into the entire system.

なので、MicrosoftがこのAI全体をシステム全体に押し出しているので、非常に興味深いです。

Now, I do think that this is going to be interesting because, of course, as you know, Apple's operating software doesn't utilize any of this at all.

今、これが興味深いと思うのは、もちろん、Appleのオペレーティングソフトウェアがこれを全く利用していないからです。

And it seems like Apple is currently being left behind in the AI race.

そして、Appleが現在AIのレースで遅れをとっているようです。

They haven't even spoke or even anticipated anything just yet.

彼らはまだ何も話しても予期してもいません。

So it will be interesting to see how Microsoft manages to gain ground because, of course, things with AI do move a lot quickly and a lot quicker than people do expect.

もちろん、AIのものは非常に迅速に、そして人々が予期するよりも早く動くので、Microsoftがどのようにして地盤を固めるかを見るのが興味深いでしょう。

And you can be left behind because, of course, Internet Explorer did actually catch Google off guard.

もちろん、Internet Explorerが実際にGoogleを驚かせたという事実があります。

Now, of course, I would show you this entire video.

もちろん、この全ビデオを見せてあげたいと思います。

I probably might make a dedicated video on this.

私はこれに関する専用のビデオを作成するかもしれません。

But of course, you can see Bard can now connect your Google Apps and services.

しかし、もちろん、Bardが今あなたのGoogle Appsやサービスに接続できることがわかります。

So it says, Use Bard alongside your Google Apps and services.

それは、BardをあなたのGoogle Appsやサービスと一緒に使用するということです。

Easily double-check its response and access features in more places.

その応答を簡単にダブルチェックして、より多くの場所で機能にアクセスできます。

So what does this actually mean?

これは実際にどういう意味なのか?

So you know how you have the Google Drive, you have Gmail, you have YouTube.

あなたがGoogle Driveを持っていたり、Gmailを持っていたり、YouTubeを持っていたりすることを知っているでしょう。

You can actually check and use Google Drive or, I mean, you can actually use Bard to check your Google Drive, to check your Gmail, to check your YouTube, to check Google Flights, to check pretty much all your editing.

実際にBardを使ってGoogle Driveをチェックしたり、Gmailをチェックしたり、YouTubeをチェックしたり、Google Flightsをチェックしたり、実際にはほとんどすべての編集をチェックすることができます。

So this is like actually having a great personal assistant.

これは実際に素晴らしい個人アシスタントを持っているようなものです。

And this is really, really, really cool because this is something that's more valuable than ChatGPT.

これは本当に、本当に、本当にクールで、これはChatGPTよりも価値のあるものです。

Because of course, ChatGPT is great, but I mean, you have person.

もちろん、ChatGPTは素晴らしいですが、あなたには人がいます。

One of the large problems with ChatGPT is that if I need information, I have to give it that information.

ChatGPTの大きな問題の一つは、情報が必要な場合、その情報を提供する必要があることです。

And it is pretty time-consuming, especially if you're using ChatGPT to respond to email, to do work with your business, with your company.

特にChatGPTを使用してメールに応答したり、ビジネスや会社の仕事をしたりする場合、更新後に情報を常に供給することは非常に時間がかかります。

Having to constantly feed it information, especially after updates, is very, very time-consuming.

特にアップデート後は、情報を常に与え続ける必要があり、非常に時間がかかります。

This is where Bard comes in.

それがBardの役割です。

And it's already connected with Gmail.

そして、すでにGmailと接続されています。

You know, it can already help you with shared conversations, just so much stuff.

共有された会話のサポートなど、さまざまな機能を提供できます。

And it's really, really cool that now they have this.

これを持っていることは本当に素晴らしいことです。

Okay, and this is going to be something that, once again, like we said, is a step up here.

わかりました、これはまた、私たちが言ったように、ここでの一歩前進になるものです。

So of course, as you can see, when you go into Bard, this is exactly including Bard extensions.

もちろん、Bardに入ると、Bardの拡張機能も含まれています。

Of course, if you click next, then you're going to see Bard meets Google Workspace because it has all of your stuff.

これらのすべてのアップデートに非常に興奮しているので、ぜひ私に知らせてください。

And of course, it's really cool is that double-check Bard responses.

このビデオのコメントセクションで私に意見や質問をしてください。

You can check how accurate Bard's responses actually are.

そして、もし気に入ったら、このビデオを友達や家族と共有してください。

So if you're not confident about Bard or if Bard's not confident about something, you can click a button and it's going to show you how accurate that response really was.

もしBardに自信がない場合、またはBardが何かに自信がない場合、ボタンをクリックすると、その応答の正確さが表示されます。

So of course, you can see right there, it's giving you a lot more stuff.

もちろん、そこでたくさんの情報が提供されています。

And of course, as you know, it's now, of course, you can upload images.

そして、もちろん、YouTubeチャンネルでのすべてのサポートを感謝しています。

So one of the Bard's new features, I took a random picture of a car that I found on the internet.

なので、Bardの新しい機能の一つで、インターネット上で見つけた車の写真をランダムに撮影しました。

And then, I literally just said, YouTube this.

そして、文字通り「YouTubeでこれを検索」と言っただけです。

So, if you don't know what it is, you can say, Google this or YouTube this.

もしご存知ない場合は、「Googleでこれを検索」や「YouTubeでこれを検索」と言えます。

And then, essentially, it's going to give you like YouTube videos that are about that.

そして、基本的には、それに関するYouTubeの動画を提供してくれるようになります。

So, I think this is going to be really interesting to see what kinds of cars it chooses.

なので、どのような車を選択するのか非常に興味深く見ていきたいと思います。

Um, and what kinds of things are linked in here.

そして、ここにリンクされているものは何か。

So, it's really, really interesting.

本当に、非常に興味深いです。

And it also says, YouTube video views will be stored in your YouTube history.

また、「YouTubeの動画の視聴履歴がYouTubeの履歴に保存されます」とも言っています。

And so, yeah, I think this is going to be used a lot more than people did expect.

だから、私はこれが人々が予想していたよりもっと多く使われることになると思います。

Then, of course, we have Amazon's Alexa voice.

次に、もちろん、AmazonのAlexaの声があります。

It's allowed to become a lot more natural and a lot more better and a lot more clearer.

それはもっと自然で、もっと良く、もっと明確になることが許されています。

So, this is going to be interesting because this is something that we did expect earlier on the year.

だから、これは興味深いことになります。これは、私たちが今年の初めに予想していたことです。

We did Bedrock, which was a bunch of different Foundation models to all of their different APIs and services.

私たちはBedrockを行いました、それは彼らのさまざまなAPIとサービスすべてにさまざまなFoundationモデルの集まりでした。

But this is, of course, to their lead product, which is, of course, Alexa or as many of you may know, Amazon's Astros.

しかし、これはもちろん、彼らの主力製品、すなわちAlexa、または多くの方が知っているAmazonのAstrosに関するものです。

So, take a look at this clip because I think it showcases exactly what Amazon is doing.

このクリップをご覧ください、なぜならAmazonが何をしているのかを正確に示していると思うからです。

And, of course, Amazon Alexa hasn't really had much of the spotlight since Siri and other things like Google have all say.

そして、もちろん、Amazon AlexaはSiriやGoogleなど他のものが注目を浴びて以来、あまり注目されていませんでした。

But I think whatever company manages to get a home device that is really good first off the ground, that is integrated with a large language model, that it sounds natural, is actually useful, probably can make jokes and stuff like that, it's definitely going to take this next wave by storm.

しかし、私は、自然に聞こえる大きな言語モデルと統合されており、最初から本当に良い家庭用デバイスを手に入れることができる企業、実際に役立ち、冗談を言ったりできる企業が、間違いなくこの次の波を席巻するだろうと思います。


この記事が気に入ったらサポートをしてみませんか?