見出し画像

【マット・ウルフのAIニュース:今すぐ使える最新技術を徹底解説】英語解説を日本語で読む【2024年6月15日|@Matt Wolfe】

Luma AIのDream Machineは、SoraやPikaなどの競合に対抗するビデオジェネレーターで、テキストからビデオ生成はまだ改善の余地がありますが、画像からビデオへの生成では高評価を得ています。Pika Labsも画像からビデオへの生成モデルを更新し、Stable Diffusion 3がリリースされました。Leonardoは新しいカスタムモデルLeonardo Phoenixを導入し、Midjourneyはモデルパーソナライゼーション機能を追加しました。GoogleのGenTypeは、指定したスタイルでアルファベットを生成するツールで、Sunoはユーザーの音楽を元に新しい曲を生成する機能を公開しました。Adobeは顧客の作品をAIの訓練に使用しないことを明確にするため、利用規約を改訂し、AppleはWWDCイベントでiOS、iPad、MacなどのデバイスにAIを統合することを発表しました。イーロン・マスクはOpenAIの技術がAppleデバイスに統合されることに反発していますが、Appleはユーザーのデータが無断で共有されることはないと明言しています。OpenAIは新たに2人の幹部を迎え入れ、MicrosoftのCopilotもカスタムGPTの機能を追加しました。
公開日:2024年6月15日
※動画を再生してから読むのがオススメです。


This was absolutely one of the most fun weeks in AI.

これは間違いなくAIの中で最も楽しい週の一つでした。

We got all sorts of creative AI tools from dream machine to Suno updates, to Stable Diffusion 3, Apple revealed a whole bunch of announcements, a lot of fun stuff.

私たちは夢の機械からSunoのアップデート、Stable Diffusion 3までさまざまな創造的なAIツールを手に入れました。Appleはたくさんの発表を行い、楽しいものがたくさんありました。

The coolest part is most of the stuff I'm going to talk about we can use today.

一番カッコいいのは、話す内容のほとんどが今日使えることです。

Let's go ahead and jump right into it.

さあ、それでは始めましょう。

Starting with Luma AI and their release of Dream Machine.

Luma AIのDream Machineのリリースから始めましょう。

This is their competitor to Sora and Bayo and Kling and Pika and Runway and all of the AI video tools.

これはSoraやBayo、Kling、Pika、runwayなどのAIビデオツールと競合するものです。

A lot of people have claimed that this video generator is on par with what they've seen from Sora.

多くの人がこのビデオジェネレーターがSoraから見たものと同等であると主張しています。

Personally, I don't quite think it's there yet in most scenarios, but there are some scenarios where I think it did really, really well.

個人的には、ほとんどのシナリオではまだそこまでだとは思いませんが、本当にうまくいったシナリオもあります。

Just scrolling through my account here, you can see I've played around with it quite a bit, generated a handful of videos already.

ここでアカウントをスクロールしてみると、かなり遊んでいて、すでにいくつかのビデオを生成しています。

The first day that I got into this platform, it was taking forever.

このプラットフォームに入った最初の日は、時間がかかりました。

In fact, if you look, it says generations take 120 seconds.

実際、120秒かかると表示されています。

However, due to extremely high demand, your request will be queued.

ただし、非常に高い需要のため、リクエストはキューに入れられます。

The first request that I made all the way down here at the bottom took seven hours in queue.

ここで私が最初にしたリクエストは、キューで7時間かかりました。

It only took 120 seconds to generate, but I had to wait seven hours for it to start on that 120 seconds.

生成にはわずか120秒しかかからなかったのですが、その120秒を始めるのに7時間待たなければなりませんでした。

They seem to have scaled up enough to eliminate that huge wait time.

彼らはその大きな待ち時間を排除するために十分にスケールアップしたようです。

But I can tell you, it was a bit frustrating to enter a prompt, like a monkey on roller skates, wait seven hours and get this as my output.

しかし、モンキーがローラースケートを履いてプロンプトを入力し、7時間待ってこの出力を得るのは少しイライラしました。

That was a bit frustrating.

それは少しイライラすることでした。

Even more frustrating than that was waiting seven hours to get this little error triangle on it.

それよりもさらにイライラしたのは、この小さなエラートライアングルを待って7時間待つことでした。

When you click into the video generation failed, please try again.

ビデオ生成に失敗しました、もう一度お試しくださいというエラーメッセージが表示されます。

That's what happened when I entered one of my prompts, waited seven hours and then got an error message.

私がプロンプトを入力し、7時間待ってからエラーメッセージを受け取った時に起こったことです。

Not fun, but thanks to some guidance from the AI community over on Twitter, I kind of figured out the proper way to use this.

おかしくはないけど、TwitterのAIコミュニティからのアドバイスのおかげで、これを適切に使う方法をなんとなく理解できました。

Truth being told, it's not very good at text to video.

実を言うと、テキストからビデオへの変換はあまりうまくありません。

Here's my video of a wolf howling at the moon.

これが私が月に向かって遠吠えをしているオオカミのビデオです。

The wolf looks like it's three-legged.

そのオオカミは三本足のように見えます。

The moon's behind it.

月はその後ろにあります。

It doesn't appear to be howling.

遠吠えをしているようには見えません。

Here's another generation of the wolf howling at the moon and the wolf and the moon aren't even in the same shot together.

こちらは月に向かって遠吠えをしているオオカミの別のバージョンで、オオカミと月は一緒のシーンに映っていません。

This was one of the auto-generated suggested prompts of a teddy bear and sunglasses playing electric guitar.

これは、テディベアとサングラスをかけたエレキギターを演奏しているという自動生成された提案の1つでした。

For some reason he was like a butterfly or something that all of a sudden Morphed into a bear in the water.

何故か彼は突然、水中でクマに変身したかのような蝶々のようでした。

Here's another monkey on roller skates, which isn't horrible, but I mean, those definitely don't really look like roller skates either.

これは別のローラースケートを履いた猿のビデオですが、ひどいというわけではありませんが、本当にローラースケートには見えません。

I wanted to test some of the prompts that we did see from Sora.

Soraから見たプロンプトのいくつかを試してみたかったのです。

We have this video from Sora that really impressed people.

本当に人々を感動させたSoraのこのビデオがあります。

A stylish woman walks down at Tokyo street, et cetera, et cetera.

おしゃれな女性が東京の通りを歩いている、などなど。

I copied this identical prompt, plugged it into Luma to see what Luma would present and well here's version one, which looks kind of funky.

この同じプロンプトをコピーして、Lumaに入力してLumaが提示するものを見てみました。そして、こちらがバージョン1で、なかなか面白いです。

She also looks like she's missing an arm, but then later on the arm appears.

彼女も腕がないように見えますが、後で腕が現れます。

Here was my second attempt, which is even more scary than the first attempt.

これが私の2回目の試みで、最初の試みよりもさらに怖いです。

I also wanted to try this prompt, a movie trailer featuring the adventure of 30 year old spaceman, et cetera.

また、30歳の宇宙飛行士の冒険をフィーチャーした映画予告編というこのプロンプトを試してみたかったのです。

I copied this exact prompt, plugged it into Luma and it's actually not horrible.

このまったく同じプロンプトをコピーして、Lumaに入力したところ、実際にひどくはありませんでした。

The big problem with this is Luma only generates five second videos.

この問題は、Lumaが5秒のビデオしか生成しないことです。

There just wasn't enough time to generate anything extra than this.

これ以上のものを生成するには時間が足りませんでした。

But out of all the text of video I did, this one was one of the more impressive ones.

しかし、私が行ったビデオのテキストの中で、このものはかなり印象的なものの一つでした。

It's also really good at these like flyover shots.

これは、フライオーバーショットのようなものでも本当に素晴らしいです。

I did a time-lapse of the Northern Lights.

私はオーロラのタイムラプスを撮りました。

That one came out pretty good.

その1つはかなり良かったです。

An aerial shot of a lighthouse standing tall on a rocky cliff.

岩の断崖にそびえ立つ灯台の空中撮影。

That one's pretty decent.

その1つはかなりまともでした。

Another lighthouse shot, which is pretty decent.

かなりまともなもう1つの灯台のショット。

I tried again with a wolf howling at the moon and really just got a wolf looking around and that was it.

再び月に向かって遠吠えするオオカミを試みましたが、実際には周りを見回すだけのオオカミが映っていました。

That was before I learned that image to video is where this really shines.

それは、この本当に輝く場面があるのは画像からビデオへの変換だと学ぶ前のことでした。

My first image to video got a little weird.

最初の画像からビデオへの変換は少し変でした。

I don't know what's going on with this video, but I put in a thumbnail of mine and it turned me into a news team or something.

このビデオは何が起こっているのかわかりませんが、私のサムネイルを入れたら私をニュースチームのように変えてしまいました。

I kind of love it.

私はそれが結構好きです。

Here's another one.

もう1つこちらです。

An explosion of color happens behind a man's head.

男の頭の後ろで色の爆発が起こります。

This was another YouTube thumbnail concept that actually looks pretty legit.

これは実際にかなり本物らしいYouTubeのサムネイルのコンセプトでした。

Once again, this is now image to video.

再び、これは今や画像からビデオへの変換です。

Here's a colorful futuristic city, which I thought came up pretty good.

こちらは、私がかなり良いと思ったカラフルな未来都市です。

Another image to video, a pixelated video game wolf howls at the moon.

もう1つの画像からビデオ、画素化されたビデオゲームのオオカミが月に向かって遠吠えします。

I actually really like that one.

実際、私はその1つがとても好きです。

These are all image to video now up here.

これらはすべて画像からビデオへの変換です。

Here's another image to video I generated.

こちらは私が生成した画像からビデオへの別の例です。

Another one of like a cabin in the woods that actually is super realistic.

実際にはとてもリアルな森の中の小屋のもう1つです。

This one I thought was actually one of the more realistic videos I've seen.

これは私が見た中でも実際に最もリアルなビデオの1つだと思いました。

He is spraying the water in the wrong direction and his helmet looks like a giant plastic bucket over his head, but that's not Luma's fault.

彼は水を間違った方向に散布しており、ヘルメットは彼の頭の上に巨大なプラスチック製のバケツのように見えますが、それはルマのせいではありません。

This was an image generated with Midjourney.

これはMidjourneyで生成された画像です。

Midjourney generated the bucket head and the water spraying in the wrong direction.

Midjourneyがバケツの頭と間違った方向に水を散布しました。

Luma actually did a really good job with the animation of it all.

ルマは実際にそれらすべてのアニメーションを本当にうまくやってくれました。

Here's a few other quick ones walking towards a window with a city skyline out in the distance.

こちらは窓に向かって歩いている数枚の他の素早いものです。遠くに都市のスカイラインが見えます。

Looks pretty good inside of a mansion with large windows and an ocean view.

大きな窓と海の景色が見える洋館の中はかなり良さそうです。

These are all image to video at this point.

これらはすべてこの時点で画像からビデオへです。

I learned that image to video is what really works with Luma right now.

私は画像からビデオへが現在ルマと本当にうまくいく方法だと学びました。

We've got a mad scientist mixes up colorful chemicals in a lab.

狂った科学者が実験室でカラフルな化学物質を混ぜています。

It looks pretty cool, but you'll notice the face sort of Morphs as the camera moves and it looks like a different person in the beginning than in the end of the video.

それはかなりクールに見えますが、カメラが動くと顔が変わるように見え、ビデオの最初と最後では別の人に見えます。

A man wearing robes with a hood and looking at a crystal ball.

フードを被ったローブを着た男が水晶玉を見つめています。

Definitely got some funky fingers going on.

確かにちょっと変わった指があります。

Once again, you can see the face sort of Morph as it moves.

再び、顔が移動すると変形しているのがわかります。

It doesn't look like the same character from beginning to end.

最初から最後まで同じキャラクターには見えません。

But what's going on with those fingers?

でも、その指は一体何が起こっているのでしょうか?

A man shaking hands with a robot.

男がロボットと握手しています。

Pretty good.

かなり良いです。

The face Morphs bright, colorful fantasy world.

お顔が明るく、カラフルなファンタジーの世界に変わります。

Also looks pretty good, pretty cartoony.

かなり良く見えますね、かなりカートゥーンっぽいです。

James Bond looks into the camera and then quickly looks away.

ジェームズ・ボンドはカメラを見つめて、そしてすぐに目をそらします。

He doesn't ever actually look away.

実際には、彼は決して目をそらしません。

It looks like Daniel Craig in the start.

最初はダニエル・クレイグに見えます。

But if you watch as it moves further and further away, it looks less and less like him.

しかし、遠ざかるにつれて、彼にはだんだん似ていなくなります。

It's got some of those little issues there.

そこにはいくつかの小さな問題があります。

One thing to keep in mind about Luma Labs here is that right now, while it's in research preview, you get 30 generations for free per month.

Luma Labsについて覚えておくべきことは、現在、研究プレビュー中で、月に無料で30世代を生成できるということです。

That's probably not going to last.

それはおそらく続かないでしょう。

After that, the math works out to roughly 25 cents per video that you generate.

その後、数学的には、生成するビデオごとに約25セントかかります。

If you want to generate about 100 videos, it's going to cost you about 25 bucks.

約100本のビデオを生成したい場合、約25ドルかかります。

But as of right now, you can use it up to 30 times a month for free.

ただし、現時点では、月に30回まで無料で使用できます。

Get in there and play around with it before the free version goes away, because I can't imagine that's going to last forever.

無料版がなくなる前に中に入って遊んでみてください、なぜならそれが永遠に続くとは思えないからです。

Pika, one of the competitors to this Dream Machine tool, also made an updated image to video model and showed off what it's capable of.

このDream Machineツールの競合他社の一つであるPikaも、更新された画像からビデオへのモデルを作成し、その能力を披露しました。

People are asking in the thread what's different about the model.

スレッドで人々がモデルの違いを尋ねています。

They actually never came back and responded about what's been updated or different.

実際、彼らは更新された点や違いについて返答していませんでした。

I guess it's just a little bit better.

おそらく、少し良くなったのでしょう。

I don't know.

わかりません。

I think Dream Machine might be doing a little bit better job right now of doing the image to video.

今のところ、Dream Machineが画像からビデオへの変換を行う際に、少し良い仕事をしているかもしれません。

This looks like it's sort of Morphing a little too much as it changes, where the other one looks a little bit more consistent.

これは変化する際に少し過剰に変化しているように見えますが、他の方はもう少し一貫性があります。

But if you want another alternative to try Pika Labs now, apparently has an improved image to video model.

もし別の選択肢を試したいのであれば、Pika Labsを試してみることもできます。改良された画像からビデオモデルを持っているようです。

We've got a lot of news in the AI image generation world as well, including finally, we have access to Stable Diffusion 3 medium.

AI画像生成の世界では、Stable Diffusion 3 mediumにアクセスできるようになったことも含め、たくさんのニュースがあります。

Stability AI teased Stable Diffusion 3 all the way back in February, saying it would be coming soon and the weights would be made available.

Stability AIは2月にStable Diffusion 3をほのめかし、近々リリースされる予定であり、ウェイトが利用可能になると述べました。

This week they finally made them available.

今週、ついにそれらが利用可能になりました。

You can actually use Stable Diffusion 3.

実際にStable Diffusion 3を使用することができます。

We could see some examples of images that it generated.

生成された画像の例をいくつか見ることができました。

It seems to be pretty good at getting text into the image now.

今、画像にテキストを入れるのがかなりうまくいっているようです。

The weights are actually available to download over on Hugging Face.

ウェイトは実際にHugging Faceでダウンロードできます。

If you want to actually download the weights and run this model locally on your computer or on a separate cloud computer, you can.

もし実際にウェイトをダウンロードしてこのモデルを自分のコンピューターでローカルに実行したり、別のクラウドコンピューターで実行したい場合は、できます。

It appears that a handful of people have also made them available inside of Hugging Face Spaces.

一握りの人々がHugging Face Spaces内でもそれらを利用可能にしているようです。

If you want to generate images for free right now on Hugging Face, you probably got to wait a little bit, but you can do that.

今すぐHugging Faceで無料で画像を生成したい場合は、少し待つ必要があるかもしれませんが、それはできます。

Let's go ahead and click into the Stable Diffusion 3 medium here on Hugging Face.

ここでHugging FaceのStable Diffusion 3 mediumに進んでクリックしましょう。

I will make sure all of this is linked up below.

以下のすべてがリンクされていることを確認します。

It might be in a Google Sheet because I'm starting to put so many links down below that I'm running out of space in the description.

説明欄のスペースが不足してきたので、Googleシートに入っているかもしれません。

I'll probably link you up to a Google Sheet with all the links from this video, but here's where you can test it.

このビデオからのすべてのリンクが記載されたGoogleシートへのリンクを貼るかもしれませんが、ここでテストできます。

Let's use my old standby, a wolf howling at the moon.

古典的な例として、月に向かって遠吠えするオオカミを使ってみましょう。

Let's see what we've got under advanced settings.

詳細設定の下に何があるか見てみましょう。

I'm pretty much just going to leave this all by default here and see what it comes up with.

ほとんどデフォルトのままにしておいて、どんな結果が出るか見てみましょう。

We'll click run.

実行ボタンをクリックします。

Not too bad.

それほど悪くないですね。

As of the recording, it's claiming it's going to take about 16 seconds.

録画時点では、約16秒かかると主張しています。

Sure enough, it was about 16 seconds.

確かに、約16秒かかりました。

My wolf has two chins or two mouths.

あなたの狼は二つのあごまたは二つの口を持っています。

It looks like this is a wolf nose and this is a wolf nose and this is the wolf mouth.

これは狼の鼻で、これも狼の鼻で、これが狼の口のように見えます。

I didn't do a great job.

私はあまりうまくやりませんでした。

But Stable Diffusion is also kind of known for sort of requiring advanced prompts to get it to work well.

しかし、Stable Diffusionは、うまく機能させるためには高度なプロンプトが必要とされることでも知られています。

Here's what I get with the prompt of monkey on roller skates, which isn't half bad.

モンキーがローラースケートを履いているというプロンプトでこれが得られますが、悪くないですね。

Each skate only has two wheels and this wheel is kind of janky.

各スケートには2つの車輪しかなく、この車輪はちょっとぶれています。

But this time it generated in less than 10 seconds.

しかし、今回は10秒未満で生成されました。

It's actually moving pretty fast as of the time I'm recording this video.

実際、このビデオを録画している時点ではかなり速く動いています。

I'm just kind of underwhelmed by the images that it generates right now.

今、生成される画像にはちょっと感動していません。

If you give it much more detailed prompts, it does tend to work better.

より詳細なプロンプトを与えると、より良い結果が得られる傾向があります。

Here's an astronaut in a jungle, cold color palette, muted colors, detailed 8K and a pretty solid looking image.

こちらはジャングルにいる宇宙飛行士、寒色パレット、静かな色合い、詳細な8K、見栄えのする画像です。

A lot better than the images I was getting when I was just putting sort of short, brief prompts.

短い、簡潔なプロンプトを入力しているときに得られるイメージよりもずっと良いです。

Here's an astronaut riding a green horse.

こちらは緑の馬に乗る宇宙飛行士です。

Here's a delicious ceviche cheesecake slice, which actually looks pretty good until you start looking at a fork or whatever this is supposed to be on the side.

こちらは美味しそうなセビーチェチーズケーキスライスですが、横にあるフォークや何かは見るとちょっと違います。

It's capable of making really, really good images.

本当に本当に良い画像を作成することができます。

I just feel like you still need to be a prompt engineer to get real good images out of Stable Diffusion 3 for a lot of the other AI image generation models that are out there. The DALL·E 3, Midjourney, custom Leonardo models, things like that.

あなたはまだStable Diffusion 3から本当に良い画像を得るためには迅速なエンジニアである必要があると感じています。DALL·E 3、Midjourney、カスタムのLeonardoモデルなど、他の多くのAI画像生成モデルについても同様です。

It don't have to engineer your prompt so hard.

プロンプトをあまり苦労する必要はありません。

You can put more normal text and actually get good images out of it.

おそらく、通常のテキストを追加すれば、実際に良い画像を得ることができます。

Here's one of my favorite generations I came across on X from Max Wolf here, taking a look at people testing out Stable Diffusion 3.

こちらは、マックス・ヴォルフがXで見つけた私のお気に入りの世代の1つです。人々がStable Diffusion 3をテストしているのを見てみましょう。

To be honest, this goes hard.

正直に言って、これはかなり優れています。

Just try not to think about this one too hard.

このことについてあまり考えすぎないようにしてください。

Somebody else followed up with this image.

他の誰かがこの画像をフォローしました。

It's impressively consistent.

それは印象的に一貫しています。

Speaking of Leonardo, they rolled out their own new custom model.

Leonardoについて話すと、彼らは独自の新しいカスタムモデルを展開しました。

Full disclosure, I am an advisor for Leonardo, but they have zero control over what I say.

フルディスクロージャー、私はLeonardoのアドバイザーですが、私が言うことには一切の制御権がありません。

If something is funky about it, I'm going to point it out.

何かおかしいことがあれば、指摘します。

Being an advisor to them does not impact what I actually say about them, but they did just release this new Leonardo Phoenix model, which is their own foundational model.

彼らに対するアドバイザーであることは、私が実際に彼らについて言うことに影響を与えませんが、彼らはちょうどこの新しいLeonardo Phoenixモデルをリリースしました。これは彼ら自身の基本モデルです。

A lot of the previous models that Leonardo was using were Stable Diffusion models.

Leonardoが以前使用していた多くのモデルはStable Diffusionモデルでした。

This one was trained specifically for them from the ground up.

このモデルは、彼らのために特別にトレーニングされました。

It is not Stable Diffusion.

それはStable Diffusionではありません。

The major features of this new model is it's got enhanced prompt adherence.

この新しいモデルの主な特徴は、強化されたプロンプトの遵守です。

It can actually do coherent text and images, superior image quality.

実際に一貫したテキストと画像を作成でき、優れた画質です。

It's actually gotten better than previous models, more creative control.

実際、以前のモデルよりも優れており、より多くの創造的な制御が可能です。

But right now some of the things like image guidance and elements and the photo real versions aren't available yet.

ただし、現時点では画像ガイダンスや要素、写真リアルバージョンなどのいくつかの機能はまだ利用できません。

They're still working on some of those extra features.

彼らはまだいくつかの追加機能に取り組んでいます。

Let's go ahead and click.

クリックしてみましょう。

We'll do an image generation here, up under preset in the top left.

ここで画像生成を行います。左上のプリセットの下にあります。

I'm going to select Leonardo Phoenix.

Leonardo Phoenixを選択します。

We'll leave prompt enhance on auto preset.

プロンプトの強調を自動プリセットのままにしておきます。

Let's go cinematic for generation mode.

生成モードをシネマティックにしましょう。

I'm going to go quality over fast.

速さよりも品質を重視します。

I like to generate in 16 nine, and let's try a simple one, a wolf howling at the moon.

16:9で生成するのが好きです。シンプルなものを試してみましょう、月に向かって遠吠えをするオオカミです。

I can already see how it improved my prompt, a wolf in a cinematic digital photograph situated atop a moss covered granite boulder and a misty forest lit clearing silhouetted again, dot, dot, dot.

すでに、プロンプトが改善されたのが見えます。シネマティックなデジタル写真に位置するオオカミが、苔むした花崗岩の岩の上に、霧のかかった森林の明るい空き地に立っている様子が描かれています。

Let's see what it comes up with.

どんなものが出てくるか見てみましょう。

Here's the images that we got out of it.

これがそれから得られた画像です。

Here's the first one.

これが最初のものです。

Here's the second one, the third one, and the fourth one.

2番目、3番目、4番目がこちらです。

I don't know about you, but these are quite a bit more impressive than what I just saw out of Stable Diffusion 3 medium.

あなたはどう思いますか、これらはStable Diffusion 3 mediumで見たものよりもかなり印象的ですね。

Let's take a closer look at the entire prompt that it gave us.

与えられたプロンプト全体をもう少し詳しく見てみましょう。

I'm not going to read the whole thing, but if you want to go ahead and pause the video here, you can take a peek at the more detailed prompt that it automatically generated for us.

全文を読むつもりはありませんが、もし動画を一時停止してここで見てみたいと思うなら、自動生成されたより詳細なプロンプトをのぞいてみてください。

Let's try adding text to an image, a penguin holding up a sign that says Mr. EFLO.

画像にテキストを追加してみましょう、サインを掲げるペンギンです。Mr. EFLOと書かれたサインです。

We can see the advanced prompt here that it generated for us.

生成された高度なプロンプトがここにあります。

There we have it.

これで完成です。

These first two generated a couple extra wings on the penguin, but the final two here look pretty good.

最初の2つはペンギンに余分な羽を追加しましたが、最後の2つはかなり良さそうです。

The words are all right.

言葉は問題ありません。

Definitely a penguin holding a sign that says Mr. EFLO.

間違いなく、Mr. EFLOと書かれたサインを掲げるペンギンです。

Here's another one, spelled it correctly.

もう1つ、正しく綴られています。

In fact, it spelled it correctly on every single image.

実際、すべての画像で正しく綴られています。

No issue with the actual text.

実際のテキストに問題はありません。

These ones that just made kind of a funky penguin image, but in the same week we got SDXL and we got Leonardo Phoenix.

これらはちょっと変わったペンギンの画像を作っただけですが、同じ週にSDXLとLeonardo Phoenixを手に入れました。

If you were to ask me, the Leonardo Phoenix feels like a better model than SDXL, but I highly recommend playing with both and seeing which one works best for your needs.

もし私に尋ねるなら、Leonardo PhoenixはSDXLよりも優れたモデルのように感じますが、両方を試して、どちらがあなたのニーズに最適かを見極めることを強くお勧めします。

We also got some news out of Midjourney this week.

今週はMidjourneyからいくつかのニュースも入手しました。

They just released a new feature called model personalization.

新機能のモデルパーソナライゼーションというものをリリースしたばかりです。

The way model personalization works is if you've used Midjourney for a while and you've actually voted on images, well then Midjourney kind of knows what images you like because you've done a lot of the voting.

あなたがMidjourneyをしばらく使っており、実際に画像に投票したことがある場合、モデルの個人化が機能する方法は、あなたが多くの投票を行ったため、Midjourneyがあなたが好きな画像を知っているということです。

You get essentially your own personalization code.

あなたは基本的に自分専用の個人化コードを取得します。

If you use that personalization code, then it tries to make images as close to the images you've shown to like as possible.

その個人化コードを使用すると、できるだけあなたが好きな画像に近い画像を作ろうとします。

If you want to train your own version of Midjourney on what you like, here's how you can do it.

自分が好きなものについてMidjourneyの自分版を訓練したい場合は、以下の方法で行うことができます。

You can come to the Midjourney website, Midjourney.com.

Midjourney.comにアクセスしていただければ、Midjourneyのウェブサイトにアクセスできます。

Assuming you're a member, you can come over and click on tasks and then click on rank images.

会員であると仮定すると、タスクをクリックして、その後ランク画像をクリックしていただけます。

What it's going to do is it's going to show you two images and between the two, you click on the one that you like better.

すると、2つの画像が表示され、その2つの中から好きな方をクリックしていただくことになります。

You can see, I've ranked 305 images already and they say that for the best results, you need to have ranked at least 200 images, but you'll just go through, click through the images that you like best between the two.

私はすでに305枚の画像をランク付けしていますが、最良の結果を得るためには少なくとも200枚の画像をランク付けする必要があると言われていますが、単に好きな画像を2つの中からクリックしていただくだけです。

Over time, it learns your preferences and knows what kind of images you like.

お時間をかけて、それはあなたの好みを学び、どんな種類の画像が好きかを知っています。

When you're ready to create an image, you can click on the create tab here, enter a prompt.

画像を作成する準備ができたら、ここで作成タブをクリックして、プロンプトを入力できます。

Let's do, I don't know, a wolf howling at the moon.

何か、例えば、月に向かって遠吠えするオオカミをやってみましょう。

We'll turn on our little preferences here and turn personalize on, make sure we're on the latest version here and we'll go ahead and hit enter to run our prompt.

ここで少し設定をオンにして、パーソナライズをオンにして、最新バージョンになっていることを確認し、プロンプトを実行するためにエンターキーを押します。

Just for a quick comparison, I'm going to go ahead and turn personalize off and run a version with that turned off.

ちょっと比較のために、パーソナライズをオフにして、それをオフにしたバージョンを実行します。

If we look at all these images that it generated, this top row here are with personalization turned off and you can see we got some like illustration styles and I don't know, this kind of looks like an oil painting style.

生成されたこれらの画像を見ると、ここにある上段はパーソナライズをオフにしたもので、イラストスタイルのものや、油絵のようなものがいくつかあるのがわかります。

Down here, we can see the ones with personalized turned on.

こちらでは、個人化されたものが表示されます。

These ones down here are much more tailored to what it knows that I like because of all of the ranking that I've done.

こちらのものは、私が行ったすべてのランキングのおかげで、私が好きなものに合わせて調整されています。

Here's another tool that I just came across.

こちらは、私がたまたま見つけた別のツールです。

I actually don't know how new this is.

実際、これがどれだけ新しいかわかりません。

This could be months, weeks, days old.

これは数ヶ月、数週間、数日前のものかもしれません。

I have no clue.

わかりません。

I just came across it today before recording this video and thought it was pretty cool.

このビデオを録画する前に今日偶然見つけて、かなり面白いと思いました。

This is from Google and it's available inside of Google labs over at labs.google and it's called GenType.

これはGoogleからで、labs.googleのGoogle Labs内で利用可能であり、GenTypeと呼ばれています。

It will actually do letters in whatever style that you ask for it to do those letters in.

実際に、あなたがその文字をどんなスタイルで行うように頼んでも、それらの文字を行うでしょう。

Adobe firefly has something similar, but this one's available for free to play around with right now over on Google labs.

Adobe fireflyには似たようなものがありますが、これはGoogle labsで無料で遊ぶことができます。

It asks, what is your alphabet made of?

あなたのアルファベットは何でできていますか?

I'll do colorful electronic circuitry and click generate, and we can start to see it generate each letter one by one in this electronic circuitry style.

カラフルな電子回路を作成し、生成をクリックすると、この電子回路スタイルで1つずつ文字が生成されていくのが見えます。

There we go.

そうですね。

We have the entire alphabet in electronic circuitry.

電子回路でアルファベット全体が表示されます。

I can come up here and type anything like Mr. eflow and you can see it typed it out in that circuitry style.

ここに上がってきて、Mr. eflowのように何かを入力すると、その回路スタイルで入力されたことがわかります。

I can make it larger so we can get a better look at it.

よりよく見るために大きくすることができます。

I can save it as a PNG file.

PNGファイルとして保存することができます。

Just like that, you can see the image that it generated with all of the letters I just created.

たったそれだけで、作成したすべての文字で生成された画像が見えます。

This could be older than I realize.

私が認識しているよりも古いかもしれません。

I just thought it was really cool and wanted to share it with you.

本当に面白いと思って、皆さんと共有したかったのです。

A couple of weeks ago, Suno teased a feature where you can make songs by tapping on something or adding whatever sound effects you want.

数週間前、Sunoは何かをタップしたり、好きな効果音を追加したりして曲を作成できる機能を予告しました。

You'd be able to generate a whole song from that.

それによって、その音から完全な曲を生成することができます。

We finally got access to this feature.

ついにこの機能にアクセスできるようになりました。

If you're on a Suno premium plan, you can use it right now.

Sunoプレミアムプランに加入している場合、今すぐ使用できます。

I head on over to suno.ai, click on create up here. And then we've got this option to upload audio.

suno.aiに移動し、ここで作成をクリックします。そして、オーディオをアップロードするオプションがあります。

Make sure you're on 3.5 here, click on upload audio.

こちらで3.5になっていることを確認して、オーディオをアップロードしてください。

You don't actually have to upload the audio.

実際には、オーディオをアップロードする必要はありません。

You can actually just click this audio button and it will allow you to record directly into your computer.

実際には、このオーディオボタンをクリックするだけで、コンピュータに直接録音することができます。

One sec.

ちょっと待ってください。

Let me, let me do something real quick.

ちょっと何かやらせてください。

Let's go ahead and try to put like a real simple guitar piece in here.

ここに本当にシンプルなギターピースを入れてみましょう。

I'll go ahead and click upload one file, click continue.

1つのファイルをアップロードし、続行をクリックします。

We can see that it put our recording in here and I can actually play it.

録音がここに入ったことがわかりますし、実際に再生することができます。

But if I want Suno to do its thing with it, I need to click on extend.

しかし、Sunoにそれを処理させたい場合は、拡張をクリックする必要があります。

Let's go ahead and click extend here and you can choose where it extends from.

ここで拡張をクリックして、どこから拡張するか選択できます。

I basically played the same little arpeggio two times in a row.

基本的に、同じ小さなアルペジオを2回続けて演奏しました。

I don't really need them both.

両方は本当に必要ありません。

I can have it extend from seven seconds after I played through the first time because the second time I just repeated myself.

最初に演奏した後の7秒から拡張させることができます。2回目はただ自分を繰り返しただけです。

Let's go ahead and extend from seven.

7から拡張してみましょう。

Let's put acoustic pop acoustic guitar.

アコースティックポップアコースティックギターを入れてみましょう。

Let's throw beat in there and see what it does.

ビートを入れて、どうなるか見てみましょう。

I'll let it just make random lyrics and we'll click extend.

ランダムな歌詞を作らせて、拡張をクリックします。

Here's our first version.

これが最初のバージョンです。

Not too bad.

悪くないですね。

You could hear the chords that I was playing underneath.

おそらく、私が弾いているコードを聞くことができたでしょう。

I was hoping it would add like a little bit more of a beat to it.

それが少しビートを加えることになると期待していました。

It basically just took the little riff I was playing and put lyrics over it, but not too bad.

基本的には、私が弾いていた小さなリフを取り上げて、歌詞を付け加えただけですが、悪くはありません。

Also made it sound a lot better than me actually playing it.

実際に弾いている私よりもずっと良く聞こえるようにもしました。

Let's try this second one here.

ここで2番目のものを試してみましょう。

But you get the idea.

でも、アイデアはつかめるでしょう。

It's pretty cool.

かなりクールです。

Especially if you can start with your own music and then have it extend and improve upon the music you're trying to create.

特に、自分の音楽から始めて、それを拡張し、改善することができれば、作成しようとしている音楽に取り組むことができます。

Here's another little guitar thing that I uploaded the other day.

こちらは先日アップロードした別の小さなギターのものです。

Here's what it turned it into.

これがそれに変換されたものです。

It's something I'd probably listen to, like got some death cab for cutie vibes or something.

これは、おそらく私が聞くだろうもので、デス・キャブ・フォー・キューティーの雰囲気があるとかなんとか。

If I'm being totally honest, out of all of the AI tools that I play with, Sudo is probably the one that I spend the most time playing with lately.

完全に正直であれば、私が遊んでいるAIツールの中で、最近最も時間を費やしているのはおそらくSudoです。

Like I just have so much fun with this tool.

このツールで本当に楽しんでいます。

Anyway, I'm going to move on in other AI art news.

とにかく、他のAIアートのニュースに進みます。

Adobe's overhauling their terms of service to say that it's not going to train AI on its customers works.

Adobeは、顧客の作品を使ってAIをトレーニングしないというサービス条件を見直しています。

People freaked out last week about a terms of service update that implied that they would train on anything you made in Adobe cloud.

先週、Adobeクラウドで作成したものをトレーニングするというサービス条件の更新について人々が騒いでいました。

If you made anything in Photoshop, then Adobe has the right to train on that.

Photoshopで何かを作成した場合、Adobeはそれをトレーニングする権利を持っています。

I think it was probably just poor wording, but they're now backtracking and saying, that's not what we're saying at all.

おそらく単なる誤った表現だったと思いますが、彼らは今、それは全くそうではないと言っています。

We're not actually going to train on your work.

実際には、あなたの作品をトレーニングするつもりはありません。

They're rewriting those terms of service.

彼らはそのサービス条件を書き直しています。

The other massive news this week was the big Apple WWDC event that happened on Monday where they essentially announced they're putting AI and everything.

AppleのWWDCイベントで発表された大きなニュースは、彼らがAIをすべてに組み込むということでした。

They're not putting artificial intelligence and everything.

彼らは人工知能をすべてに組み込んでいるわけではありません。

They're putting Apple intelligence into everything.

彼らはすべてにAppleの知能を組み込んでいます。

I don't want to go into too much detail about the Apple keynote because I did make a fully dedicated video called Apple's huge AI unveiling that I put out on Monday, the same day as the keynote.

Appleの基調講演について詳細には触れたくありませんが、私は月曜日にAppleの大規模なAI発表という完全に専用のビデオを作成しました。

It's 22 minutes long.

そのビデオは22分間です。

I can't really break down all the same stuff at this video cause that would add 22 minutes ish to the length of this video.

このビデオで同じ内容をすべて説明することはできません。なぜなら、その場合このビデオの長さが22分ほど増えてしまうからです。

But here's the ultra fast rundown Apple's building their own AI and it's going to be in everything.

しかし、ここでは超高速でAppleの概要を説明します。彼らは独自のAIを構築し、それがすべてに組み込まれる予定です。

It's going to be on iOS.

iOSに組み込まれます。

It's going to be on iPad.

iPadに組み込まれます。

It's going to be on your Mac.

Macに組み込まれます。

No announcements about AI and Apple Vision Pro, but pretty much all of the normal consumer devices are getting AI.

AIとApple Vision Proに関する発表はありませんが、ほとんどの一般消費者向けデバイスにAIが搭載されます。

You're going to be able to do things like proofread and rewrite and summarize and get the key points from pretty much any text, including things like email.

プルーフリードやリライト、要約、メールなど、ほとんどすべてのテキストからキーポイントを取得することができます。

They're adding AI vision capabilities into both the notes and the calculator apps.

ノートアプリと電卓アプリにAIビジョン機能が追加されます。

You can take notes inside of the notes app.

ノートアプリ内でメモを取ることができます。

It'll summarize it.

それを要約します。

It will actually be able to read any sort of images that are on the screen.

画面上にあるどんな種類の画像でも実際に読むことができるでしょう。

If you write any math on the screen, it will actually be able to solve those math problems for you.

画面に数学の問題を書くと、実際にその数学問題を解くことができます。

That was pretty cool.

それはかなりクールです。

Your email inbox.

あなたのメール受信トレイ。

If you're using like an iPhone is going to get completely overhauled.

iPhoneを使用している場合、完全に刷新されます。

It's going to make the messages that it feels are priority messages rise to the top.

おそらく、それは優先メッセージと感じるメッセージをトップに表示させるでしょう。

It's also going to give you a quick summary.

また、簡単な要約を提供します。

Typically this first line of an email is like the first piece of a sentence from the email.

通常、メールの最初の行はメールからの最初の文のようなものです。

But now it's actually summarizing what the email is about into one sentence using AI.

しかし、今はAIを使ってそのメールの内容を1文にまとめています。

Invited to is a Kaia soft opening by Florence tonight.

今夜はフローレンスによるカイアのソフトオープニングに招待されました。

Check in for flight to New York, order lunch and coffee for Anita's 12 PM meeting.

ニューヨーク行きのフライトのチェックイン、Anitaの12時の会議のためのランチとコーヒーを注文してください。

It sort of summarized all this stuff instead of just showing you the first sentence, making a quick glance at your email, much more useful.

最初の文だけを表示する代わりに、このすべてを要約して、メールを一目で見ることがより便利になりました。

It's also going to summarize emails.

また、メールを要約します。

You can see the emails down below and up at the top, we get a quick summary.

下にメールを見ることができ、トップでは簡単な要約が表示されます。

It will also generate smart replies.

スマートな返信も生成します。

They selected the text of the message. And then it asks questions.

彼らはメッセージのテキストを選択しました。そして質問をします。

Will you be joining?

参加しますか?

Will you be driving or taking an Uber?

運転しますか、それともUberを利用しますか?

You answer these questions and it writes a reply with the responses in it.

これらの質問に答えると、その回答を含んだ返信が書かれます。

They're also doing this with your notifications, which is going to be awesome for text messages.

彼らは通知でも同じことをしており、テキストメッセージにとって素晴らしいことになります。

You can see the example here.

ここに例があります。

This person has a text message and it says invite for dinner with Sandy and her boyfriend.

この人はテキストメッセージを受け取り、それにはSandyと彼女の彼氏とのディナーの招待が書かれています。

That's not the message of the text.

それがテキストのメッセージではありません。

It's summarizing the text message so you don't have to open it and read it right this moment.

テキストメッセージを要約しているので、今すぐ開いて読む必要はありません。

You can just quickly glance at your phone and see what the text is about.

電話をサッと見て、そのテキストが何についているかを確認するだけで済みます。

That seems to work with all notifications.

それはすべての通知と一緒に機能するようです。

Here's one from Instacart.

これはInstacartからのものです。

Here's one from Slack.

これはSlackからのものです。

Here's another example where it determined this one was possibly important.

これは、これがおそらく重要なものであると判断された別の例です。

It says Chloe needs to be picked up at 2 30 PM.

それによると、クロエは午後2時30分に迎えに来てほしいと言っています。

This to me is probably going to be one of the most handy features to just add a glance, get a summary of any of your notifications.

これは、私にとっておそらく、通知の要約を簡単に追加して、どんな通知でも一目でわかる最も便利な機能の1つになるでしょう。

They're rolling out a new image generation feature that they call image Playground.

彼らは、画像プレイグラウンドと呼ぶ新しい画像生成機能を展開しています。

This is Apple's model that generates images just like Meta's EMU, just like Adobe's Firefly, Google's Imagine.

これは、Appleのモデルであり、MetaのEMUやAdobeのFirefly、GoogleのImagineと同様に画像を生成するものです。

Apple has image Playground and it doesn't do realistic.

Appleには画像プレイグラウンドがあり、それは現実的ではありません。

It only allows you to do animations, illustrations, and sketches.

それはアニメーション、イラスト、スケッチを行うことしか許可しません。

They're obviously trying to avoid their tools being used for things like deep fakes.

彼らは明らかに、ディープフェイクのようなものに彼らのツールが使用されるのを避けようとしています。

I also really like this UI where it's got these images cat party chef, and then it makes a cat party chef, right?

私はまた、このUIが本当に気に入っています。画像がキャットパーティーシェフという画像を持っていて、それからキャットパーティーシェフを作成しますね?

It's kind of got this different UI where you can see the various contexts that it's going to try to blend into a single image.

それは、単一の画像にブレンドしようとするさまざまなコンテキストを見ることができる異なるUIを持っています。

It's also going to be able to know what people look like in your contact.

また、連絡先にどのような人がいるかを知ることができるようになります。

If you've got a contact and it actually can see their image, you'll be able to generate images of those people.

もし連絡先があり、実際にその人の画像を見ることができる場合、その人の画像を生成することができます。

But again, not only in cartoony styles, no like deep fake stuff.

しかし、また、カートゥーニーなスタイルだけでなく、ディープフェイクのようなものではありません。

Here's another example where you could see the image here and then a new image was generated.

ここでは、ここで画像を見ることができ、新しい画像が生成されました。

They have a new gen emoji feature where you can create your own emojis with AI.

AIを使って自分自身の絵文字を作成できる新しい絵文字機能があります。

It appears that after you create a gen emoji, it saves it inside of your normal emojis so that you can reuse that same one again in the future if you want.

あなたがジェンエモジを作成した後、それを通常の絵文字の中に保存して、将来同じものを再利用できるようになります。

Those can also be used as tap backs.

それらはタップバックとしても使用できます。

Instead of just thumbs up, thumbs down, ha ha exclamation, et cetera, you can now use any emoji, including the gen emojis that you created.

単にサムズアップ、サムズダウン、ハハの感嘆符などではなく、作成したジェンエモジを含む任意の絵文字を使用できるようになりました。

There's some new photo editing features.

新しい写真編集機能がいくつかあります。

You can remove people in the background, clean up your photos a little bit, new contextual awareness of photos.

背景の人を取り除いたり、写真を少し整理したり、写真の文脈認識が新しくなりました。

You can do more semantic search across all of your photos, find exactly what you're looking for.

すべての写真を対象としたより多くの意味論的検索ができ、正確に探しているものを見つけることができます。

We'll also create memories.

私たちは思い出も作成します。

You can give it a prompt like everything we ate in Japan, Leo trick or treating, with a spooky vibe last summer in our garden.

日本で食べたものすべて、レオのトリックオアトリート、去年の夏に庭でのお化けの雰囲気など、プロンプトを与えることができます。

It will generate a custom photo storyline for you based on your prompt series, getting a bunch of updates.

あなたのプロンプトシリーズに基づいて、カスタム写真ストーリーを生成します。

You're going to be able to type directly to series.

直接シリーズにタイプできるようになります。

You don't actually have to talk to it anymore.

もうそれと話す必要はありません。

If you don't want, you can type what you want from it.

望まない場合は、それから何をタイプしても構いません。

When you do use Siri, it's also going to try to run the AI directly on device.

Siriを使用する場合、デバイス上でAIを直接実行しようとします。

It's going to know the context of your apps and your emails and your text messages and anything you want to give it access to.

アプリやメール、テキストメッセージなどのコンテキストを認識し、アクセスを許可したいものすべてを知ることになります。

It will know that stuff.

それらのことを知るでしょう。

You can say, Hey, what was I supposed to do today?

「今日何をすべきだったかな?」と言うことができます。

It'll look at your calendar, your email, your messages, and across all of the context of communications, Figure out if there was anything you were supposed to remember to do today.

あなたのカレンダーやメール、メッセージを見て、コミュニケーションの文脈全体を通じて、今日覚えておくべきことがあったかどうかを見つけ出します。

That is going to be able to do directly on device.

それはデバイス上で直接行うことができるようになります。

There's also a Apple cloud, which is supposedly completely secure.

Appleクラウドもあり、完全に安全だと言われています。

They're not storing any identifiable information on you.

彼らはあなたに関する識別可能な情報を一切保存していません。

In fact, from what I understand, all the information is encrypted.

実際、私の理解では、すべての情報は暗号化されています。

They don't even know what your information is when it sends to the cloud.

クラウドに送信される際、彼らはあなたの情報が何であるかさえ知りません。

A third option is they're partnering with OpenAI.

第三の選択肢は、彼らがOpenAIと提携していることです。

If you ask Siri a question that OpenAI is better suited to answer, it will actually ask you, do you want us to send this question to ChatGPT for you?

SiriにOpenAIがより適している質問をすると、実際には、この質問をChatGPTに送信してもらいますか?と尋ねられます。

In fact, here's a quick screenshot of what that looks like.

実際、これがそのように見えるクイックスクリーンショットです。

You ask Siri a question.

Siriに質問します。

Do you want me to use ChatGPT to do that?

ChatGPTを使用してもいいですか?

You could either cancel or use ChatGPT, but really there are so many things that they announced in the AI world from that keynote.

キャンセルするか、ChatGPTを使用するか選択できますが、実際には、その基調講演で発表されたAIの世界の中でたくさんのことがあります。

Check out the video.

そのビデオをチェックしてください。

If you haven't already about the Apple event, cause that breaks down pretty much all of the AI stuff that they talked about.

Appleのイベントについてまだであれば、ほとんど彼らが話したAIのすべてを細かく説明しています。

I kind of skipped over a bunch right now.

今、私はいくつかスキップしました。

During this entire hour and 45 minute keynote from Apple, they spent roughly two minutes of it talking about how they partnered up with OpenAI to integrate ChatGPT.

Appleのこの1時間45分の基調講演中、彼らはOpenAIと提携してChatGPTを統合する方法について約2分間話しました。

A lot of people were curious, well, how did that deal look?

多くの人が興味を持っていましたが、その取引はどのように見えたのでしょうか?

Is ChatGPT paying Apple to put it in there?

ChatGPTはAppleに支払ってそれをそこに入れるのでしょうか?

Is Apple paying ChatGPT to use the tech?

AppleはChatGPTに技術を使用するために支払っているのでしょうか?

It turns out that nobody's paying anybody here.

実際には、ここでは誰も誰かに支払っていません。

Apple is getting access to the tech OpenAI is getting more exposure for the tech.

Appleは技術へのアクセスを得て、OpenAIは技術へのより多くの露出を得ています。

That's essentially the exchange that they're doing.

それが彼らが行っている実質的な交換です。

There's really no cash exchanging hands.

お金のやり取りは実際には行われていません。

This Apple event that happened on Monday, it went over quite well among investors.

月曜日に起こったこのAppleのイベントは、投資家の間でかなり好評でした。

In fact, Apple took over the top spot on the world's largest companies.

実際、Appleは世界最大の企業のトップに躍り出ました。

They're now the number one company by market cap.

彼らは今や時価総額でナンバーワンの企業です。

Once again, passing Microsoft.

再び、Microsoftを抜いて。

I really think we're going to see these three companies here kind of constantly flip flop with each other.

私は本当に、これらの3つの企業が常に入れ替わり立ち替わりするのを見ると思います。

I think NVIDIA is going to rise again.

NVIDIAが再び上昇すると思います。

I think Microsoft's going to rise again.

Microsoftが再び上昇すると思います。

I think these three companies are all going to kind of bounce around being the top companies for a moment.

これらの3つの企業が一時的にトップ企業であることを考えると、私はそう思います。

It's going to be interesting to watch.

見ているのは面白いことになるでしょう。

After Apple's keynote, Elon Musk tweeted, if Apple integrates OpenAI at the OS level, then Apple devices will be banned at my companies.

Appleの基調講演の後、イーロン・マスクはツイートしました。AppleがOpenAIをOSレベルで統合すれば、Appleのデバイスは私の会社では禁止されるでしょう。

This is an unacceptable security violation.

これは許容できないセキュリティ違反です。

Just to clarify, OpenAI is not operating at the OS level.

OpenAIはOSレベルでの運用はしていないことを明確にすると、

In fact, they made it very clear that when you ask Siri a question, it's going to try to use the on device or Apple cloud service first. And then try to use ChatGPT.

実際、彼らは非常に明確に述べています。Siriに質問をすると、まずデバイス上またはAppleクラウドサービスを使用しようとします。そしてChatGPTを使用しようとします。

If ChatGPT is going to give the better answer.

ChatGPTがより良い回答をする場合。

But even when it uses ChatGPT, it's going to anonymize any sort of information.

しかし、ChatGPTを使用する場合でも、いかなる情報も匿名化されます。

ChatGPT is not even going to get your IP address when you ask the question.

質問をするときにChatGPTはあなたのIPアドレスさえ取得しません。

Elon also went on to tweet Apple using the words, protect your privacy, while handing your data over to a third party AI that they don't understand and can't themselves create is not protecting privacy at all.

イーロンはまた、Appleに対して、あなたのデータを理解できず、自ら作成することができない第三者のAIにデータを渡すことはプライバシーを保護していないと言っています。

Obviously, Elon Musk has got some beef with OpenAI lately.

明らかに、イーロン・マスクは最近OpenAIと何かしらの問題を抱えているようです。

If I had to guess, he probably wishes it was Grok that was getting integrated and not OpenAI's tech, but this got an added context memo to it that says, assumption made here misrepresents what was actually announced.

もし推測しなければならないなら、おそらく彼はGrokが統合されているのではなく、OpenAIの技術が統合されていることを望んでいるでしょうが、これには実際に発表された内容を誤解しているという追加の文脈メモが付いています。

Apple intelligence is Apple's own creation and ChatGPT access is entirely separate and controlled by the user.

Apple IntelligenceはApple自身の創造物であり、ChatGPTのアクセスは完全に別個でユーザーによって制御されています。

You control when ChatGPT is used and will be asked before any of your information is shared.

ChatGPTが使用されるタイミングはあなたがコントロールし、あなたの情報が共有される前に許可を求められます。

Remember this screenshot?

このスクリーンショットを覚えていますか?

Do you want me to use ChatGPT to do that?

それを行うためにChatGPTを使用してほしいですか?

You have to actually allow it to use ChatGPT.

実際にChatGPTを使用する許可を与える必要があります。

Marquez responded.

マルケスは返答しました。

I asked Tim Cook, he said Apple at no point sends any of your data to OpenAI without explicit user permission.

お聞きしたところ、ティム・クックは、Appleは明示的なユーザーの許可なしにOpenAIにデータを送信しないと述べました。

Since we're talking about Elon anyway, and Elon's beef with OpenAI, if you remember a couple months ago, Elon sued OpenAI.

イーロンについて話しているので、イーロンとOpenAIの確執について覚えている方もいるかもしれませんが、数ヶ月前、イーロンはOpenAIを訴えました。

He claimed that there was a breach of contract and fiduciary duty claiming that OpenAI team had set out to develop artificial general intelligence for the benefit of humanity.

彼は、OpenAIチームが人類の利益のために人工知能を開発することを目指していたと主張し、契約違反と信託義務違反があったと主張した。

But then the project was transformed into a for-profit entity that's largely controlled by principal shareholder Microsoft.

しかし、その後プロジェクトは主要株主であるMicrosoftによって主に管理される営利事業体に変わりました。

This week, Elon decided to drop the case.

今週、イーロンはその件を取り下げることに決めました。

Back when this was originally announced, Sam Altman and the team showed a whole bunch of emails back and forth between Elon and the OpenAI team showing that Elon was on board with all of these plans back when they happened.

当初これが発表されたとき、サム・アルトマンとチームは、イーロンとOpenAIチームとの間で行き来するメールの一連を示し、イーロンがそれらの計画すべてに賛成していたことを示していました。

I think Elon realized eventually, he just doesn't have a case here.

私はイーロンが最終的に気づいたのは、彼にはここでの主張がないということだと思います。

In other OpenAI news here, OpenAI brought on two new sea level executives.

OpenAIはこちらで、新たに2人の海外幹部を迎え入れました。

They brought on Sarah fryer as the CFO.

彼らはSarah FryerをCFOとして迎え入れました。

She was previously the CEO of next door and previously the CFO of square.

彼女は以前、next doorのCEOであり、以前はsquareのCFOでした。

They also brought in Kevin wheel, Kevin Weill as the CPO.

また、Kevin WeillをCPOとして迎え入れました。

He was recently the president of product and business at planet labs.

彼は最近、planet labsのプロダクトおよびビジネスの社長でした。

He also worked on Libra cryptocurrency, worked at Facebook, worked at Instagram and worked at Twitter.

彼はリブラ暗号通貨にも取り組み、Facebookで働き、Instagramで働き、Twitterでも働いていました。

I don't really know too much about these two people, but they both seem to have fairly impressive resumes.

私はこの2人についてあまり詳しく知りませんが、どちらもかなり印象的な経歴を持っているようです。

Microsoft is making a change to their Copilot pro.

Microsoftは彼らのCopilotプロに変更を加えています。

If you remember OpenAI rolled out GPTS and the GPT store and allowed people to make custom GPTS.

もしOpenAIがGPTSとGPTストアを展開し、人々がカスタムGPTSを作成することを許可したことを覚えているならば。

Microsoft went, okay, we're going to add that same feature into Copilot.

Microsoftは、「わかりました、Copilotにその同じ機能を追加します」と言いました。

You can now create your own custom GPTS using Copilot outside of OpenAI's ChatGPT, but it's basically the same thing, just in Copilot instead of ChatGPT.

あなたは今、OpenAIのChatGPTの外でCopilotを使用して独自のカスタムGPTSを作成することができますが、基本的には同じものです。ChatGPTの代わりにCopilotで行うだけです。

But to be honest, they still haven't really totally caught on inside of ChatGPT and they definitely never really caught on over at Copilot.

しかし、正直に言うと、ChatGPTの中でもまだ完全に浸透しているとは言えず、Copilotでも決して本当に浸透していません。

Microsoft is just getting rid of them.

Microsoftはそれらをただ取り除いているだけです。

I'm guessing it just wasn't getting used enough.

たぶん、それは十分に使われていなかったのだと思います。

We've got a new best open source model this week, Quinn 2.

今週、私たちは新しい最高のオープンソースモデル、Quinn 2を手に入れました。

According to all of the benchmark testing on this Quinn 2, it outperforms LLaMA 370B in every single benchmark, as well as Mixtral 8X22B and the Quinn 1.5 110B that came before it.

このQuinn 2に関するすべてのベンチマークテストによると、LLaMA 370BやMixtral 8X22B、そしてそれより前のQuinn 1.5 110Bを上回っています。

It's actually a model with less parameters than the last Quinn model, roughly the same amount of parameters as the LLaMA 3 model.

前のクインモデルよりもパラメーターが少ないモデルで、LLaMA 3モデルとほぼ同じ数のパラメーターを持っています。

If you look at these scores in a lot of these benchmarks, it blows LLaMA 3 out of the water.

これらのベンチマークの多くで、LLaMA 3を圧倒しています。

Like human eval 64 verse 48 in this C eval 91 verse 65.2 CMM LU 90.1 verse 67.2.

このC評価91の第65.2節で、人間の評価64の第48節のようになります。CMM LU 90.1の第67.2節です。

I don't actually remember what all of these benchmark tests do.

実際、これらのベンチマークテストが何をするか覚えていません。

I turned to people like Matthew Berman for that kind of stuff.

私はその種のことについて、マシュー・バーマンのような人々に頼りました。

I'm pretty sure he did a video about Quinn 2.

彼はクインに関するビデオを作ったと思います。

Check that out if you haven't already.

もしあなたがまだそれをチェックしていないなら、それをチェックしてみてください。

If he did actually make one, if he didn't, I bet he will soon, but it seems to be getting really, really impressive scores, especially since LLaMA 3 was already really dang impressive.

もし彼が実際に作ったなら、もし作っていないなら、彼はすぐに作るだろうと思いますが、LLaMA 3はすでに非常に印象的なスコアを獲得しているようです。

Quinn 2.72B is beaten at everything.

あなたはどんなことでもQuinn 2.72Bに負けてしまいます。

A photographer this week was disqualified from an AI image contest after winning with a real photo, which is interesting to me because we've seen the reverse of the news quite a bit where people sent in AI generated images to photo contests and got disqualified because they found out it was AI.

今週、写真家がAI画像コンテストで実際の写真で優勝した後、失格となりました。これは興味深いです。なぜなら、逆のニュースをよく見かけるからです。人々がAIが生成した画像を写真コンテストに送り込んで、AIだとわかったために失格になるというニュースをよく見かけるからです。

This image actually won an AI contest.

この画像は実際にAIコンテストで優勝しました。

It was generated by Miles Estre.

これはマイルズ・エストレによって生成されました。

It turns out it's a real image.

実はこれは本物の画像だったんです。

It's not AI generated.

それはAIによる生成ではありません。

He was trying to prove a point that human creativity is still valuable and people still tend to prefer that over AI generated art.

彼は、人間の創造性がまだ価値があり、人々がAIによる芸術よりもそれを好む傾向があることを証明しようとしていました。

That's what I got for you today.

それが今日の私からの情報です。

I hope you enjoyed this video.

あなたがこのビデオを楽しんでくれたら嬉しいです。

I hope you feel much more looped in on what's going on in the world of AI.

AIの世界で何が起こっているか、もっと理解できたらいいなと思います。

I really enjoyed making this video cause I always love it when I get to actually show off tools that we can use now and show you results from what those tools can create.

今回のビデオを作るのが本当に楽しかったです。今使えるツールを実際に紹介して、そのツールが作り出す結果をお見せできるときはいつも嬉しいです。

Really, really fun week in AI.

一週間のAIは本当に楽しかったです。

A lot of cool stuff for creators that love to make video, that love to make art, that love to make music.

ビデオを作るのが好きなクリエイターや、アートを作るのが好きなクリエイター、音楽を作るのが好きなクリエイターにとって、たくさんの素敵なものがあります。

Much cool stuff.

たくさんの素敵なものがあります。

If you like staying in the loop with all this stuff, make sure you check out futuretools.io.

このような情報についていつも最新情報を知りたい場合は、futuretools.ioをチェックしてください。

I curate all of the cool AI tools that I come across.

私は出会ったすべての素敵なAIツールを厳選しています。

It's updated almost daily.

ほぼ毎日更新されています。

I also keep the AI news page up to date.

私もAIニュースページを常に最新の状態に保っています。

Any news that I miss in these news videos, they get shared on this news page and I record these on Thursdays, release them on Fridays.

これらのニュースビデオで見逃したニュースは、このニュースページで共有され、木曜日に記録し、金曜日に公開されます。

There is probably even some AI news that I missed in this video, but it will be listed over on this AI news page so that you can be fully looped in.

このビデオで見逃したAIニュースがあるかもしれませんが、このAIニュースページにリストされるので、完全に情報を得ることができます。

Also make sure you join the free newsletter.

無料のニュースレターにも参加してください。

I'll send you just the most important news and just the absolute coolest tools that I come across.

重要なニュースと私が見つけた最も素晴らしいツールだけをお送りします。

It's totally free to join.

参加は完全に無料です。

When you do join, you get access to the AI income database, which is a database of cool ways to make money using these various AI tools.

参加すると、これらのさまざまなAIツールを使用してお金を稼ぐクールな方法が記載されたAI収入データベースにアクセスできます。

I'm also constantly doing giveaways and freebies and raffles and things like that.

私は常にプレゼントや無料配布品、抽選会などを行っています。

The people that are subscribed to both the YouTube channel and the newsletter.

YouTubeチャンネルとニュースレターの両方に登録している人々。

Make sure you subscribe to the newsletter.

ニュースレターに登録することを忘れないでください。

Totally free at futuretools.io.

futuretools.ioでは完全に無料です。

If you want to stay looped in on the AI news, you like videos like this, you like AI tutorials, you like learning about the latest AI tools, make sure you like this video and subscribe to this channel and I'll make sure more stuff like this shows up in your YouTube feed.

AIのニュースについて最新情報を知りたい場合、このようなビデオが好きな場合、AIチュートリアルが好きな場合、最新のAIツールについて学びたい場合は、このビデオにいいねをしてこのチャンネルに登録してください。そうすれば、このようなコンテンツがもっとYouTubeのフィードに表示されるようにします。

Thank you so much for tuning in.

ご視聴いただき、ありがとうございます。

I really, really appreciate you nerd now with me.

私はあなたが今私と一緒にいることを本当に本当に感謝しています。

I have so much fun making these videos every week and recapping everything that I find fascinating that I think you'll find fascinating.

毎週これらの動画を作るのがとても楽しく、私が魅力的だと思うことをまとめるので、あなたも魅力的だと思うと思います。

Hopefully you come back and watch more of them.

ぜひまた戻ってきて、もっとたくさん見てくださいね。

Thanks again.

改めてありがとうございます。

Really appreciate you.

本当に感謝しています。

See you in the next one.

次の動画でお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?