見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2024年1月27日|@Matt Wolfe】

この動画は、最近のAI技術の進展と特にAIビデオ生成技術に関する多くのトピックを紹介しています。TikTokの親会社ByteDanceによる「MagicVideo-V2」はテキストからビデオを生成する改良されたモデルです。Googleの「Lumere」は、テキストや画像からビデオを生成できる一方、スタンフォードとAdobeが共同で開発した「ActAnywhere」は、被写体と背景を組み合わせて動画を作成します。また、Google Chromeの最新AIアップデートは、新しいタブ管理やテーマ作成などの機能を提供します。Googleの「Gemini」ツールは検索広告のカスタマイズを容易にし、「Art Selfie」機能では自分の顔を歴史的な画像に挿入できます。MidjourneyのV6モデルは画像の拡大や修復を簡単にし、ElevenLabsは8000万ドルを調達し、「Dubbing Studio」で音声や動画ファイルの翻訳を可能にしました。さらに、AIによるジョー・バイデンの偽ロボコールが問題になっています。OpenAIはGPT-3.5 Turboの価格を下げ、GPT-4 Turboを更新し、チップ工場の設立計画を立てています。GoogleとHugging FaceはオープンAIコラボを開始し、Apple Podcastは自動トランスクリプト機能を導入、Disneyはメタバース用のプラットフォームを開発しています。
公開日:2024年1月27日
※動画を再生してから読むのがオススメです。


There's been a ton of really cool AI announcements and research that's been coming out lately, and to be quite honest, most of it's been flying under the radar.

最近、本当にクールなAI関連の発表や研究がたくさん出てきているんですが、正直言って、そのほとんどがあまり注目されていない。

Especially some of this really cool stuff that we're getting in the world of AI video generation.

特に、AIによる映像生成の世界では、本当にクールなものが出てきている。

For example, ByteDance, the creator of TikTok, recently released this research paper called MagicVideo-V2.

例えば、TikTokを開発したByteDanceは最近、MagicVideo-V2という研究論文を発表した。

It's a text-to-video model that is quite improved over text-to-video models we've had previously.

これは、テキストを動画に変換するモデルで、これまでのテキストを動画に変換するモデルよりもかなり改善されています。

This website has tons and tons of examples of text-to-video prompts, like a walking figure made out of water, Hulk wearing virtual reality goggles, a fat rabbit wearing a purple robe walking through a fantasy landscape, and much, much more.

このウェブサイトには、水から作られた歩くフィギュア、バーチャル・リアリティのゴーグルをつけたハルク、ファンタジー風景の中を歩く紫のローブを着た太ったウサギなど、テキストからビデオへのプロンプトの例が大量に掲載されている。

But if we come down here, we can actually compare it to the existing video models that are available.

しかし、ここに降りてくれば、実際に既存のビデオモデルと比較することができる。

So, this left column that we see here is all Magic-V2.

ですので、ここに見える左の列はすべてMagic-V2です。

The middle videos are Stable Video Diffusion.

真ん中はStable Video Diffusionです。

And then what we're seeing on the right is, on the top, we've got Pika, and on the bottom, we've got Runway Gen-2.

そして、右側に見えるのは、上にはPikaがあり、下にはRunway Gen-2があります。

MagicVideo-V2 seems to do a pretty decent job and quite a bit better than the alternatives.

MagicVideo-V2は、かなりまともな仕事をしているようで、他の選択肢よりもかなり優れています。

Now, Stable Video Diffusion and MagicVideo-V2 look pretty similar.

さて、Stable Video DiffusionとMagicVideo-V2はかなり似ている。

I like the colors better in Magic Video.

私はMagic Videoの方が色が好きだ。

But then, comparing it to Pika and Gen-2, Pika almost looks like a guy wearing a cape and there's no details at all.

しかし、PikaとGen-2と比較すると、Pikaはほとんどマントを着た男のように見え、ディテールがまったくない。

Gen-2, the guy appears to be just sort of walking in place or even walking backwards.

Gen-2は、ただなんとなくその場を歩いているように見えるし、後ろ向きに歩いているようにも見える。

And there are just a ton of examples here showing how Magic-V2 compares against the existing platforms.

そして、Magic-V2が既存のプラットフォームと比較してどうなのかを示す例が、ここには山ほどある。

And if you'd like to take a peek at some of these, as well as get more details about how the actual research works, I will link it up in the description below.

そして、これらのいくつかを覗いてみたい、また実際の研究がどのように機能しているのかもっと詳しく知りたいという方は、下の説明にリンクを貼っておく。

Unfortunately, this isn't a piece of tech that we have access to yet.

残念ながら、これはまだ我々がアクセスできる技術ではない。

We can't actually play with this one yet.

まだ実際にこれで遊ぶことはできない。

And really, the same goes for this next one called Lumere, which is just on another level when it comes to AI video.

次に紹介する「Lumere」も同様で、AIビデオに関しては別次元のものだ。

This one comes out of Google Research, and it can do some pretty realistic text-to-video.

これはGoogle Researchから生まれたもので、かなり現実的なテキストからビデオへの変換が可能です。

For example, this prompt right here: a dog driving a car on a suburban street wearing funny sunglasses.

例えば、このプロンプトは、犬が変なサングラスをかけて郊外の道路で車を運転しています。

The video is kind of realistic.

動画はちょっとリアルだ。

Chocolate syrup pouring on vanilla ice cream.

チョコレートシロップをバニラアイスクリームにかける。

Sailboat sailing on a sunny day in a mountain lake.

山の湖で晴れた日に航行するヨット。

A red Lamborghini advented door coming around a bend in a mountain road or one of my favorites: silhouette of a wolf against a twilight sky.

赤いランボルギーニがアドベンティドアで山道のカーブを曲がっているのを見るのは、私のお気に入りの一つです。また、夕暮れの空に映るオオカミのシルエットも好きです。

These are truly impressive.

これらは本当に印象的だ。

But this Lumiere video doesn't only do text-to-video, it also does image-to-video.

しかし、このLumiereのビデオは、テキストからビデオに変換するだけでなく、画像からビデオに変換することもできる。

So, for example, if I hover over this one, we could see the original image combined with the prompt: Bigfoot walking through the woods.

例えば、この動画にカーソルを合わせると、元の画像とプロンプトが表示される: 森を歩くビッグフット。

When I unhover, you can see the animation that it created from it.

カーソルを外すと、そこから作成されたアニメーションを見ることができる。

Up here, we have a turtle swimming.

ここではカメが泳いでいます。

We can see just a shot of a turtle.

亀のショットを見ることができます。

If I move away from it, you can see the turtle sort of looks into the camera, and it's really realistic looking.

離れてみると、カメがカメラを覗き込んでいるように見え、とてもリアルに見えます。

It's also capable of matching styles of input images.

また、入力画像のスタイルに合わせることもできる。

So, for example, they gave it this tree sticker-looking image.

例えば、木のステッカーのような画像を与えた。

And then, gave it the prompt of a colorful parrot showing off its vibrant feathers.

そして、鮮やかな羽を見せるカラフルなオウムのプロンプトを与えました。

And you can see that it sort of animated a coloring that matches the same style as the input image.

すると、入力画像と同じスタイルのカラーリングがアニメーションで表示されるのがわかるだろう。

Again, there are just tons of cool examples here where you can see it's matching the style from the image on the left, but then adhering to the prompt that was given.

再度、ここでは左側の画像のスタイルに合わせていますが、与えられたプロンプトに従っています。

My favorite is actually this one right here, where you've got this sort of glowing mushroom.

実際には、ここにあるこのキノコが一番お気に入りです。光るようなキノコです。

They give a prompt of a lion with a majestic man roaring, and you can see it animates this lion roaring, but it follows the same sort of glowing in the dark look.

彼らは壮大な男性が咆哮するライオンのプロンプトを与え、それが咆哮するライオンをアニメーション化しているのが見えますが、それは同じような光る暗闇のような見た目に従っています。

It's also capable of cinemagraphs, which is basically where you just take a section of the image and say, I wanted to animate just that piece.

シネマグラフも可能で、基本的には画像の一部分だけを取り出して、その一部分だけをアニメーション化したいと言います。

So, for example, they selected just the butterfly.

例えば、彼らはただ蝶だけを選んだのです。

The rest of the image is still, but the butterfly is animated.

画像の他の部分は静止していますが、蝶だけはアニメーションになっています。

A picture of a bonfire, they selected just the bonfire.

焚き火の写真では、焚き火だけを選択する。

The rest of the image is frozen, but the bonfire is animated.

画像の残りの部分はフリーズしているが、かがり火はアニメーションしている。

And there are some other examples here.

他にもいくつか例があります。

It can also do video inpainting.

ビデオのインペインティングもできます。

So, they took this source video here, masked out the side of it, and then it inpainted more balloons behind it.

つまり、このソースのビデオを取り出し、その側面をマスクアウトし、さらにその後ろに風船をインペイントしたのです。

Now, the newest version of Pika Pika 1.0 is capable of doing this kind of stuff, but again, this is just another level that we haven't seen yet.

最新版のPika Pika 1.0ではこのようなことが可能だが、今回もまだ見たことのないレベルだ。

Here's some more examples of inpainting, where there's the source video of this woman spinning around, and they were able to select just her body up here and give different prompts: wearing a gold strapless gown, wearing a striped strapless dress, wearing a purple strapless dress, wearing a black strapless gown.

インペインティングの例をいくつか紹介しましょう。この女性がくるくる回っているソース動画がありますが、ここで彼女の体だけを選択し、さまざまなプロンプトを与えることができました:ゴールドのストラップレスドレスを着ている、ストライプのストラップレスドレスを着ている、パープルのストラップレスドレスを着ている、ブラックのストラップレスドレスを着ている。

You can see the videos pretty much stay identical, other than the clothes that she's wearing at the moment.

ビデオはほぼ同じであり、ただその時に彼女が着ている服だけが異なります。

This is still just a giant tease.

これはまだ巨大なおふざけでしかない。

Google showed it off, basically told us, Look what's coming with AI video, but then there's really no platform to access it through.

Googleはそれを披露し、AIビデオで何が来るかを教えてくれましたが、実際にアクセスできるプラットフォームはありませんでした。

And knowing Google, I doubt it's going to be open source.

Googleのことだから、オープンソースになるとは思えない。

We'll just have to see what Google tool this tech ends up in and how we'll get to play with it.

私たちは、この技術がどのようなGoogleのツールに搭載され、どのように私たちがこの技術で遊べるようになるかを見守るしかない。

But it's looking really, really impressive.

しかし、本当に、本当に素晴らしいものになりそうだ。

The distance we've come in the world of AI video between this time last year and now is just mind-blowing, in my opinion.

AIビデオの世界では、昨年のこの時と今との間の進歩は、私の意見では驚くべきものです。

And while we're on the topic of AI video, here's some more research that we don't necessarily have access to.

AIビデオの話題のついでに、私たちが必ずしもアクセスできるわけではない研究をもう少し紹介しよう。

Don't worry, I'm going to show off some tools we have access to, but this is some of the coolest research that's been coming out.

ご心配なく、私たちが利用できるツールをお見せしますが、これは最もクールな研究の一部です。

And these are a little bit of a sneak peek into the future of what we're going to get with some of our AI tools real soon.

これらは、私たちのAIツールのいくつかを使って、私たちが本当にすぐに手に入れようとしている未来へのちょっとした覗き見です。

So, this one's called ActAnywhere, and it's from Stanford and Adobe.

これはActAnywhereと呼ばれるもので、スタンフォード大学とアドビによるものです。

And what's really cool about this is they isolated a subject moving, then they gave it a background.

これはスタンフォード大学とAdobeによるもので、動いている被写体を分離し、それに背景を与えています。

And then, when they combined them, the background actually moves along with the animation.

そして、それらを組み合わせると、背景がアニメーションに合わせて実際に動くのです。

So, it knows that this is a woman running, and then the background is moving at a similar pace to what she's running at.

つまり、これは走っている女性であり、背景は彼女が走っているのと同じようなペースで動いているのです。

We can see some more examples down here.

この下にもいくつか例があります。

Here's the original video of a duck just kind of swimming around in a pond.

アヒルが池の中をただ泳ぎ回っているオリジナルのビデオです。

You can see this is not used as a model input.

これはモデル入力として使われていないことがわかるだろう。

They just segmented out the duck to get this little piece of the duck without the water.

アヒルを分割して、水のないアヒルの断片を取り出しただけです。

They added an image of a bonfire with a duck in front of the bonfire, and then it followed the same animation pattern from up here and combined it with this video of the fire.

焚き火の前にアヒルがいる焚き火の画像を追加し、ここから同じアニメーションパターンをたどって、焚き火の動画と組み合わせました。

Here's another one of Like a Surgeon or someone getting ready.

これは外科医か誰かが準備をしているようなものです。

You can see here's the segmented out video, and then here's the final output from this background where the background sort of moves with the animation.

ここにはセグメント化されたビデオがあります。そして、ここには背景がアニメーションと一緒に動く背景からの最終出力があります。

It's sort of aware of the animation and then makes sure that it all lines up and is congruent.

それはアニメーションを認識して、すべてが整合していることを確認します。

And again, lots of really cool examples.

また、本当にクールな例がたくさんあります。

Somebody kite surfing here, somebody running along the beach, and now over here they're running along a lake.

カイトサーフィンをしている人、ビーチを走っている人、そして今度は湖を走っている人。

And instead, somebody on a jet ski got transferred to a horse.

代わりにジェットスキーに乗っていた人が馬に乗り移った。

Just some really, really cool tech that we're seeing come out of this.

本当に、本当にクールな技術がここから生まれている。

Again, I'll make sure this is linked up below so you can see all of the examples here as well as learn about the actual research if you want to learn more.

また、下にリンクを貼っておきますので、ここでのすべての例を見ることができますし、実際の研究についても学ぶことができます。

And since we're on the topic of AI vide, some of you may have seen this already, some of you may have not, but Kanye West just released a new song and pretty much the entire video looks like it was all generated with AI.

そして、AIビデオの話題についてですが、あなたたちの中にはこれをすでに見た人もいるかもしれませんし、見ていない人もいるかもしれませんが、カニエ・ウェストが新曲をリリースし、ほぼ全体のビデオがAIで生成されたように見えるということです。

I'm not going to get into too much commentary around this and how I feel about Kanye and all that sort of thing, but it is cool to see more of this AI generation kind of becoming mainstream.

カニエについてどう思うかとか、そういうことをあまり論評するつもりはないが、このAI世代が主流になりつつあるのを見るのはクールなことだ。

It doesn't even appear he used some of the best, most recent AI video generation tech, but it still looks pretty cool and it's interesting again to see someone as mainstream as Kanye starting to use this tech.

彼は最新のAIビデオ生成技術を使ったわけではないようだが、それでもかなりクールに見えるし、カニエのような主流派がこの技術を使い始めるのを見るのはまた面白い。

I'm sure he's probably getting a ton of backlash for it too.

カニエのようなメインストリームの人物がこの技術を使い始めたのは、また興味深いことだ。

Let you finish.

最後まで言わせてくれ。

Next up, let's talk about using AI to grow your LinkedIn account.

次は、AIを使ってLinkedInのアカウントを増やすことについて話そう。

It's actually really easy to do with today's sponsor, Taplio.

今日のスポンサーのTaplioを使えば、実はとても簡単です。

Taplio understands your LinkedIn account and the types of posts that work well for you, and it will use GPT-4 to actually write brand new AI-generated posts that are likely to get engagement for you.

Taplioは、あなたのLinkedInアカウントと、あなたにとって効果的な投稿のタイプを理解し、GPT-4を使って、あなたのエンゲージメントを獲得する可能性の高い、AIが生成した全く新しい投稿を実際に書いてくれます。

And that's just one of the many AI features they have.

そして、これは彼らが持っている多くのAI機能の一つに過ぎない。

They also have a post generator feature where you actually tell it what you want it to write a post about.

また、投稿ジェネレーター機能もあり、何を投稿してほしいかを実際に伝えることができる。

For example, how robots will do all of our work for us in the future, and click generate.

例えば、将来はロボットが私たちの仕事をすべて代行してくれるようになる、とか。

And just like that, it uses GPT-4 to write a on-topic post for LinkedIn.

そうすると、GPT-4を使ってLinkedInのためのトピックに沿った記事を書いてくれる。

I like this post.

この投稿が気に入った。

I can either add it to Q or click edit and post, make whatever tweaks I want.

Qに追加するか、編集して投稿をクリックし、好きなように調整することができる。

And then, post it right away or add it to my queue.

そして、すぐに投稿するか、キューに追加する。

They've also got a really cool hook generator.

また、とてもクールなフックジェネレーターもあります。

So, for example, maybe you're trying to write a post about seven ways AI will change the world.

例えば、AIが世界を変える7つの方法についての記事を書こうとしているとする。

Click generate Hooks and there we go.

フックを生成するをクリックすると、ほら、できた。

Five Hooks that we can use to start off the perfect LinkedIn post.

LinkedInの完璧な投稿を始めるために使える5つのフックだ。

They also have a new Carousel Generator.

新しいCarousel Generatorもある。

It even lets us use YouTube videos to generate carousels.

YouTubeの動画を使ってカルーセルを生成することもできる。

So, let's grab a link from one of my recent videos here, select YouTube as the option, and let's generate a carousel.

それでは、私の最近の動画からリンクを取得し、オプションとしてYouTubeを選択して、カルーセルを生成してみましょう。

See what it comes up with for us.

どんなカルーセルができるか見てみよう。

And look at that, unveiling CES 2024, a journey into tomorrow's technology.

CES 2024のお披露目、明日のテクノロジーへの旅。

And you can see it created a whole Carousel based on the various topics that I touched on in that video.

このビデオで私が触れたさまざまなトピックに基づいて、カルーセル全体が作成されているのがわかります。

They've also got an AI content repurpose tool.

また、AIコンテンツ再利用ツールもあります。

I can plug in an article or YouTube video.

記事やYouTubeの動画を差し込むことができます。

Let's just go ahead and plug in that same video here and click generate.

同じ動画をここに差し込んで、generateをクリックしてみよう。

And watch as it generates a post for LinkedIn that's super relevant to the video I just talked about.

そして、それが私が話したばかりのビデオに関連するLinkedInの投稿を生成する様子を見てください。

And there we go, we got a post that's a nice little recap of my experience at CES.

そして、そこに行きます。私のCESでの経験の素敵なまとめの投稿ができました。

And these are just the AI features that I'm showing off.

これらは、私が披露しているAI機能だけです。

There are so many other features inside of Taplio.

Taplioには他にもたくさんの機能があります。

Here, if you're trying to get your LinkedIn game on point, but maybe you're struggling with what to write about, Taplio is the tool for you.

もしあなたがLinkedInをうまく使いこなしたいと思っていて、でも何を書けばいいのか悩んでいるなら、Taplioはあなたのためのツールです。

You can learn more by checking out Taplio.com.

詳しくはTaplio.comをチェックしてほしい。

They have a free 7-Day trial and a 30-day money back guarantee when you sign up.

彼らには無料の7日間トライアルと30日間の返金保証があります。

And just to keep things easy, I will make sure the link is in the description.

また、簡単に説明できるように、リンクは説明文に記載するようにします。

Thank you so much to Taplio for sponsoring this video.

このビデオのスポンサーになってくれたTaplioに感謝します。

It's kind of motivating me to get back on top of my LinkedIn game.

LinkedInのゲームを再開する意欲が湧いてきました。

Here's something that's really cool that's recently rolled out into beta access.

最近ベータアクセスに導入された本当にクールなものがあります。

I managed to get my hand on the beta access of it, and it's an animation tool from Unity called MuseLab.

私はそれのベータアクセスを手に入れることができました。それはUnityというアニメーションツールのMuseLabです。

And it allows you to do a text to a sort of human animation.

MuseLabというUnityのアニメーションツールで、テキストを人間のアニメーションに変換することができます。

And then, once the animation is created, you can tweak it a little bit.

アニメーションが出来上がったら、それを少し微調整することができます。

So, if I go ahead and launch this app here, you can see over on the left, I have a prompt box.

ですので、ここでこのアプリを起動すると、左側にプロンプトボックスがあります。

It says describe a motion here, then press generate.

ここに動きを記述して、生成を押してください。

So, let's just do jumping jacks and click generate.

では、跳び箱をして、generateをクリックしてみましょう。

And you can see it attempted to make an animation of this character doing jumping jacks.

すると、このキャラクターが跳び箱をするアニメーションを作ろうとしているのがわかります。

Now, it's not perfect, but I can clean it up if I want.

完璧ではありませんが、必要であればきれいにすることができます。

I can click on make editable up at the top.

一番上の編集可能にするをクリックします。

You can see it actually gave me two key frames.

これで2つのキーフレームができました。

So, all it's really doing is animating between these two key frames.

つまり、この2つのキーフレーム間でアニメーションしているだけなのです。

So, if I want to tweak it a little bit and dial it in so it looks more like a jumping jack, I can do that.

ですから、もう少し微調整して、ジャンピング・ジャックのように見せたい場合は、そうすることができます。

I can actually grab the arm here, this arm here, move it up.

実際にここで腕を掴むことができます。この腕をここで掴んで、上に動かします。

Let's spread the legs a little bit like this.

足を少し広げましょう。こんな感じで。

And now, if I press Play, you'll see it'll kind of loop between these two.

再生ボタンを押すと、この2つの間でループするのがわかると思います。

Not perfect, let's go ahead and bring the arms all the way down, down here.

完璧ではありませんので、腕を完全に下げて、ここに下げます。

And now, let's animate it.

では、アニメーションにしてみましょう。

And we have a real rough person doing jumping jacks.

そして、私たちはジャンピングジャックをする人物の大まかな姿を持っています。

I can even add more key frames.

さらにキーフレームを追加することもできます。

If I press this plus here, it will add my little dude here.

このプラスを押すと、この小さな男が追加されます。

And I could let's just do something really wacky with his body.

そして、彼の体に何か奇抜なことをしてみましょう。

Let's put his leg back here, this leg goes up here, their body is tweaked like that.

彼の脚をここに戻し、この脚をここに上げ、彼らの体をこのように微調整します。

Now, if I animate it, it's going to animate between those scenes.

アニメーションさせると、これらのシーンの間でアニメーションします。

So, it starts with AI, you generate what you want the animation to look like with a prompt.

つまり、AIから始まり、プロンプトでアニメーションを生成します。

Once you've prompted it, it gets you kind of close to what you want.

プロンプトを表示させれば、ほぼ希望通りのアニメーションになります。

And then, you basically set these key frames, and you can animate it however you want.

そして、基本的にキーフレームを設定し、好きなようにアニメーションさせることができます。

It's like a much more advanced version of Mixamo if you've ever used Mixamo.

Mixamoを使ったことがある人ならわかると思いますが、Mixamoをもっと進化させたようなものです。

But instead of selecting a pre-designated animation, you can prompt an animation and then dial in the animation to exactly what you want.

しかし、あらかじめ指定されたアニメーションを選択するのではなく、アニメーションをプロンプトして、そのアニメーションを自分の思い通りに設定することができます。

Again, this one's in beta, but if you have a Unity account, I believe you can apply, and they are rolling it out to people now because I got access, and I have zero prior relationships with Unity, so they're not doing me any special favors or anything.

再度、これはベータ版ですが、Unityアカウントを持っていれば申し込むことができると思いますし、現在人々に提供されています。私はアクセスを得たので、Unityとの関係はありません。特別な特典などはありません。

So pretty sure that you can get access if you sign up for the beta.

だから、ベータに登録すればアクセスできるのは間違いない。

I just don't know how long it takes to get approved into the Beta.

ただ、ベータ版の承認にどれくらいの時間がかかるのかはわからない。

Google's had a handful of interesting announcements lately as well, including some new updates to Google Chrome.

Googleは最近、Google Chromeの新しいアップデートを含む、興味深い発表をいくつか行っている。

Now, if you're on the latest version of Google Chrome and you want to try some of these new AI updates, simply come up to the three dots in the top right corner, come down to settings, and then over on the left, you'll see an option for experimental AI.

Google Chromeの最新バージョンを使っていて、新しいAIのアップデートを試したい場合は、右上の3つの点をクリックし、設定まで降りてきて、左側に実験的AIのオプションがあります。

You click on this and turn this switch on, you can see we now have two more options: tab organizer and create themes with AI.

これをクリックしてスイッチをオンにすると、タブオーガナイザーとAIを使ったテーマの作成という2つのオプションが追加されたことがわかる。

To apply the changes, I need to relaunch Chrome, so I'll go ahead and do that real quick, and we'll notice these new features.

変更を適用するためには、Chromeを再起動する必要があるので、すぐにそれを行います。そして、新しい機能に気付くでしょう。

The first one being smartly organize your tabs.

まず、タブをスマートに整理できる。

If I come up to one of my tabs up here at the top of my Chrome browser and right-click, you'll actually see a new button that says organize similar tabs.

Chromeブラウザの上部にあるタブのひとつを右クリックすると、「似たようなタブを整理する」という新しいボタンが表示されます。

I click on this and then click let's go, you can see that it's suggesting a tab group called AI news.

これをクリックし、Let's goをクリックすると、AI newsというタブグループが提案されているのがわかる。

Imagine that I create the group, you can see it added a new button up in the top left that says AI news, and it folds it all up into that tab.

そのグループを作成すると、左上にAIニュースという新しいボタンが追加され、そのタブにすべてが折り畳まれるのがわかります。

If I click on AI news again, it unfolds all the AI news that it just wrapped up.

AIニュースをもう一度クリックすると、先ほどまとめたAIニュースがすべて展開される。

One of the other new AI features is you can create your own themes with AI.

他の新しいAI機能のひとつは、AIを使って独自のテーマを作成できることです。

To do that, we'll just open a new tab in Chrome.

そのためには、Chromeで新しいタブを開く。

Here, I've got a new button down in the bottom right corner that says customize Chrome.

右下にChromeをカスタマイズするという新しいボタンがある。

If I click on change theme, I can now create a new theme with AI.

テーマの変更をクリックすると、AIで新しいテーマを作成できる。

So let's pick a subject.

それではテーマを選んでみましょう。

I'll go ahead and do mountains.

山を作ります。

Let's do a cyberpunk style and an intellectual mood.

サイバーパンクスタイルで知的なムードにしてみよう。

See what that does for us.

どうなるか見てみよう。

Click create.

作成をクリックします。

Now I can select one of the options it gave me.

ここで、表示された選択肢の中からひとつを選ぶことができる。

Let's go ahead and select this one.

これを選んでみましょう。

And just like that, I have a new customized AI-generated Chrome theme.

このように、AIが生成したChromeテーマをカスタマイズすることができる。

The other new feature that they announced but haven't rolled out into Chrome yet is getting help drafting things on the web.

もうひとつの新機能は、まだChromeには導入されていないが、ウェブ上での下書きをサポートする機能だ。

Whether you want to leave a well-written review for a restaurant, craft a friendly RSVP for a party, or make a formal inquiry about an apartment rental, this new feature will help you write with more confidence.

レストランのレビューを書きたいとき、パーティーの参加表明をしたいとき、賃貸アパートの正式な問い合わせをしたいときなど、この新機能を使えば、より自信を持って文章を書くことができる。

This appears to be coming within the next month.

この新機能は来月中にリリースされるようだ。

In other Google News, Google is now using Gemini with their search ads.

その他のGoogleニュースでは、Googleは現在、検索広告でGeminiを使用している。

Google now has this sort of conversational experience to create ads where you go back and forth in a conversation box to dial in the way you want your ads to look and sound, and it is now using Gemini to power that conversational tool.

Googleは今、会話形式の広告を作成するための会話ボックスでの対話的な体験を持っており、広告の見た目と音声を調整するためにGeminiを使用しています。

Google also rolled out a new tool which will allow you to inject your own face, your own selfie into historical images and timelines.

Googleはまた、過去の画像やタイムラインに自分の顔や自撮り写真を挿入できる新しいツールを発表した。

You can take a picture and work yourself into the Roman Empire or wherever you want to put it.

写真を撮って、ローマ帝国や好きな場所に自分を入れることができる。

It's a feature called Art selfie, and it's actually available inside of the Google Arts and Culture app, which is available on both iOS and Android if you want to play around with it.

それはArt selfieという機能で、Google Arts and Cultureアプリの中で実際に利用できます。iOSとAndroidの両方で利用できますので、ぜひ試してみてください。

Since we're on the topic of AI art, let's talk about Midjourney.

AIアートの話題なので、Midjourneyについて話そう。

They did roll out some marginal new features.

Midjourneyはいくつかの新機能をリリースした。

You can now use pan zoom and very region with the V6 model.

V6モデルでパンズームと超領域が使えるようになったのだ。

If you remember, up until now, we were only able to use those features in version five and I think earlier versions, but I'm not sure, but definitely version five.

覚えていらっしゃるでしょうか、これまではバージョン5と、それ以前のバージョンだったと思いますが、確かではありませんが、間違いなくバージョン5でしかこれらの機能は使えませんでした。

And when you upscale an image in version six, you only got the options to upscale and very subtle or very strong.

また、バージョン6で画像をアップスケールする場合、非常に微妙にアップスケールするか、非常に強くアップスケールするかのオプションしかありませんでした。

So if I create something like this, this robot wolf hybrid here, and let's say I want to upscale number four, I now have all of these options even though I'm using version six.

ですから、このようなものを作成した場合、このロボットオオカミのハイブリッドですが、仮に4番をアップスケールしたいとすると、バージョン6を使用しているにもかかわらず、これらのオプションがすべて使えるようになりました。

Just as a quick refresher, very region is essentially the inpainting feature.

簡単に復習しておくと、非常にリージョンというのは基本的にインペイント機能だ。

So for example, I could select around the wolf's eyes like this and say make the wolf wearing sunglasses, and we get some variations of the same image just with sunglasses.

例えば、オオカミの目の周りをこのように選択して、オオカミにサングラスをかけさせると、サングラスをかけただけの同じイメージのバリエーションができます。

That's a feature that just became available in version six this week.

これは、今週バージョン6で使えるようになったばかりの機能です。

And in other AI art news, the tool Nightshade is now available for artists to use.

その他のAIアートのニュースとしては、Nightshadeというツールが使えるようになりました。

Now, I did talk about Nightshade in a previous news video months ago.

Nightshadeについては、数ヶ月前のニュースビデオでお話しました。

It's basically a tool that artists can sort of apply to their art, and if somebody tries to train on that art, it screws up the training data for all of the art models.

基本的には、アーティストが自分のアートに適用できるツールで、誰かがそのアートでトレーニングしようとすると、すべてのアートモデルのトレーニングデータが台無しになる。

So the news about the tech is sort of older news, but the fact that it's now available is, well, this week's news.

だから、この技術に関するニュースは古いニュースのようなものだが、それが利用可能になったという事実は、まあ、今週のニュースだ。

The AI company ElevenLabs just raised $80 million in their series B, and this is significant because this actually puts the company at a valuation of over a billion dollars, making it another AI unicorn company.

AI企業のElevenLabsは、シリーズBで8000万ドルを調達しました。これは実際には企業の評価額を10億ドル以上にしています。これは別のAIユニコーン企業となります。

And since we're on the topic of ElevenLabs, they also rolled out a new feature this week called Dubbing Studio.

ElevenLabsの話題ということで、同社は今週、Dubbing Studioという新機能を発表した。

With Dubbing Studio, you can upload an audio or a video file.

Dubbing Studioでは、音声ファイルや動画ファイルをアップロードすることができる。

It will automatically detect what language the file is in if there are multiple speakers.

複数のスピーカーがいる場合、そのファイルの言語を自動的に検出する。

And then, it will translate the file into whatever language you want it to translate into, and it will still match the same voice and inflection of the original audio, making it easier for anybody to dub any video or audio file into any language.

そして、それはファイルを任意の言語に翻訳し、元のオーディオの声と抑揚を保ったままにするため、誰でもビデオやオーディオファイルを任意の言語に吹き替えることが容易になります。

In a land where the sun scorches the Earth, you ain't from around here, are you, boy?

太陽が大地を焦がすような土地で、この辺の人間じゃないだろう?

And since we're on the topic of AI audio generation, this news has been going around this week where a fake Joe Biden Robo call has been circulating, telling people not to vote but in Joe Biden's voice.

そして、AI音声生成の話題ということで、今週、ジョー・バイデンの声で「投票に行くな」という偽のジョー・バイデンロボコールが出回ったというニュースが流れている。

But if we listen to this Robo call, it's not super convincing.

しかし、このロボコールを聞いてみると、あまり説得力がない。

What a bunch of mil!

なんてミルの集まりなんだ!

We know the value of voting Democratic.

私たちは民主党に投票する価値を知っている。

When our votes count, it's important that you save your vote for the November election.

私たちの一票が重要な意味を持つとき、11月の選挙に向けて一票を貯めておくことが大切です。

We'll need your help in electing Democrats up and down the ticket.

民主党の上下両院議員を当選させるためには、皆さんの協力が必要です。

Voting this Tuesday only enables the Republicans in their quest to elect Donald Trump again.

今週の火曜日に投票しても、共和党がドナルド・トランプを再び当選させることを可能にするだけです。

Your vote makes a difference in November, not just Tuesday.

あなたの一票が、火曜日だけでなく、11月にも違いをもたらすのです。

If you would like to be removed from future calls, please press 2 now.

今後の通話を拒否したい場合は、今すぐ2を押してください。

I mean, it obviously sounds like a fake AI-generated voice, but I guess some people fall for it.

つまり、明らかにAIが生成した偽の声に聞こえるが、それに騙される人もいるのだろう。

OpenAI released some new updates this week as well, including lower pricing for GPT-3.5 turbo, as well as an updated version of GPT-4 Turbo.

OpenAIは今週、GPT-3.5ターボの低価格化、GPT-4ターボのアップデートなど、いくつかの新しいアップデートをリリースした。

Apparently, this new version of GPT-4 reduces cases of laziness where the model doesn't actually complete a task.

GPT-4の新バージョンは、モデルが実際にタスクを完了しない怠惰なケースを減らすらしい。

They also have some bug fixes in it.

また、いくつかのバグフィックスも含まれている。

They also made an update to their text moderation 007 model.

また、テキストモデレーション007モデルもアップデートされた。

Also, this week, the news has been circulating that OpenAI is planning to set up chip factories.

また今週、OpenAIがチップ工場の設立を計画しているというニュースが流れている。

As of right now, almost all of the GPUs that are being used to train these AI models are coming from NVIDIA, and companies like OpenAI really want to release their reliance on companies like NVIDIA.

今のところ、これらのAIモデルを訓練するために使われているGPUのほとんどはNVIDIAから提供されており、OpenAIのような企業はNVIDIAのような企業への依存から解放されたいと考えています。

Sam Altman, he's out there trying to raise about a hundred billion dollars for a network of chip factories spread across the globe.

サム・アルトマンは、世界中に広がるチップ工場のネットワークのために約1000億ドルを調達しようとしている。

But the problem that we're seeing now with training these AI models is less and less the GPUs and more and more the energy consumption it takes to run these GPUs.

しかし、これらのAIモデルをトレーニングする上で現在私たちが目の当たりにしている問題は、GPUがますます少なくなり、GPUを動かすために必要なエネルギー消費がますます多くなっていることです。

Sam Altman actually recently said in a recent interview that AI needs some sort of energy breakthrough in order to continue to advance these AI models.

サム・アルトマンは最近のインタビューで、AIがこれらのAIモデルを進化させ続けるためには、ある種のエネルギーのブレークスルーが必要だと語っている。

It was announced this week that Hugging Face and Google are partnering up for an OpenAI collaboration.

今週、Hugging FaceとGoogleがOpenAIコラボレーションのために提携することが発表された。

That isn't to say an OpenAI one word, but open AI.

これはOpenAIと一言で言うのではなく、open AIである。

Basically, Google wants to start making open-source projects with Hugging Face, similar to what Meta is doing.

基本的に、GoogleはHugging Faceとオープンソースのプロジェクトを始めたいと考えている。

And quite honestly, it sounds like a similar strategy and tactic to what Meta and Microsoft have going on together.

そして正直なところ、MetaとMicrosoftが一緒にやっていることと似たような戦略や戦術のように聞こえる。

So if you look at Meta, they're trying to develop a lot of open-source models, and they're working with Microsoft to allow people to use the Microsoft Azure Cloud to help develop these models.

Metaを見ると、彼らは多くのオープンソースモデルを開発しようとしており、Microsoftと協力して、人々がMicrosoft Azure Cloudを使ってこれらのモデルを開発できるようにしている。

Well, Hugging Face and Google have seemingly a similar partnership.

Hugging FaceとGoogleも同様のパートナーシップを結んでいるようだ。

Hugging Face is a place where a lot of these open-source models are made available for people, and they're going to be working with Google to be able to process a lot of this stuff inside of Google's Cloud.

Hugging Faceは、こうしたオープンソースのモデルの多くを人々が利用できるようにした場所であり、Googleと協力してGoogleのクラウド内でこうした多くのものを処理できるようにしようとしている。

It's just a fascinating world that we're in right now where we look at Google, and Google is almost mirroring what other companies are doing.

Googleを見てみると、Googleは他の企業がやっていることをほとんどそのまま反映している。

Obviously, OpenAI launched ChatGPT and DALL·E 3.

明らかに、OpenAIはChatGPTとDALL·E 3を立ち上げた。

And then they worked with Microsoft to get it inside of the search engines.

そして、Microsoftと協力して検索エンジンに取り込んだ。

Google had their code red Red Alert thing or whatever they did and started rolling out Bard and the generative search experience.

Googleはコード・レッドのレッド・アラート(赤色警報)を発令し、Bardとジェネレーティブ検索体験を展開し始めた。

They also made available their image in image Creator inside of Google.

また、Googleのimage Creatorで画像を利用できるようにした。

Then we saw Meta work with Microsoft.

その後、MetaはMicrosoftと協力した。

Meta was developing open-source Large Language Models as well as other AI tools, and they teamed up with Microsoft to use their clouds to help normal people use some of these models.

MetaはオープンソースのLarge Language Modelsや他のAIツールを開発しており、Microsoftと提携し、Microsoftのクラウドを利用して、一般の人々がこれらのモデルを利用できるようにした。

Now Google is collaborating with Hugging Face to help make it easier for other people to use these open-source models.

そして今、GoogleはHugging Faceと協力し、他の人々がこれらのオープンソースモデルを使いやすくする手助けをしている。

So, just a very interesting dynamic that we're seeing.

このように、我々は非常に興味深いダイナミズムを目の当たりにしている。

Microsoft make these smart moves and then Google kind of following behind, going, That was a smart move, let's do something similar.

Microsoftがこのようなスマートな動きをし、Googleがそれに追随して、スマートな動きだった。

Now, I don't know if that's really what's happening, that's just what it feels like from the outside perspective.

今、それが本当に起こっていることなのかはわかりませんが、外部の視点からはそう感じられます。

This week, Apple podcast started automatically transcribing podcasts.

今週、Appleのポッドキャストがポッドキャストの自動書き起こしを始めた。

So, if you're using their podcast player, you should now be able to look at an AI-generated automated transcript for any podcast on the platform.

そのため、同社のポッドキャスト・プレーヤーを使っている人は、プラットフォーム上のあらゆるポッドキャストについて、AIが自動生成したトランスクリプトを見ることができるはずだ。

And finally, this isn't AI news, but it's interesting nonetheless.

最後に、これはAIのニュースではないが、それでも興味深い。

Disney is rolling out this platform where you could sort of walk in place, and it's designed to be able to walk around in a metaverse in virtual reality, feel like you're walking, and you're actually just standing in place.

ディズニーは、その場で歩くことができるこのプラットフォームを展開している。これは、仮想現実のメタバース内を歩き回り、歩いているように感じ、実際にはその場に立っているだけであるように設計されている。

And it works with multiple people on it.

複数の人が乗っても機能する。

However, all of the demos that I've seen, they look like they're walking in slow motion.

しかし、私が見たすべてのデモは、スローモーションで歩いているように見えた。

If you're going to be playing a shooter game, if you're going to be playing Call of Duty inside of virtual reality, you're going to need to be able to run on this thing.

シューティングゲームや、バーチャルリアリティの中で『Call of Duty』をプレイするのであれば、この上で走れる必要がある。

So, it'll be interesting to see where they take this thing, but pretty cool tech nonetheless.

というわけで、彼らがこれをどこに持っていくかは興味深いところだが、それにしてもかなりクールな技術だ。

And before I wrap up, I actually want to let you know that I am going to be speaking at an event called Content Hacker.

最後に、私がContent Hackerというイベントに登壇することをお知らせしておきます。

This is going on during South by Southwest out in Austin on March 12th and 13th.

このイベントは、3月12日と13日にオースティンで開催されるサウス・バイ・サウスウエストで行われます。

And on that first night, on March 12th, we're doing a VIP experience where I will be on a panel with some other really, really smart people, and we'll be talking about the future of AI, content marketing in AI, and really just anywhere we want the discussion to go.

そして、その最初の夜、3月12日には、私たちは他の非常に賢い人々と一緒にパネルディスカッションを行い、AIの将来、AIにおけるコンテンツマーケティング、そして議論を進めたい方向について話します。

It's going to be a really, really fun evening, and there's going to be snacks in a bar and all that good stuff.

それは本当に楽しい夜になるでしょうし、バーにはお菓子もあります。

So, it should be a really, really good time.

本当に楽しい時間になるはずだ。

Again, it's coming up March 12th through 13th, and I wanted to let you know now because during South by Southwest in Austin, hotels sell out really, really fast.

再度、3月12日から13日まで開催されますので、早めにお知らせしたかったのです。なぜなら、オースティンのサウスバイサウスウェストでは、ホテルが非常に早く売り切れるからです。

If it is something you're interested in going to, you probably want to start planning for it now.

オースティンのサウス・バイ・サウスウエストの期間中は、ホテルが本当にあっという間に売り切れてしまうからだ。

I'll make sure it's linked up in the description below.

以下の説明でリンクしていることを確認しよう。

It's going to be a fun evening, and I couldn't be more excited to be a part of it.

楽しい夜になるだろうし、それに参加できることをこれ以上ないほど楽しみにしている。

It's going to be my first South by Southwest.

僕にとって初めてのサウス・バイ・サウスウエストだ。

I've never been before, so really, really looking forward to it.

今まで一度も行ったことがないので、本当に本当に楽しみです。

So, check it out, contenthacker.com.

contenthacker.comをチェックしてね。

The link will be in the description, and that's what I got for you today.

リンクは説明欄にあります。それが今日の提供です。

If you love nerding out about AI, AI tools, AI news, all of that kind of stuff, check out futurtools.io.

AI、AIツール、AIニュースなど、AIに関するオタク趣味がお好きなら、futurtools.ioをチェックしてください。

I keep this site up to date on a pretty much daily basis with all the coolest AI tools I come across.

このサイトでは、私が出会った最もクールなAIツールをほぼ毎日更新しています。

I keep the AI news page up to date on a daily basis, and I have a free AI newsletter where I share just the most important pieces of AI news and just the coolest AI tools of the week.

AIニュースのページも毎日更新していますし、無料のAIニュースレターでは、その週の最も重要なAIニュースや最もクールなAIツールだけを紹介しています。

And when you sign up for the free newsletter, you get access to the AI income database, which is a whole database of ways to make money using AI.

無料のニュースレターに登録すると、AIを使ってお金を稼ぐ方法のデータベースであるAIインカムデータベースにアクセスできる。

Completely free.

完全に無料です。

You can find it all over at futurtools.io.

すべてfuturtools.ioで見ることができる。

And finally, if you like videos like this, give this one a thumbs up and consider subscribing to this channel.

そして最後に、もしこのようなビデオがお好きなら、このビデオに親指を立てて、このチャンネルの購読をご検討ください。

I will make sure more videos show up like this inside your YouTube feed.

YouTubeのフィードにこのようなビデオがもっと表示されるようにします。

Thank you so much for hanging out and nerding out with me.

私と一緒に遊んでくれて本当にありがとう。

I really, really appreciate you.

本当に、本当にありがとう。

Lots more cool AI nerdery to come on this channel, so make sure you subscribe so you don't miss it.

このチャンネルでは、これからもたくさんのクールなAIオタクを紹介していくので、見逃さないように購読しておいてほしい。

I'd really appreciate it.

本当にありがとう。

And thanks again to Taplio for sponsoring this video.

そして、このビデオをスポンサーしてくれたTaplioに改めて感謝する。

You guys rock.

君たちは最高だ。

All right, I'm done.

では、私はこれで。

See you later.

またね。

Bye-bye.

バイバイ。


この記事が気に入ったらサポートをしてみませんか?