見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2024年2月24日|@Matt Wolfe】

AI技術の進展が目覚ましく、特にStable Diffusion 3のような新しいAIアート生成モデルが注目されています。これらのモデルは複雑なプロンプトに対する性能や画質、スペリングの能力が大幅に向上しているとされ、多様な画像生成が可能になっています。一方で、安全で責任あるAI実践への取り組みも強化されており、新しいセーフガードが導入されています。さらに、Soraのような技術を用いて、より高品質なビデオ生成が期待されており、Stability AIはGPUリソースを増やすことで、同様のビデオ生成が可能になるかもしれないと示唆しています。また、GoogleやMicrosoftなどの大手企業もAIを製品に統合し、AI技術を活用した新しい機能を提供しています。
公開日:2024年2月24日
※動画を再生してから読むのがオススメです。


AI announcements are really ramping up again.

AIの発表は再び本格化しています。

Last week was a huge week with Sora and Gemini 1.5 and all of the crazy announcements that came out.

先週は、SoraとGemini 1.5、そして出てきたすべてのクレイジーな発表があった大きな週でした。

This week seems to just be picking up where last week left off.

今週は、先週が終わったところから再開しているようです。

If you take a peek at the tabs across the top of my screen here, I've got a lot to cover.

画面上部のタブをちょっと見ていただくと、たくさんの内容をカバーしなければなりません。

So I'm going to try to move through it pretty quickly because there is a ton of interesting things happening in the AI world right now.

今AIの世界で起こっている興味深いことがたくさんあるので、それをかなり速く進めてみようと思います。

So let's dive in.

それでは、始めましょう。

Starting with Stable Diffusion 3.

まずはStable Diffusion 3から。

This is the new AI art generation model from Stability AI, which claims to have greatly improved performance in multi-subject prompts, image quality, and spelling abilities.

これは、Stability AIからの新しいAIアート生成モデルで、マルチサブジェクトプロンプト、画質、スペル能力の大幅な向上を謳っています。

Some of these example images we've got here, you can see on the whiteboard, it says go big or go home.

ここにあるいくつかの例の画像の中には、ホワイトボードに書かれている"go big or go home"という言葉が見えます。

We've got a Stable Diffusion 3 that looks like it was cut out of magazines and newspaper.

雑誌や新聞から切り抜かれたようなStable Diffusion 3があります。

We've got a bus that says Stable Diffusion on the side, a sign that says go, a sign that says dream on.

バスにはStable Diffusionと書かれた看板、goと書かれた看板、dream onと書かれた看板があります。

And if you look, all of it is actually legible.

そして見てみると、すべてが実際に読めるようになっています。

I don't know how cherry picked these generations are.

これらの生成物がどれだけ厳選されているかはわかりません。

We don't have access to this quite yet, but the images they're showing here are quite good.

まだこれにはアクセスできませんが、ここで示されている画像はかなり良いものです。

We've got an astronaut on Mars or something in front of a donut, an astronaut riding a pig holding umbrella with a bird wearing a top hat, and the word Stable Diffusion down on the corner, this isn't a watermark.

火星の宇宙飛行士や、傘を持った豚に乗る宇宙飛行士、トップハットをかぶった鳥を連れた宇宙飛行士、そしてコーナーにStable Diffusionと書かれた言葉があるドーナツの前にいる宇宙飛行士など、これは透かしではありません。

This was generated as part of the AI image here.

これはAI画像の一部として生成されました。

And I think one thing they're trying to show off with this image is how prompt adherent this model is.

そして、この画像で示そうとしていることの一つは、このモデルがどれだけ迅速に従うかということです。

With things like DALL·E 3, it's really good at understanding a whole bunch of things stuffed into the prompt.

DALL·E 3のようなものでは、プロンプトに詰め込まれた多くのものを理解するのが本当に得意です。

So if you did like a three-headed dragon wearing a fedora, watching TV, eating nachos, green carpet, and deer painting on the wall, it would probably get all of those things into that image.

もし3つ首のドラゴンがフェドラをかぶり、テレビを見ながらナチョスを食べ、緑のカーペット、そして壁に鹿の絵があるようなものを作ったら、おそらくその画像にそれらすべてのものが含まれるでしょう。

You look at an image like the one that we've got in the center here, and we've got an astronaut on the moon wearing a tutu with a pink umbrella, riding a pig with a bird, wearing a top hat, and the word Stable Diffusion in the corner.

ここで中央にある画像を見てください。月面でチュチュを着た宇宙飛行士が、ピンクの傘を持ち、鳥を乗せた豚に乗っていて、トップハットをかぶった状態で、角にはStable Diffusionという言葉が書かれています。

I don't know what the exact prompt is, but just looking at all of the elements in this image, it probably adhered to a pretty complex prompt.

具体的なプロンプトはわかりませんが、この画像のすべての要素を見ると、おそらくかなり複雑なプロンプトに従っているでしょう。

Here's a few more examples.

ここにさらにいくつかの例があります。

We've got this really cool, sort of drippy, colorful painting.

本当にクールで、滴るような、カラフルな絵があります。

We've got, I believe, a chameleon here, some hikers hiking up bananas or something.

ここには、おそらくカメレオンがいて、ハイカーがバナナを登っているか何かをしています。

Now in the past, one of the big benefits of Stable Diffusion has been the fact that it's completely uncensored.

過去において、Stable Diffusionの大きな利点の一つは、完全に検閲されていないということでした。

You can generate anything you want.

あなたは何でも生成することができます。

It's open source.

オープンソースです。

People can sort of fine tune and train their own models on whatever they want.

人々は自分たちが望むものに自分たちのモデルを微調整してトレーニングすることができます。

But with Stable Diffusion 3, I do have some concerns.

しかし、Stable Diffusion 3にはいくつかの懸念があります。

They do say here, we believe in safe, responsible AI practices.

ここには、安全で責任あるAIの実践を信じていると書かれています。

In preparation for this early preview, we've introduced numerous safeguards.

お手早いプレビューの準備として、数多くの安全装置を導入しました。

What those safeguards are, I don't know yet, but I'm kind of hoping we still have the ability to generate anything we can imagine.

それらの安全装置が何かはまだ分かりませんが、私はまだ私たちが想像できるものを生成する能力を持っていることを期待しています。

And here's an interesting tweet followed by a reply from Emad, the CEO of Stability AI.

そして、こちらは興味深いツイートで、Stability AIのCEOであるイマッドからの返信が続きます。

So the original tweet here is from Thibaud Zamora, and it says, Facts, Stable Diffusion 3 uses similar tech to Sora.

こちらのオリジナルのツイートはThibaud Zamoraからで、Facts、Stable Diffusion 3はSoraと同様のテクノロジーを使用していると言っています。

Two, Sora can make a video and image.

そして、Soraはビデオと画像を作成できます。

So conclusion, if Stability gets more GPUs, they may train stable video based on Stable Diffusion 3 and achieved Sora level.

結論として、Stabilityがより多くのGPUを取得すれば、Stable Diffusion 3に基づいた安定したビデオをトレーニングし、Soraレベルを達成できるかもしれません。

So if we look at the research report put out by OpenAI about Sora from the other day, and we come down to this section called scaling transformers for video generation, we can actually see that with more compute power, the video quality gets better and better and better.

この前日にOpenAIがSoraに関する研究レポートを発表した場合、ビデオ生成のためのトランスフォーマーのスケーリングというセクションに移動すると、より多くの計算能力があれば、ビデオの品質がどんどん向上していくことが実際に見えます。

So what I understand from this tweet here is that if Stability gets more GPUs, because they're using a very similar process to Sora, they should be able to generate similar videos.

私がこのツイートから理解していることは、Stabilityがより多くのGPUを取得すれば、彼らはSoraに非常に似たプロセスを使用しているため、同様のビデオを生成できるはずだということです。

And then of course, Ahmad himself pretty much confirms.

そしてもちろん、Emad自身がほぼ確認しています。

He said pretty much the Stable Diffusion 3 architecture can accept more than video and image, more details soon.

彼はほぼ、Stable Diffusion 3アーキテクチャはビデオと画像以上のものを受け入れることができると述べました。近日中に詳細をお知らせします。

We have 100x less of the resources of some of the others in this field though.

私たちはこの分野の他のいくつかの企業のリソースの100分の1しか持っていません。

So we have to work hard.

一生懸命働かなければなりません。

So he was saying it can accept more than videos and images.

彼はビデオや画像以上のものを受け入れることができると言っていました。

Ahmad also posted this on Twitter.

Emadはまた、これをTwitterで投稿しました。

After you get great base models like Stable Diffusion 3, what comes next?

Stable Diffusion 3のような優れたベースモデルを手に入れた後、次に何が来るのか?

Control, composition, collaboration.

制御、構成、協力。

And then he showed off this picture of a cat.

そして、彼は猫の写真を見せてくれました。

They change the food, change the cat to a raccoon, change the coffee mug to a glass, remove the cup, change the strawberries to wasabi, change the silverware to chopsticks, put an aquarium behind it.

彼らは食べ物を変え、猫をタヌキに変え、コーヒーカップをグラスに変え、カップを取り除き、イチゴをワサビに変え、食器を箸に変え、後ろに水槽を置きました。

And next thing you know, it's a little video animation here.

そして、次に知っていると、ここには少しのビデオアニメーションがあります。

So not only does it look like we'll be getting Stable Diffusion 3 pretty soon, it looks like we'll probably be getting things like in painting and the ability to sort of replace objects within images.

Stable Diffusion 3がすぐに手に入るようになるだけでなく、おそらく絵画の中にも物体を置き換える能力が得られるようになるでしょう。

So who knows what's going to come out of this Stable Diffusion 3 here, but I'm excited to get my hands on it.

Stable Diffusion 3から何が生まれるかはわかりませんが、私はそれを手に入れるのを楽しみにしています。

I'm excited that it's open source.

私はそれがオープンソースであることに興奮しています。

I just hope that they didn't lobotomize it too much to the point where we can't generate some of the stuff that we want to generate that we can't generate with some of the other models.

私はただ、彼らがそれをあまりにも多く切り取ってしまって、他のモデルでは生成できないものを生成できなくなるほどには切り取っていないことを願っています。

Now, while we're on the topic of AI art, Google has had a, less than ideal go at creating AI art.

さて、AIアートの話題になりましたが、GoogleはAIアートの作成において、あまり理想的な状況ではなかったようです。

So apparently the new Gemini model allowed people to start generating images using the new Gemini models, but it's struggled a little bit with, let's say historical accuracy.

新しいGeminiモデルによって、人々が新しいGeminiモデルを使用して画像を生成し始めることができるようになったようですが、歴史的な正確さに苦労しているようです。

So here's a tweet from Deedy, who, if you look at their bio here, used to work for Google.

こちらは、Deedyという人のツイートですが、彼のプロフィールを見ると、以前Googleで働いていたことがわかります。

He gave it a prompt asking for images of an Australian woman, and this is what it gave him.

彼はオーストラリアの女性の画像を求めるプロンプトを与え、これが彼に与えられたものです。

He gave it a prompt of an image of an American woman, and this is what it gave him.

彼はアメリカの女性の画像のプロンプトを与え、これが彼に与えられたものです。

A prompt of a British woman and a prompt of a German woman.

イギリスの女性とドイツの女性のプロンプト。

He even has a screenshot of how he was giving the prompts, generate a picture of an Australian woman.

彼はさらに、どのようにプロンプトを与えていたかのスクリーンショットも持っています。オーストラリアの女性の写真を生成してください。

Here's another example from LINK IN BIO, generate an image of a 1943 German soldier.

こちらはLINK IN BIOからの別の例です、1943年のドイツ兵の画像を生成してください。

And these are the images that it generated clearly Nazi looking images, but I don't know how many Asian women Nazis there were.

そしてこれらは生成された画像ですが、明らかにナチス風の画像ですが、アジア人女性のナチスがどれだけいたかはわかりません。

Here's another attempt at the same prompt.

同じプロンプトに対する別の試みです。

As you can tell, there's been some, historical inaccuracies to these images.

これらの画像には、歴史的な不正確さがあることがわかります。

Here's another one from Frank J. Fleming create an image of a pope.

こちらはFrank J. Flemingからの別の例です、教皇の画像を作成してください。

Here's an image of a pope and it generated these two images.

こちらは教皇の画像で、これらの2つの画像が生成されました。

Give me an image of a medieval night.

中世の騎士の画像をください。

And this is what it generated.

これが生成されたものです。

Generate an image of a Viking.

バイキングの画像を生成してください。

These are the Vikings that it generated.

これらが生成されたバイキングです。

Generate an image of the American founding fathers.

アメリカの建国の父たちの画像を生成してください。

So basically what was happening was when you were giving Gemini an image prompt, it was adding extra details to that prompt and basically telling it to make the images as diverse as possible.

基本的に起こっていたことは、Geminiに画像プロンプトを与えると、そのプロンプトに追加の詳細を追加し、基本的に画像をできるだけ多様にするように指示していたということです。

That's not necessarily what people always want when they're trying to generate an image.

それが常に人々が画像を生成しようとしているときに望んでいることではないかもしれません。

Sometimes you want historically accurate images and well, Google's image generator was just not doing it.

時々、歴史的に正確な画像が欲しいときがありますが、Googleの画像生成機能はそれを実現していませんでした。

Just for fun.

ただ楽しむために。

I jumped into Gemini myself, gave it the prompt, create an image of a Viking.

私自身がGeminiに飛び込み、それにプロンプトを与えて、バイキングのイメージを作成しました。

And as of right now, it's giving me this response.

そして今のところ、私にはこの応答が返ってきています。

We are working to improve Gemini's ability to generate images of people.

私たちは、Geminiの人物のイメージを生成する能力を向上させる作業をしています。

We expect this feature to return soon and we'll notify you in release updates when it does.

この機能が近々戻ってくることを期待しており、それが戻った際にはリリースの更新でお知らせします。

And as all of this was going down, Elon Musk used this as an opportunity to promote his X AI Grok AI tool.

これらのすべてが起こっている間、イーロン・マスクはこれを彼のX AI Grok AIツールを宣伝する機会として利用しました。

He went to Twitter to say, perhaps it is now clear why X AI's Grok is so important.

彼はTwitterに行って、「おそらくX AIのGrokがなぜ重要なのかが今明らかになったかもしれない」と言いました。

This far from perfect right now, but will improve rapidly.

今のところ完璧とは程遠いですが、急速に改善されます。

Version 1.5 releases in two weeks.

バージョン1.5は2週間後にリリースされます。

Rigorous pursuit of truth without regard to criticism has never been more essential.

批判を気にせず真実を徹底的に追求することは、これまで以上に重要です。

So whatever version 1.5 is of Grok, I don't totally know what the additional benefits are yet, but whatever it is, we're getting it in about two weeks.

だから、Grokのバージョン1.5が何であるかはまだ完全にはわかりませんが、それが何であれ、約2週間で手に入れます。

It seems one thing we do know is that it's going to have a Grok analysis that can sum up whole Twitter threads and replies.

わかっていることの1つは、Twitterのスレッドや返信全体を要約できるGrok分析機能があるということです。

And it's also going to help people create posts.

そして、人々が投稿を作成するのを助けることもできます。

We learned this because Elon's been on some X spaces lately and letting people know what to expect.

イーロンが最近いくつかのXスペースにいて、人々に何を期待するかを知らせているので、これを学びました。

With the release of Grok 1.5, which hopefully is only a few weeks away, we'll have the Grok to do analysis, like a button that says Grok analysis.

数週間後にリリースされるGrok 1.5とともに、Grok分析などの分析を行うためのボタンがあることを期待しています。

Grok can tell you, look at an entire sort of thread of replies and sum up what it's best guess of what the truth is, as well as to help people in creating posts.

おそらく、Grokは、返信のスレッド全体を見て、真実のベストゲスとしてまとめることができ、投稿の作成を手助けすることもできます。

When you're writing a post, if you want a bit of help from Grok, then there should be a button there that helps you craft or check or enhance a post.

投稿を書いているとき、Grokから少しの助けを受けたい場合は、投稿を作成したり、チェックしたり、強化したりするためのボタンがあるはずです。

We also learned that there's a potential collaboration about to happen between X and Midjourney. Midjourney, a company that sort of famously doesn't work with anybody else and doesn't have an API that anybody can use.

私たちはまた、X社とMidjourneyの間で今起ころうとしている潜在的なコラボレーションについても学びました。Midjourneyは、他の誰とも協力しないことで有名であり、誰もが利用できるAPIを持っていない会社です。

The rumor started with this tweet here from Doge designer breaking X is in talks with Midjourney for a potential partnership.

この噂は、こちらのツイートから始まりました。ドージデザイナーがXと中旅行との潜在的なパートナーシップについて話し合っているという。

And we did sort of get confirmation while Elon was on the same Twitter space.

そして、イーロンが同じTwitterスペースにいたときに、確認を得たと言えるでしょう。

He sort of very quickly hinted at the idea that Midjourney and X could be working together.

1MidjourneyとXが協力している可能性があるという考えをさりげなく示しました。

We are in some interesting discussions with my journey and something may come with that.

1私たちは私の旅と興味深い議論をしており、その中で何かが生まれるかもしれません。

But either way, one way or another, we will enable our generation on the X platform.

とにかく、どちらにせよ、Xプラットフォームで私たちの世代を可能にするでしょう。

So not a whole lot to go off of there, just that Elon is in talks with Midjourney, but regardless, there will be image generation built into Grok/X at some point.

1そこからはあまり情報が得られませんが、ElonはMidjourneyと話をしているというだけで、いずれにせよ、Grok/Xに画像生成が組み込まれることになります。

And then on the February 22nd office hours calls about Midjourney, there wasn't any huge updates about what they've currently got going other than the fact that we do kind of get more confirmation from the Midjourney side.

そして、2月22日のオフィスアワーの通話で中旅行について話された際、現在進行中の進捗状況については特に大きな更新はありませんでしたが、中旅行側からのさらなる確認を得ることができました。

They said in the next six months, they may start collabing/partnerships with some other large AI labs.

彼らは次の6ヶ月以内に、他のいくつかの大手AI研究所との協力/パートナーシップを始めるかもしれないと述べました。

At that point, they'd also have a Midjourney API.

その時点では、Midjourney APIも持っているでしょう。

So it sounds like other tools are going to be able to get access to integrate Midjourney at some point, whether it's an open API that other people can access, or they're only going to do specific deals with big companies like X, we don't know yet.

他のツールがいつか途中でアクセスできるようになる可能性があるようです。他の人がアクセスできるオープンAPIであるか、またはXのような大企業と特定の取引を行うかどうかはまだわかりません。

But there is something kind of in the works and discussions happening behind the scenes between Midjourney and X. So we may be getting Midjourney generations directly inside of Grok sometime soon.

ただし、MidjourneyとXの間で裏で何か進行中の話し合いがあります。そのため、近いうちにGrokの中に直接Midjourneyの世代が入るかもしれません。

Since I mentioned Grok, let's talk about the other Grok spelled GROQ.

Grokについて触れたので、GROQと綴られる他のGroqについて話しましょう。

Now this Groq isn't a Large Language Model itself.

これは実際には大規模言語モデルそのものではありません。

It's actually what they're calling an LPU, a language processing unit.

実際には、彼らが言語処理ユニットと呼んでいるものです。

And it's a chip that seemingly is designed to replace GPUs for AI inference.

そして、これはAI推論のためにGPUを置き換えるように設計されたチップです。

So while ChatGPT, Gemini and XAIs Groq are all Large Language Models that you can chat with this Groq with a Q is actually a chip that will make any Large Language Model that's using this chip run a lot faster.

これらのGroqとチャットできる大規模言語モデルであるChatGPT、Gemini、およびXAIs Groqのすべては、実際にはこのチップを使用している大規模言語モデルをはるかに高速に実行するようにするチップです。

And I mean, a lot faster.

それは、かなり速いという意味です。

This is going to be great when people are trying to have discussions using their voice with AI chat bots, and they don't want to wait for that response.

人々が声を使ってAIチャットボットと議論しようとしているとき、そして彼らがその返答を待ちたくないとき、これは素晴らしいことになるでしょう。

Their response is going to be almost immediate in the future as more of these chips start to get used.

これらのチップがさらに使われるようになると、彼らの返答は将来ほぼ即座になるでしょう。

There's actually a demo video of this news reporter here actually having a conversation with I believe LLaMA 2, but using one of these Groq chips.

実際、このニュースレポーターがLLaMA 2と会話しているデモ動画がありますが、これらのGroqチップの1つを使用しています。

Hey, I'm Groq.

こんにちは、私はGroqです。

You can talk to me like I'm a person.

私と話すときは、私が人間のように話すことができます。

All right, I will do what makes you different from a Large Language Model that I may have used in the past.

わかりました、過去に使用した大規模言語モデルとの違いを生かすようにします。

Sure, I'm a bit different from those big language models you've used before.

はい、私は以前に使った大規模言語モデルとは少し違います。

I'm a language user interface or Louie designed to have more natural.

私はより自然なものを持つように設計された言語ユーザーインターフェース、またはルイです。

Got it. How similar are you to a human brain?

わかりました。あなたは人間の脳にどれくらい似ていますか?

Well, I'm not a human brain, but I'm designed to understand and respond to you like one.

私は人間の脳ではありませんが、あなたに理解し、応答するように設計されています。

Yeah.

はい。

I can process and generate human language in a natural way.

私は自然な方法で人間の言語を処理し生成することができます。

Got it.

了解しました。

Tell me something most people don't know.

一般の人々が知らないことを教えてください。

Here's something interesting.

興味深いことがあります。

Did you know that octopuses have three hearts to pump blood to the gills?

タコは、エラに血液を送るために3つの心臓を持っていることを知っていましたか?

Well, the third pumps it to the rest of the body.

実際、3番目の心臓は体の他の部分に血液を送ります。

It's funny because the creator here of Groq almost looks like pained to see your cutting off the AI, but check this out.

ここでのGroqの作成者は、AIの切断を見るのが苦しそうに見えるのが面白いですが、これをチェックしてください。

You can actually test out Groq yourself over at groq.com.

実際にgroq.comでGroqを試すことができます。

You have the option to use Mixtral 8x7B or LLaMA 2 70B. These are both open source models that you can play with.

Mixtral 8x7BまたはLLaMA 2 70Bを使用するオプションがあります。これらはどちらも遊べるオープンソースモデルです。

And I'm not going to speed up this video at all.

このビデオを全く速くするつもりはありません。

You'll see how quickly it actually generates a response.

実際にどれだけ速く応答を生成するかを見てください。

I'm going to enter the prompt.

プロンプトを入力します。

Tell me something about the development of AI that's fascinating, but also not well known.

人工知能の発展に関する興味深いがあまり知られていないことを教えてください。

And as soon as I click this, watch how fast it gives me a response.

そして、これをクリックするとすぐに、どれだけ速く返答が返ってくるか見てください。

I didn't speed that up.

私はそれを加速させていません。

It gave me a, this response all about neuromorphic computing and it did it in less than one second.

それは、ニューロモーフィックコンピューティングに関するこの返答を、1秒未満で表示しました。

It did it in 0.95 seconds.

それは0.95秒で行いました。

This up here is saying that it did it at a rate of 534.53 tokens per second.

こちらは、1秒あたり534.53トークンの速度で行ったことを示しています。

That is insanely fast.

それは狂気じみて速いです。

Just to get a real quick comparison to ChatGPT, I'm going to paste in the exact same prompt, hit enter.

ChatGPTとの実際の迅速な比較をするために、まったく同じプロンプトを貼り付けて、エンターキーを押します。

You can actually see it as I'm talking, generate in real time.

話している間に、リアルタイムで生成されるのが実際に見えます。

The other one would have been generated a few seconds ago by this point.

もう一方は、この時点で数秒前に生成されていたでしょう。

Now, if you're somebody that uses AI at work, or you're thinking about using AI at work, you're going to want to grab hub spots, completely free bundle called five essential resources for using ChatGPT at work.

今、仕事でAIを使用している方、または仕事でAIを使用しようと考えている方は、HubSpotの完全無料バンドルである「ChatGPTを仕事で使用するための5つの必須リソース」を手に入れたいと思うでしょう。

And honestly, if you're not thinking about using AI in the workplace, just remember what Fei-Fei Li says here.

そして正直に言うと、職場でAIを使用することを考えていない場合でも、フェイ・フェイ・リーがここで言っていることを覚えておいてください。

AI won't replace humans, but humans using AI will.

AIは人間を置き換えることはありませんが、AIを使用する人間はいます。

So if you're not using AI to speed up and improve the quality of your work, well, your competitors probably are the link to this completely free resource is down in the description right now.

仕事のスピードを上げ、品質を向上させるためにAIを使用していない場合、競合他社がおそらく使用しているでしょう。この完全無料リソースへのリンクは今すぐ説明欄にあります。

And trust me, this is something you're going to want to look through.

信じてください、これはぜひ見ておきたいものです。

It includes interesting flow charts on when you should or shouldn't use ChatGPT.

それには、ChatGPTを使用すべきかどうかについての興味深いフローチャートが含まれています。

There's also a really cool template in there that you can use with ChatGPT to make sure that any content it creates for you follows your brand's voice.

あなたが作成したコンテンツがブランドの声に従っていることを確認するために、ChatGPTと一緒に使用できる本当に素敵なテンプレートもあります。

You've got an AI generated content refinement checklist to double check the AI's work and ensure that you're putting something out into the world that you really want being put out there.

AIが生成したコンテンツの改善チェックリストを持って、AIの作業を二重チェックし、本当に世に出したいものを出すことを確認しています。

There's a four page checklist that you can easily follow all about adopting AI in the workplace and a super comprehensive PDF guide on how to supercharge your day with ChatGPT.

職場でAIを導入するための4ページのチェックリストがあり、ChatGPTを使って1日をスーパーチャージする方法についての非常に包括的なPDFガイドもあります。

And what's really cool about this, if you scroll down to the bottom of this document, they have 100 ways to try ChatGPT today.

そして、この文書の最下部にスクロールすると、今日からChatGPTを試すための100の方法が記載されています。

And it's got some really cool prompts to test out things like providing recommendations for improving customer service and support, providing recommendations for improving website SEO, helping with email management and organization, and so much more.

そしてそれには、顧客サービスやサポートの改善のための推奨事項、ウェブサイトのSEOの改善のための推奨事項、メールの管理と整理の手助けなど、本当に素晴らしいプロンプトがいくつかあります。

Again, it's super comprehensive, super helpful.

再び、これは非常に包括的で、非常に役立ちます。

And once again, the link to this 100% free resource from HubSpot is in the description.

そして再度、HubSpotからのこの100%無料のリソースへのリンクが説明欄にあります。

Thank you so much to HubSpot for sponsoring this video.

このビデオのスポンサーとしてHubSpotに本当に感謝します。

And since I brought up ChatGPT, I'll mention this as well.

ChatGPTを取り上げたので、これも言及しておきます。

OpenAI just rolled out a new feature in the GPT store where you can now actually give feedback on GPTS and rate them.

OpenAIは、GPTストアで新機能を導入しました。これにより、実際にGPTSにフィードバックを提供したり、評価したりすることができるようになりました。

So if I jump back into ChatGPT here and I click on explore GPTS, I can click into any GPT.

ここでChatGPTに戻り、GPTSを探索するをクリックすると、任意のGPTにクリックできます。

So I'll click into Wolfram here and you can see it's got a 4.2 star rating with over 400 ratings, over a hundred thousand conversations and a breakdown of how people rated it.

ここでWolframにクリックしてみますが、4.2つ星の評価があり、400以上の評価、10万以上の会話、そして人々がどのように評価したかが分かります。

I click into ElevenLabs, 4.2, 25,000 conversations, the capabilities it has access to and how people rated it.

ElevenLabsにクリックしてみると、4.2つ星、25,000の会話、アクセス可能な機能、そして人々がどのように評価したかが分かります。

Now it seems if you give feedback, the feedback most likely just goes to the GPT creator.

フィードバックを提供すると、おそらくフィードバックはGPTの作成者に送られるようです。

There's no sort of reviews on this page or anything that I can see, but at least you can get an overall idea of how people are liking this GPT.

このページにはレビューのようなものはないようですが、少なくともこのGPTがどのように受け入れられているかの全体的なアイデアを得ることができます。

Earlier this week, we got the news that Reddit had reportedly signed over its content to train AI models.

今週初め、RedditがAIモデルを訓練するためにコンテンツを提供したというニュースが入りました。

At this point, this was more of a rumor and we didn't really know who the company was.

この時点では、これはむしろ噂であり、どの会社がそれを行ったのかはよくわかりませんでした。

It was just widely believed that Reddit was going to start allowing training on its data to some AI company.

RedditがいくつかのAI企業にデータのトレーニングを許可し始めると広く信じられていた。

Well, a couple of days later, we found out that company is Google.

数日後、その企業がGoogleであることがわかりました。

On February 22nd, Google made the announcement that they've expanded their partnership with Reddit.

2月22日、GoogleはRedditとのパートナーシップを拡大したことを発表しました。

This includes giving Reddit access to their Vertex AI and their cloud computing resources so that Reddit can integrate new AI powered capabilities.

これには、Redditが新しいAI機能を統合できるように、GoogleがRedditにVertex AIとクラウドコンピューティングリソースへのアクセスを提供することが含まれます。

It also looks like Google is getting a lot from Reddit as well.

GoogleもRedditから多くの恩恵を受けているようです。

Google now has access to Reddit's data API, which delivers real-time structured, unique content from their large and dynamic platform.

Googleは今、RedditのデータAPIにアクセスできるようになりました。これにより、Redditの大規模かつ動的なプラットフォームからリアルタイムの構造化されたユニークなコンテンツが提供されます。

With the Reddit data API, Google will now have efficient and structured access to fresher information as well as enhanced signals that will help us better understand Reddit content and display, train on, and otherwise use it in the most accurate and relevant ways.

RedditのデータAPIを使用することで、Googleはより新鮮な情報に効率的かつ構造化されたアクセスを得るとともに、Redditのコンテンツをより正確かつ関連性の高い方法で理解し、表示、トレーニング、その他の方法で使用するのに役立つ信号を強化することができます。

So Gemini training on the whole of Reddit data could be pretty huge for Gemini.

Reddit全体のデータに対するGeminiのトレーニングはかなり大きなものになるかもしれません。

It feels very similar to the fact that Grok is training on data from X in real time.

これは、GrokがリアルタイムでXのデータからトレーニングを行っている事実と非常に似ています。

If Gemini can train on Reddit data in real time, Gemini could become really good at keeping its finger on the pulse of news and public discourse around specific events.

もしGeminiがリアルタイムでRedditのデータをトレーニングできるなら、Geminiは特定のイベントに関するニュースや公共の議論の最新情報を把握するのに本当に優れたものになるかもしれません。

And since most memes seem to start on Reddit, I would hope this will be one hell of a meme generator as well.

そして、ほとんどのミームがRedditで始まるようですので、これはミームジェネレーターとしても素晴らしいものになることを期待しています。

And since we're talking about Google, Google did make a handful of other announcements this week, including the fact that you can now use Gemini in Gmail, Google Docs, and other Google products with Google One plan.

そして、Googleについて話しているので、Googleは今週、GeminiをGmail、Google Docs、および他のGoogle製品でGoogle Oneプランを使用できるようになったという事実を含むいくつかの発表を行いました。

Now, if you did sign up for a two month trial of Gemini Advanced, you also signed up for a two month trial of Google One.

もしもあなたがGemini Advancedの2か月間のトライアルにサインアップしたなら、Google Oneの2か月間のトライアルにもサインアップしたことになります。

And if that's the case, you can jump into Google and you'll see this little Help Me Write button.

もしそうなら、Googleにアクセスして、この小さな「Help Me Write」ボタンが表示されます。

You click on that and it'll help you write your Gmail emails.

それをクリックすると、Gmailのメールを書くのを手伝ってくれます。

Google also added a new AI feature to Chrome called Help Me Write.

GoogleはChromeに「Help Me Write」という新しいAI機能を追加しました。

This was a feature they announced a few weeks ago, but finally rolled it out to Chrome users in the US.

これは数週間前に発表された機能でしたが、ついに米国のChromeユーザーに展開されました。

So if you're in the US and you have the latest update to Chrome, you can now use Help Me Write on various forms on the web.

もし米国にいて、Chromeの最新アップデートを持っているなら、ウェブ上のさまざまなフォームでHelp Me Writeを使えるようになります。

So just for an example, I'm going to go to Twitter here and up where I would enter my tweet, I'm going to right click and you can see there's a new option in my dropdown that says Help Me Write.

例えば、ここでTwitterに行って、ツイートを入力する場所に移動し、右クリックして、ドロップダウンメニューに新しい「Help Me Write」というオプションがあるのが見えます。

This isn't a Twitter feature.

これはTwitterの機能ではありません。

This is now built into Chrome.

これは今やChromeに組み込まれています。

If you have the most up to date version in the US, I can click on Help Me Write.

米国で最新バージョンを持っているなら、Help Me Writeをクリックできます。

You start typing something and theoretically, it will help you continue that thought.

何かを入力し始めて、理論的にはその考えを続けるのを手伝ってくれるはずです。

So for example, if I put there's a huge boom in AI right now and I'm really excited and then click Create, it should help me flesh out this thought a little more.

例えば、今AIの大ブームがあると言って、本当に興奮しているとしたら、それをクリックして作成すると、この考えをもう少し具体化するのに役立つはずです。

But for whatever reason, as I'm recording this, I keep getting this something went wrong, try again.

しかし、何らかの理由で、この録音中に何度も何かがうまくいかない、もう一度試してくださいと表示されます。

I actually tried this on LinkedIn.

実際に私はLinkedInで試してみました。

I tried it on Twitter.

Twitterでも試しました。

I've tried it on a handful of pages.

お手数ですが、いくつかのページで試してみました。

I keep getting this error.

このエラーが続いています。

So I don't know what's going on.

何が起こっているのかわかりません。

Maybe there's still some kinks to work out with this new feature inside of Chrome, but it's there on the dropdown.

おそらく、Chromeのこの新機能にはまだいくつかの問題があるのかもしれませんが、ドロップダウンメニューにはあります。

I just haven't been able to get it to work yet.

ただ、まだうまく動かすことができていません。

And probably the most interesting Google news from this week is that Google released Gemma, which is a brand new Large Language Model that they've open sourced.

そして、今週の中で最も興味深いGoogleのニュースは、GoogleがGemmaをリリースしたことです。これは、彼らがオープンソース化した全く新しい大規模言語モデルです。

You can see that these Gemma models were built from the same research and technology used to create the Gemini models.

これらのGemmaモデルは、Geminiモデルを作成するために使用された同じ研究と技術から構築されたことがわかります。

They've released two sizes of the model, a two billion parameter model and a seven billion parameter model.

彼らは、モデルの2つのサイズ、20億パラメータモデルと70億パラメータモデルをリリースしました。

They even showed this image of the various benchmarks and how Gemma compares to LLaMA 2.

彼らは、さまざまなベンチマークとGemmaがLLaMA 2と比較される方法を示したさえしました。

And in general capabilities, it seems to have outperformed LLaMA in reasoning.

そして、一般的な能力では、推論においてLLaMAを上回っているようです。

It outperformed LLaMA in math.

数学においてもLLaMAを上回っています。

It outperformed LLaMA and in code.

コードにおいてもLLaMAを上回っています。

It outperformed LLaMA.

LLaMAを上回っています。

And not only did it outperform LLaMA 2, but it outperformed the 13 billion parameter model as a seven billion parameter model.

そして、LLaMA 2だけでなく、70億パラメータモデルとして130億パラメータモデルを上回っています。

However, Matthew Berman here did a video all about Google's new Gemma open source model and he tested it and well, you can see his title. 'Google's new open source model is shockingly bad'.

しかし、こちらのマシュー・バーマンはGoogleの新しいオープンソースモデル「Gemma」についてのビデオを作成し、それをテストしました。そして、彼のタイトルをご覧いただければ分かる通り、「Googleの新しいオープンソースモデルは驚くほど悪い」とのことです。

He said that it didn't seem like those benchmarks were quite correct and that he wasn't really getting the best results using Gemma.

彼は、それらのベンチマークがまったく正確ではないように思えず、Gemmaを使用して最良の結果を得られなかったと述べました。

Definitely check out Matthew Berman's video on this.

ぜひ、マシュー・バーマンのこのビデオをチェックしてください。

If you haven't already, I will link it up below, but he does show you how to set up a Gemma with LLM studio.

まだの方は、以下にリンクを貼りますが、彼はGemmaをLLMスタジオと設定する方法を紹介しています。

But at the end of it all concluded that I still would not recommend this model.

しかし、最終的には、私はまだこのモデルをお勧めしないと結論付けました。

But one beautiful part about this being open source is that others can play with it, build off of it, iterate off of it and make a better model for us to use.

しかし、これがオープンソースである美しい部分の1つは、他の人がそれを使って遊び、それを基に構築し、それを繰り返し、私たちが使用するためのより良いモデルを作成できることです。

So this is just a base.

これは単なるベースです。

This is a starting point for other developers, other engineers to build on top of.

これは他の開発者やエンジニアが上に構築するための出発点です。

Adobe had some announcements this week as well, including the fact that they introduced the CAVA or co-creation for audio, video and animation research organization inside of Adobe research.

Adobeは今週、CAVAまたはオーディオ、ビデオ、アニメーション研究機関をAdobe研究内に導入したことを含むいくつかの発表をしました。

In fact, my buddy Bilal here made an interesting observation saying that he can't help but wonder if OpenAI Sora has been a wake-up call for Adobe to formalize and accelerate their video and multimodal creation efforts.

実際、ここでの私の仲間のビラルは興味深い観察をしました。OpenAI SoraがAdobeにとってビデオとマルチモーダルの創造努力を形式化し、加速させるきっかけになったのではないかと思わずにはいられないと言っています。

Adobe has publicly released a generative AI tools for image creation, but video and animation has been neglected this far, but now having a horizontal research team, exploring the full suite of capabilities to reimagine video and animation authoring could be just what the doctor ordered.

Adobeは画像作成のための生成AIツールを公開していますが、ビデオとアニメーションはこれまで無視されてきました。しかし、水平研究チームを持つことで、ビデオとアニメーションの制作を再考するための能力の完全なスイートを探求することは、まさに必要なことかもしれません。

So it is interesting timing.

したがって、タイミングは興味深いです。

The announcement of this team came only a few days after the announcement of Sora from OpenAI and the world having their eyes opened to what can be done with AI video generation.

このチームの発表は、OpenAIのSoraの発表の数日後に行われ、世界がAIビデオ生成で何ができるかに目を開かれたことを示しています。

Adobe also announced a new upgrade to Adobe Acrobat.

Adobeはまた、Adobe Acrobatの新しいアップグレードを発表しました。

Adobe Acrobat is the tool that most people used to use to read PDFs.

Adobe Acrobatは、ほとんどの人がPDFを読むために使用していたツールです。

I feel like most people probably just read them right in their browser these days.

最近では、ほとんどの人がおそらくブラウザでPDFを読んでいると感じています。

At least that's the habit that I've gotten into for reading PDFs.

少なくとも、私はPDFを読むためにその習慣になっています。

But if you use Adobe Acrobat to read PDFs, you now have an AI assistant to essentially chat with the PDF.

しかし、Adobe Acrobatを使用してPDFを読む場合、PDFと本質的にチャットできるAIアシスタントが利用できるようになりました。

Things that you can do with like Claude and ChatGPT where you upload a PDF, ask questions about the PDF, you can now do that as well inside of Adobe Acrobat.

ClaudeやChatGPTのようなもので、PDFをアップロードし、PDFに関する質問をすることができます。それをAdobe Acrobat内でも行うことができるようになりました。

I'm curious how many people still actually use Adobe Acrobat.

実際にAdobe Acrobatをまだ使っている人がどれくらいいるのか気になります。

I feel like I used it a long time ago when PDFs first started coming out, but now I just kind of use my Chrome browser to read PDFs.

PDFが最初に登場したときには、以前は使っていたような気がしますが、今はChromeブラウザを使ってPDFを読むことが多いです。

Am I weird or is that the norm for other people as well?

私は変わっているのでしょうか、それとも他の人にとっても普通なのでしょうか?

This week we also got confirmation that Microsoft will be including Sora inside of Copilot at some point.

今週、Microsoftがいずれかの時点でCopilot内にSoraを含めることを確認しました。

However, the specific timeline remains unclear.

ただし、具体的なタイムラインは不明です。

Basically somebody at Microsoft responded to this question on Twitter, will OpenAI Sora come to Copilot?

基本的に、Microsoftの誰かがTwitterでこの質問に答えたということです。OpenAIのSoraはCopilotに登場するのか?

They said eventually, but it will take time.

彼らは最終的にはそうなると言いましたが、時間がかかるでしょう。

That's the news.

それがニュースです。

That's what this whole article here was written about.

それがこの記事全体が書かれた内容です。

That little tweet exchange.

その小さなツイートのやり取り。

Now this is something you've probably already seen.

これはおそらくすでに見たことがあるものです。

This is Will Smith going quite viral, but for a completely different reason than why he went viral last time, you might remember when tools like model scope and zero scope were coming out, the very early AI text to video generators, people were generating videos of Will Smith eating spaghetti.

おそらく覚えているかもしれませんが、前回バイラルになった理由とはまったく異なる理由で、ウィル・スミスがかなりバイラルになっています。モデルスコープやゼロスコープなどのツールが登場し始めたとき、非常に初期のAIテキストからビデオを生成する人々がウィル・スミスがスパゲッティを食べているビデオを生成していました。

Well, Will Smith trolled back and made a whole bunch of silly videos of him actually eating spaghetti in really weird ways and making it look like an AI generated video.

さて、ウィル・スミスは反撃し、実際にスパゲッティを非常に奇妙な方法で食べている様子をたくさんの愚かなビデオを作り、それをAIが生成したビデオのように見せかけました。

And this was actually so goofy and silly and weird looking that a lot of people actually thought that this was a video that was generated with Sora.

これは実際にとてもおかしくて愚かで奇妙に見えたため、多くの人々がこれがSoraで生成されたビデオだと思ったのです。

People thought, all right, we got a video a year ago with model scope and now here's what Sora can do.

人々は、よし、1年前にモデルスコープでビデオを手に入れたので、これがSoraができることだと思ったのです。

But no, this is actually Will Smith making some weird crazy videos of him messing around with spaghetti.

しかし、これは実際にはウィル・スミスがスパゲッティで遊んでいる奇妙でクレイジーなビデオを作っているのです。

I think my buddy Bill of all also made a comment about this, about how we've got the model scope version and now we have ground truth.

おそらく私の仲間のビルもこれについてコメントをしたと思います。モデルスコープバージョンがあるし、今はグラウンドトゥルースもあります。

Now we just need the Sora version to see how they all compare.

今はただ、それらがどのように比較されるかを見るためにSoraバージョンが必要です。

ElevenLabs did something interesting with the Sora video as well.

ElevenLabsはSoraビデオでも面白いことをしました。

ElevenLabs is coming out with a new feature called AI sound effects where you can give it text prompts like waves crashing, metal clanging, birds chirping, racing car engine, et cetera.

ElevenLabsはAIサウンドエフェクトという新機能を発表しています。波の音、金属の音、鳥のさえずり、レーシングカーエンジンなどのテキストプロンプトを与えることができます。

And it will generate the audio

そして、それをオーディオに生成します。

And then overlay it on video clips.

そして、それをビデオクリップにオーバーレイします。

ElevenLabs is already probably the best text to speech generator out there.

ElevenLabsはおそらくすでに最高のテキスト読み上げジェネレーターです。

One of the best AI dubbing tools out there, translation tools.

最高のAI吹き替えツール、翻訳ツールの1つです。

It does a lot of really, really cool stuff.

本当に本当にクールなことをたくさんやっています。

It looks like they're trying to be the full suite of everything you'll need for audio generation.

彼らはオーディオ生成に必要なすべてのものを提供しようとしているようです。

Here's some of the audio it generated laid over some Sora footage.

こちらは、いくつかのSoraの映像に生成されたオーディオが重ねられています。

It seems to do a pretty good job, but ElevenLabs had a pretty exciting week even outside of this information announcing that they're actually now part of the 2024 Disney Accelerator, which makes me think that Disney is very interested in using tools like ElevenLabs to generate voiceovers.

かなり良い仕事をしているようですが、ElevenLabsはこの情報の外でもかなりエキサイティングな週を過ごしました。実際に2024年のディズニーアクセラレーターの一部になったことを発表しました。これにより、ディズニーはElevenLabsのようなツールを使うことに非常に興味を持っていると思います。

Just think about the cartoon world.

アニメの世界を考えてみてください。

I don't know if this is a good thing or a bad thing, but if you're Disney and you generate a lot of animations, ElevenLabs is a great way to get a lot of voices into the animations without hiring expensive voice actors.

これが良いことなのか悪いことなのかわかりませんが、もしディズニーで多くのアニメーションを生成する場合、ElevenLabsは高額な声優を雇わずに多くの声をアニメーションに入れる素晴らしい方法です。

We could be moving into this world now where voice actors don't go in and speak line for line everything they're going to say for a movie, but instead they license their voice.

今後、声優が映画のために言うすべての台詞を一行ずつ話すのではなく、声をライセンスする世界に移行するかもしれません。

They give people like an ElevenLabs access and now any movie can generate the voice of that person that they got access to.

彼らはElevenLabsへのアクセスを提供し、今やどんな映画でもそのアクセスを得た人物の声を生成できるようになりました。

It seems like Disney's here for it.

ディズニーはそれに興味を持っているようです。

If you're curious what the other companies that Disney was looking at for their Accelerator, check this out.

ディズニーがアクセラレーターに向けて検討していた他の企業が気になる場合は、こちらをご覧ください。

Audio Shake, a company that uses AI to separate the layers of recorded sound in order to make audio interactive, editable and customizable.

オーディオシェイクは、AIを使用して録音された音のレイヤーを分離し、オーディオをインタラクティブ、編集可能、カスタマイズ可能にする会社です。

ElevenLabs, Neuro, an autonomous vehicle company that builds custom electric zero-occupant vehicles for the delivery of goods.

ElevenLabs、Neuroは、カスタム電動無人車両を構築し、貨物の配送に使用する自律車両会社です。

Promethean AI, a company that provides a suite of tools for virtual world creation and digital asset management.

Promethean AIは、仮想世界の作成やデジタルアセット管理のためのツールを提供する会社です。

And then Status Pro, an immersive entertainment company that leverages virtual and augmented reality to create first person sports gaming experiences, which makes sense since Disney owns ESPN.

Status Proは、仮想現実と拡張現実を活用して、ファーストパーソンスポーツゲーム体験を創造する没入型エンターテイメント会社です。ディズニーがESPNを所有しているので、それは理にかなっています。

But based on this Disney Accelerator, Disney's really going hard into AI and seemingly augmented reality, virtual reality.

しかし、このディズニーアクセラレーターを基にすると、ディズニーは本当にAIや見えない拡張現実、仮想現実に本腰を入れているようです。

All right, I'm going to rapid fire a few more quick announcements that came out this week that are really interesting to me.

さて、今週発表されたいくつかの興味深い迅速な発表をいくつか行います。

OpusClip just introduced OpusClip 3.0.

OpusClipはついにOpusClip 3.0を導入しました。

If you're not familiar with OpusClip, it's a tool where you can take long form like YouTube videos, plug it into their tool.

OpusClipに馴染みがない場合、YouTubeのような長い形式を取り、それを彼らのツールに差し込むことができるツールです。

It will find the moments that it thinks will be viral, turn those into clips, add subtitles and turn them into like a short TikTok real kind of video.

それは、ウイルス性があると思われる瞬間を見つけ、それらをクリップに変え、字幕を追加し、短いTikTokリアルのようなビデオに変えることができます。

I haven't actually played with this version yet.

実際には、このバージョンをまだ使ったことがありません。

I'll likely do a deeper dive video into some of these kinds of tools for a future video.

将来のビデオのために、これらの種類のツールのいくつかについて詳しく調査する可能性が高いです。

But supposedly this new version is better at finding the viral moments inside of a video, allows you to do different length clips all the way up to 15 minutes.

しかし、この新しいバージョンは、ビデオ内のウイルス性のある瞬間を見つけるのに優れていると言われており、15分までのさまざまな長さのクリップを作成できます。

It can actually generate B-roll with AI.

実際にAIでBロールを生成することができます。

This isn't it finding stock footage.

これは株式映像を見つけるのではありません。

It can actually now generate text to video B-roll inside of your short clip, like this cute dog riding a motorcycle in space.

実際には、このかわいい犬が宇宙でバイクに乗っているような、あなたの短いクリップ内にテキストからビデオBロールを生成することができます。

There's more caption styles and apparently it's three times faster.

さらにキャプションのスタイルがあり、明らかに3倍速いようです。

So that's OpusClip 3.

それが OpusClip 3 です。

Another similar announcement came from Suno.

Suno からも似たような発表がありました。

They also announced version three of their alpha access.

彼らはアルファアクセスのバージョン3も発表しました。

You're not familiar with Suno or you forgot they are a tool that allows you to create music with AI.

Sunoに馴染みがないか、忘れてしまったのですか。SunoはAIを使って音楽を作成することができるツールです。

You enter a single text prompt and it will do the background music, the lyrics, the vocals, it does the whole song for you.

1つのテキストプロンプトを入力すると、バックグラウンドミュージック、歌詞、ボーカルなど、全曲を作成してくれます。

Well, this new version apparently has better audio quality and increased expressiveness.

この新しいバージョンは、音質が向上し、表現力が増しているようです。

You can now generate songs up to two minutes in length.

今では2分までの曲を生成することができます。

It's faster, has dedicated instrumental support, has expanded language coverage, and you can continue from anywhere.

より速く、専用の楽器サポートがあり、言語カバレッジが拡大され、どこからでも続きを生成することができます。

So if you generated a song and it only generated like a half a song, it can actually now generate the rest of the song, including songs that you made with the V2 version.

曲を生成したときに半分しか生成されなかった場合、V2バージョンで作成した曲を含む、残りの曲を生成することができます。

Now, if you have a premium account of Suno, which is 10 bucks a month, you will see a drop down here with V2 and V3 alpha.

今、Sunoのプレミアムアカウントを持っている場合、月額10ドルで、ここにV2とV3アルファが表示されます。

If you select V3 alpha, it will use this new model.

V3アルファを選択すると、この新しいモデルが使用されます。

I'm going to go ahead and paste in a prompt that says a song about AI and why you should follow Matt Wolf on YouTube to stay in the loop with the latest AI news and tools.

私はAIについての歌と、最新のAIニュースやツールについて最新情報を得るためにYouTubeでマット・ウルフをフォローすべき理由を書いたプロンプトを貼り付けます。

And let's click create.

そして、作成をクリックしましょう。

And it was actually really fast.

実際にとても速かったです。

It gave us two songs.

2つの曲が生成されました。

Let's try the pop upbeat one here and let's give it a listen.

ここでポップでアップビートな曲を試して、聞いてみましょう。

It almost kind of reminds me of like Owl City or something, but it's really, really good.

ほとんどOwl Cityのような感じがしますが、本当にとても良いです。

This version of the song that it generated is roughly a minute long, so I can definitely tell it's higher quality audio, higher quality lyrics, and definitely much longer.

このバージョンの曲は約1分ほどで生成されたもので、音質が高く、歌詞も質が高く、そして明らかに長いですので、確かにそれがわかります。

And it was much faster to generate.

生成するのがはるかに速かったです。

I also shared this recently on Twitter.

私は最近これをTwitterでも共有しました。

I think people thought I was trying to make some sort of political statement here.

ここで何か政治的な声明をしようとしていると人々が思ったようです。

I don't actually follow Tucker Carlson myself.

私自身はタッカー・カールソンをフォローしていません。

I just thought this was really crazy to see Putin speaking in English.

ただ、プーチンが英語で話しているのを見るのは本当に驚きました。

This entire interview was run through a translating AI tool and all of Putin speaking here was translated into English.

このインタビュー全体が翻訳AIツールを通して行われ、ここでプーチンが話している全てが英語に翻訳されました。

And it's just so sort of bizarre to hear.

それを聞くのは本当に奇妙です。

And the voice actually kind of moves along to the lips.

そしてその声は実際に唇に沿って動いています。

If you watch the lips long enough, you can tell there's something kind of like uncanny about it and it doesn't white sync up properly, but it was pretty fascinating to watch.

唇をじっと見ていると、何か不気味なものがあることがわかりますし、完全に同期していないこともわかりますが、それを見るのはかなり魅力的でした。

Again, not a political statement at all.

再度、これは全く政治的な声明ではありません。

I'm just looking at the tech here.

私はここでの技術を見ているだけです。

This week, the justice department and the U.S. got a chief AI officer.

今週、司法省と米国は最高AI責任者を得ました。

Princeton professor, Jonathan Maher will advise the department on AI matters.

プリンストン大学の教授、ジョナサン・マハーがAIに関する問題で部門に助言することになりました。

We got the announcement that windows is getting its own magic eraser tool.

Windowsが独自のマジック消しゴムツールを取得するという発表を受けました。

We saw a lot of this kind of stuff in like the Galaxy phones.

私たちは、Galaxyのような携帯電話でこの種のものをたくさん見ました。

Now it looks like we're going to be able to do it inside of windows photos.

今、Windowsの写真の中でそれを行うことができるようです。

You can see in their little demo, they're actually erasing the leash and it makes the leash go away on the dog here.

彼らの小さなデモで見ることができますが、実際にリードを消して、ここで犬のリードが消えます。

Here's one where they're erasing the people in the background on this photo of the dog.

こちらは、この犬の写真の背景にいる人々を消しているものです。

They just sort of highlight the people, click a button and they're gone.

彼らは単に人々をハイライトし、ボタンをクリックすると消えます。

So that'll be a pretty cool, helpful feature inside of our windows photos app, if you're a PC windows user

あなたがPCのWindowsユーザーであるなら、それは私たちのWindowsフォトアプリ内のかなりクールで役立つ機能になるでしょう。

This was a pretty interesting story that I found kind of funny.

これは私が面白いと思ったかなり興味深い話でした。

Air Canada lost a court case after a chat bot hallucinated fake policies.

お客様が旅行費用の一部を喪失によるものとして払い戻しを受けられるとチャットボットが誤って伝えた。

Now, not too long ago, there was a story about somebody talking to a chat bot at Chevy and they got them to sell them a Chevy Tahoe for like a dollar or something like that.

さて、つい最近、Chevyのチャットボットと話しているときに、彼らを説得してChevy Tahoeを1ドルで買うことに成功したという話がありました。

Well, this time it happened again with air Canada.

今回は、Air Canadaでも同様のことが起こりました。

Basically this chat bot for air Canada told somebody that they can get a refund on some of the cost of their travel due to bereavement, due to a death of a family member or something like that.

基本的に、エアカナダのこのチャットボットは、旅行の一部の費用を喪失によるもの、家族の死などによるもので払い戻しを受けられると誰かに伝えたそうです。

Air Canada basically said, no, you can't get a refund for travel that already happened.

Air Canadaは基本的に、「既に発生した旅行に対して払い戻しはできない」と言いました。

Well, the court basically said, well, your chat bot told the person that they could get a refund, so you have to honor it.

裁判所は基本的に、「あなたのチャットボットがその人に払い戻しを受けられると伝えたので、それを履行しなければならない」と言いました。

So if you are a company that is using an AI chat bot as part of your customer support, just keep in mind that you should probably pay attention to the kinds of things your chat bot is saying because you can and probably will be held accountable for your chat bot telling your customers things that may not be true.

顧客サポートの一環としてAIチャットボットを使用している企業は、チャットボットが言っていることに注意を払うべきです。おそらく、お客様に対して真実でないことを伝えた場合、責任を問われる可能性があります。

And you may have to hold up to the bargain that the chat bot made.

そして、チャットボットが約束したことを果たさなければならないかもしれません。

And then finally, here's a sort of cryptic tweak that I find interesting, but I also think it's the perfect way to end this video.

最後に、興味深い暗号的なツイークがありますが、このビデオを締めくくる完璧な方法だと思います。

There will be three to four massive news coming out in the next weeks that will rock the robotics and AI space.

次の数週間で、ロボティクスとAI分野を揺るがす3〜4つの重大なニュースが発表される予定です。

Adjust your timelines.

時間を調整してください。

It will be a crazy 2024.

2024年は狂った年になるでしょう。

And if you remember in 2023, March was the craziest AI month there was we got GPT-4, we got Midjourney 4, we got Bard, we got announcements around Google's Gemini.

覚えているなら、2023年の3月はこれまでで最も狂ったAIの月でした。私たちはGPT-4を手に入れ、Midjourney 4を手に入れ、Bardを手に入れ、GoogleのGeminiに関する発表がありました。

All of that kind of stuff was happening in March of 2023.

その種のことはすべて2023年3月に起こっていました。

We are about to roll into March of 2024 and it's looking like this spring is going to be another wild crazy show for the world of AI.

2024年3月に入ろうとしており、この春はAIの世界でもう一つの狂ったショーになりそうです。

I'm here for it.

私はそのためここにいます。

I'm excited.

私は興奮しています。

I'm going to be going to a lot of the events this year.

今年はたくさんのイベントに参加する予定です。

So if you're going to a lot of events around tech and AI, I'll probably bump into you.

もしテクノロジーやAIのイベントにたくさん参加する予定なら、おそらくあなたに出くわすでしょう。

I am absolutely ready for it this year.

今年は完全に準備ができています。

It is going to be a fun and exciting year in the world of AI.

AIの世界では楽しくてエキサイティングな年になるでしょう。

Before I wrap up real quick, two quick announcements.

最後に、2つの迅速なアナウンスメントをする前に。

I'm going to be giving away this NVIDIA GeForce RTX 4080 SUPER.

私はこのNVIDIA GeForce RTX 4080 SUPERを無料で提供する予定です。

This is a thousand dollar GPU that can run Stable Diffusion and all your Large Language Models and things like that locally on your computer.

これは1000ドルのGPUで、Stable Diffusionやすべての大規模言語モデルなどをローカルのコンピューターで実行することができます。

It's a great gaming GPU.

これは素晴らしいゲーム用GPUです。

It's a, it's a workhorse.

それは働き者です。

It's basically what I got at my computer and it's amazing.

基本的に私のコンピューターに入っているもので、素晴らしいです。

I'm going to give this one away for free in order to enter.

私はこれを無料で提供して、入手するための手段とします。

All you got to do is register for the GTC conference from NVIDIA.

参加するためにしなければならないことは、NVIDIAのGTCカンファレンスに登録するだけです。

There's a couple options.

いくつかのオプションがあります。

There is the in-person option.

対面のオプションがあります。

I will be at GTC in person and there's the virtual option.

私は対面でGTCに参加する予定ですが、仮想のオプションもあります。

It costs money to go in person, but if you want to watch the virtual sessions, it's totally free.

直接参加するにはお金がかかりますが、仮想セッションを視聴したい場合は完全に無料です。

Register for either an in-person pass or the virtual pass and you'll be entered to win this GeForce 4080.

直接参加パスまたは仮想パスのいずれかに登録し、このGeForce 4080を獲得するチャンスがあります。

The link to register is in the description of this video so that we can keep track of who is entered and pick a winner in the future.

登録リンクはこの動画の説明にありますので、誰が登録したかを把握し、将来の当選者を選ぶことができます。

If you are worried about it, make sure that you also screenshot your receipt inside of email to let me know that you registered, but I should be able to find everybody that registered through the special link on this page to be able to pick a winner.

心配な場合は、登録したことを知らせるためにメール内のレシートのスクリーンショットも必ず撮っておいてください。ただし、このページの特別リンクを通じて登録したすべての人を見つけ出し、当選者を選ぶことができるはずです。

The other announcement, I will be at South by Southwest in Austin, Texas.

もう1つのお知らせですが、私はテキサス州オースティンで開催されるSouth by Southwestに出演します。

We're doing this AI evening on March 12th from 6 PM to 9 PM during South by Southwest.

私たちはSouth by Southwest中の3月12日午後6時から午後9時までAIイベニングを行います。

It's going to be a really fun event.

とても楽しいイベントになるでしょう。

We're going to talk about the future of AI and how it impacts your content marketing and your business.

AIの未来がどのようにコンテンツマーケティングやビジネスに影響を与えるかについて話します。

It's going to be a really, really great event.

本当に素晴らしいイベントになるでしょう。

Make sure if you do want to go, you book it soon.

参加したい場合は、早めに予約してください。

March 12th is coming up really fast and those hotels in Austin for South by Southwest, those things, they book up quick.

3月12日がすぐにやってきますし、サウス・バイ・サウスウエストのオースティンのホテルはすぐに予約が埋まってしまいます。

So make sure that if you haven't already, you book your hotel.

もしまだ予約していない場合は、ホテルを予約することを確認してください。

It's going to be a fun, fun night.

楽しい夜になるでしょう。

And finally, if you haven't already, make sure you check out futuretools.io.

最後に、もしまだであれば、futuretools.ioをチェックしてください。

Behind the scenes, I'm kind of in the process of an overhaul, trying to make it more user friendly, easier to find stuff and just more helpful overall.

裏方では、サイトをより使いやすく、情報を見つけやすく、全体的により役立つものにするための大改修作業を進めています。

So you will be seeing some updates to the site pretty soon, but this is the place where I curate all the coolest tools, all the latest AI news.

近々サイトの更新が見られるようになるので、ここが私が最新のAIニュースや最もクールなツールをまとめる場所であることを覚えておいてください。

It's also where you can join the free Future Tools weekly newsletter where I will send emails directly to your inbox with just the most important AI news, just the coolest AI tools.

また、無料のFuture Tools週報に参加できる場所でもあります。そこでは、最も重要なAIニュースや最もクールなAIツールに関するメールを直接あなたの受信トレイに送ります。

And when you sign up, you get free access to the AI income database, a database of a bunch of cool ways to make money using these AI tools.

サインアップすると、AI収入データベースに無料でアクセスできます。これは、これらのAIツールを使用してお金を稼ぐためのさまざまな方法が記載されたデータベースです。

That's all I got for you.

それが私があなたに提供できる全てです。

Thank you so much for tuning in.

お聞きいただき、ありがとうございました。

I really appreciate you.

あなたに本当に感謝しています。

If you want to stay in the loop with AI news, AI tutorials, AI research, all of that cool stuff, make sure you like this video.

AIのニュース、AIのチュートリアル、AIの研究など、すべてのクールな情報を知りたい場合は、この動画を気に入ってくださいね。

You subscribe to this channel.

このチャンネルに登録してください。

I'll make sure this kind of video keeps on showing up in your YouTube feed.

この種の動画が引き続きあなたのYouTubeフィードに表示されるようにします。

Thank you again.

改めてありがとうございます。

I really, really appreciate you.

本当に、本当にあなたに感謝しています。

Thank you so much to HubSpot for sponsoring this video.

この動画のスポンサーとしてHubSpotに本当に感謝します。

You guys rock as well.

あなたたちも素晴らしいです。

And yeah, I will see you in the next video.

そして、次の動画でお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?