見出し画像

【マット・ウルフのAIニュース:】英語解説を日本語で読む【2024年7月27日|@Matt Wolfe】

AIの世界で過去最大規模の進歩が見られた1週間について報告します。まず、MetaがLlama 3.1を発表し、8B、70B、405Bパラメーターの3つのモデルを公開しました。これらは多くのベンチマークでGPT-4oやClaude 3.5 Sonnetを上回る性能を示し、オープンソースモデルとしては画期的な成果です。Mistral AIもMistral Large 2を発表し、特にコード生成においてGPT-4oやLlama 3.1 405Bを上回る性能を示しました。GoogleもGemini 1.5 Flashへのアップグレードを発表し、無料版でも32,000トークンまで使用可能になりました。OpenAIはGPT-4oの微調整機能を無料で提供し始め、SearchGPTという新しい検索機能のプロトタイプも発表しました。一方、Anthropicはウェブサイトのスクレイピングに関する問題で批判を受けています。xAIのイーロン・マスクはGrok 3.0が年内に世界最強のAIモデルになると予告しました。ビデオ生成AI分野では、Luma AIがループ機能を追加し、Klingがテキストからビデオを生成する機能を改善しました。また、RunwayがYouTube動画を許可なく学習データとして使用していた疑惑が浮上し、AI学習データの倫理的問題が再び注目されています。Stability AIは単一のオブジェクト動画から複数の視点の動画を生成できるStable Video 4Dを発表しました。AdobeもIllustratorとPhotoshopに新しいAI機能を追加し、LeonardoはチームでのAI画像生成を可能にする機能を追加しました。音楽生成AI分野では、SunoがStemsという新機能を発表し、楽器や声のトラックを分離できるようになりました。
公開日:2024年7月27日
※動画を再生してから読むのがオススメです。


I'm in the final days of my vacation out here in Colorado just about ready to head home, but that does not mean I have not been keeping up with the AI news.

私はコロラドでの休暇の最終日にいますが、すぐに帰宅する準備をしています。しかし、AIのニュースを追いかけていないわけではありません。

There has been a ton, a ton of AI news this week, and I'm excited to dive into it with you right now.

今週はたくさんのAI関連のニュースがあり、今すぐそれについて詳しく調べることが楽しみです。

Let's get into it.

それでは始めましょう。

The one week that I'm out on vacation happens to be probably the biggest week in AI that we've had so far this summer, because this week is the week that Meta finally released their newest version of Llama called Llama 3.1.

私が休暇中の1週間は、おそらく今夏これまでで最も大きなAIの週だったという偶然があります。なぜなら、今週はMetaがついにLlamaの最新バージョンであるLlama 3.1をリリースした週だからです。

Llama 3.1 is an upgraded model of the previously released Llama 3, and it now comes in three sizes instead of just two.

Llama 3.1は以前にリリースされたLlama 3のアップグレードモデルであり、今では2つではなく3つのサイズで提供されています。

We've got our 8B parameter model, our 70B parameter model, and our 405B parameter model.

私たちの80億パラメーターモデル、700億パラメーターモデル、そして4050億パラメーターモデルがあります。

This is essentially the amount of data that was trained into the model.

これは基本的にモデルにトレーニングされたデータの量です。

The bigger the model, typically the better it is at things like reasoning and math, and it just generally has the most amount of use cases for it.

モデルが大きいほど、通常は推論や数学などの点で優れており、一般的に最も多くのユースケースを持っています。

Some of the things that these new versions of Llama can do are things like use tools.

これらの新しいバージョンのLlamaができることの一部は、ツールの使用などです。

It's got multilingual agents.

多言語エージェントを持っています。

For an example, translate the story of Hansel and Gretel into Spanish.

例として、ヘンゼルとグレーテルの物語をスペイン語に翻訳してください。

It's better at complex reasoning and it's better at coding.

複雑な推論においては優れており、コーディングにおいても優れています。

If we look at some of the benchmarks that Meta shared, we can see here that a lot of the benchmarks actually outperform all of the other state of the art models in a lot of areas.

Metaが共有したいくつかのベンチマークを見ると、実際には多くのベンチマークが他の最先端モデルを多くの領域で上回っていることがわかります。

The current sort of leaders are GPT-4o and Claude 3.5 Sonnet, and we can see that this Llama 3.1 405B parameter model actually outperformed these other models in a lot of the various benchmark testing.

現在のリーダーはGPT-4oとClaude 3.5 Sonnetであり、このLlama 3.1 405Bパラメータモデルが実際に他のモデルを多くのさまざまなベンチマークテストで上回っていることがわかります。

We actually have an open source model now that is pretty much on par with what you get out of things like GPT-4o and Claude 3.5 Sonnet.

実際、GPT-4oやClaude 3.5 Sonnetなどから得られるものとほぼ同等のオープンソースモデルがあります。

When looking at their 8B parameter model, the smaller model that they just released, it pretty much outperforms in basically every area compared to the other similar size smaller models.

彼らが最近リリースした小さなモデルである8Bパラメータモデルを見ると、他の同様のサイズの小さなモデルと比較して、実質的にすべての領域で優れています。

But what really makes this one powerful is the fact that it is open source.

しかし、このモデルを強力にしているのは、それがオープンソースであるという事実です。

You can actually download these models.

これらのモデルを実際にダウンロードすることができます。

They're publicly available and anybody can update them and fine tune them.

これらは一般に利用可能であり、誰でも更新や微調整を行うことができます。

Something that can't really be said about Claude 3.5 Sonnet or GPT-4o.

Claude 3.5 SonnetやGPT-4oについては言えないことです。

We can see here it says developers can fully customize the models for their needs and applications, train on new data sets and conduct additional fine tuning.

ここには、開発者が必要に応じてモデルを完全にカスタマイズし、新しいデータセットでトレーニングし、追加の微調整を行うことができると記載されています。

Developers and engineers now have a model to play around with and fine tune and optimize for whatever they need it for.

開発者やエンジニアは、今や遊び回り、微調整し、必要に応じて最適化するためのモデルを手に入れました。

That's as powerful as something like GPT-4o and Claude 3.5 Sonnet.

これは、GPT-4oやClaude 3.5 Sonnetのようなものと同じくらい強力です。

This is huge for the open source AI community.

これは、オープンソースのAIコミュニティにとって非常に重要です。

There's one slight caveat to the open sourceness of this and that's that if we look at the additional commercial terms here under the licensing agreement, it says if you have more than 700 million monthly active users, you must request a license from Meta, which Meta may grant to you in its sole discretion.

このオープンソース性には、わずかな注意点があります。ライセンス契約の下でここに追加の商用条件を見ると、月間アクティブユーザーが7億人を超える場合、Metaからライセンスをリクエストする必要があり、Metaが自己の裁量でライセンスを付与する可能性があります。

If you use these Llama models to build something that gets more than 700 million active users, then you need to sort of work it out with Meta and they're probably going to want a piece of that Pi or something, I don't know.

もしあなたがこれらのラマモデルを使って7億人以上のアクティブユーザーを獲得するような何かを構築する場合、Metaと協力して解決する必要があります。そして、おそらく彼らはそのPiの一部を欲しがるでしょう、何かしら、よくわかりません。

Most people aren't going to be able to download and run the 405B parameter model on their own local machines.

ほとんどの人は自分のローカルマシンで405Bパラメーターモデルをダウンロードして実行することができません。

Not only are the files hundreds of gigabytes, but you're gonna need more VRAM than most people have.

ファイルは数百ギガバイトあり、ほとんどの人が持っているよりも多くのVRAMが必要になります。

Even if you run in a 4090 from NVIDIA, you're probably still not going to be able to run it on your computer.

NVIDIAの4090を使っても、おそらくまだコンピューターで実行することができないでしょう。

However, you can go and play with these models in a couple places.

ただし、これらのモデルをいくつかの場所で試すことはできます。

You can use it at Meta AI, you can use it in WhatsApp, you can use it in Instagram Messenger, Facebook Messenger, all of the various messaging platforms that Facebook offers are now using the latest model.

Meta AIで使用することができますし、WhatsAppやInstagram Messenger、Facebook Messengerなど、Facebookが提供するさまざまなメッセージングプラットフォームでも最新モデルが使用されています。

If you have the Meta Ray-Bans as well, they're getting the latest model built into them as well.

Meta Ray-Bansをお持ちの場合も、最新モデルが組み込まれています。

I don't think it's in there yet, but they're going to be getting the latest versions of Llama built into them as well.

まだそこには入っていないと思いますが、Llamaの最新バージョンも組み込まれる予定です。

But probably the easiest place to go and play around and test the models right now is just over at Meta AI.

ただ今、モデルを試して遊び、テストするのに最も簡単な場所はMeta AIです。

You can see we have a chat bot here.

ここにチャットボットがあるのがわかります。

If I ask the chat bot, what LLM are you currently using?

もしチャットボットに尋ねたら、現在どの大規模言語モデルを使用しているのかと?

It'll tell me I'm Meta AI and I'm based on Llama 3, a state of the art language model developed by Meta.

それは私がメタAIであり、メタによって開発された最先端の言語モデルであるLlama 3をベースにしていると教えてくれます。

I'll say, which version of Llama are you running?

私は、どのバージョンのLlamaを実行しているのかと言うでしょう。

I'm a Large Language Model based on Meta Llama 3.1.

私は、Meta Llama 3.1に基づいた大規模な言語モデルです。

Not really giving me the answers outright, but I'll say how many parameters and you can see this one's based on the 70B parameter model here.

直接的に答えを教えてくれないが、私はパラメータの数を言うでしょう。そして、このモデルは70Bのパラメータに基づいていることがわかります。

But if you want the absolute fastest way to use Llama 3.1, well, it was just rolled out onto Grok's platform as well.

しかし、Llama 3.1を最速で使用したい場合は、Grokのプラットフォームにも展開されました。

We can see here they put out an article that says Grok supercharges fast AI inference for Meta Llama 3.1.

こちらでは、Grokが発表した記事で、GrokがMeta Llama 3.1の高速AI推論を強化していることがわかります。

Grok is proud to partner with Meta on this key industry launch and run the latest Llama including 405B, 70B and 8B at Grok speed.

Grokは、この重要な業界ローンチでMetaと提携し、最新のLlama(405B、70B、8Bを含む)をGrokのスピードで実行しています。

If we jump over to Grok.com where we can actually chat, we can see up in the right corner we can change which model we're using.

実際にチャットできるGrok.comに移動すると、右上のコーナーで使用するモデルを変更できることがわかります。

We now have Llama 3.18B instant and Llama 3.1 70B versatile.

現在、Llama 3.18BインスタントとLlama 3.1 70B多目的が利用可能です。

We don't have Llama 3.1 405 here in Grok because apparently they're only making that available for enterprises at the moment.

Grokには現時点でLlama 3.1 405がありません。どうやら、それは現在企業向けにのみ提供されているようです。

But if we go ahead and select Llama 3.1 70B here and ask it a question or give it a prompt, for example, explain the trolley problem and tell me how to solve it.

しかし、ここでLlama 3.1 70Bを選択して質問したり、プロンプトを与えたりすると、例えば、トロリー問題を説明して解決方法を教えてください。

Watch how fast this responds.

この応答の速さを見てください。

This is all real time.

これはすべてリアルタイムです。

I didn't pause anything.

私は何も一時停止しませんでした。

It generated at 250 tokens per second and the entire output was back to me in 3.22 seconds with this whole explanation here.

250トークン/秒で生成され、この説明全体が3.22秒で私に戻ってきました。

But if you do want to use the 405B parameter model, it was also built into Perplexity right after it was announced.

しかし、405Bパラメータモデルを使用したい場合は、発表後すぐにPerplexityに組み込まれました。

Aravind says Llama 3.1 405B, the most capable open source model is up and running on Perplexity for all pro users.

Aravindは、Llama 3.1 405Bと言います。最も能力のあるオープンソースモデルが、すべてのプロユーザー向けにPerplexityで稼働しています。

You do have to be a pro user.

プロユーザーである必要があります。

But if we go over to Perplexity.ai, click into our settings and then come down here to AI model.

しかし、Perplexity.aiに移動し、設定にクリックしてから、ここにAIモデルに移動します。

I typically use it with Claude 3.5 Sonnet.

私は通常、Claude 3.5 Sonnetと一緒に使用しています。

I now have the option to run it on Llama 3.1 405B parameter.

今、Llama 3.1 405Bパラメーターで実行するオプションがあります。

Let's go ahead and select that, go home.

それを選択して、帰宅しましょう。

Any prompt I enter into Perplexity here is going to be running this newest model from Meta.

ここで入力するすべてのプロンプトは、Metaの最新モデルを実行することになります。

I use Perplexity a lot these days.

最近はPerplexityをよく使用しています。

I'm mostly switching back and forth between Claude 3.5 Sonnet and Perplexity.

私は主に、Claude 3.5 SonnetとPerplexityの間を行ったり来たりしています。

I use Claude when I want to sort of work through problems and answer questions and get help summarizing things, things like that.

Claudeは、問題を解決したり質問に答えたりして、物事を要約するのに役立つときに使用しています。

I use Perplexity if I know it needs to search the web or if I need to do some deep research.

Perplexityは、ウェブを検索する必要がある場合や深い研究を行う必要がある場合に使用しています。

We can also use Llama 3.1 405B inside of Perplexity.

Perplexity内でLlama 3.1 405Bも使用することができます。

If Llama 3.1 was the only thing that happened this week, that would have been a pretty big week in AI on its own, but that's not all that happened this week.

もしLlama 3.1が今週起こった唯一のことだったら、それはAIにとってかなり大きな週だったでしょうが、それだけが今週起こったことではありません。

Mistral AI, another company that's sort of competing with Meta for creating the best open source models, released Mistral Large 2.

Mistral AIは、最高のオープンソースモデルを作成するためにMetaと競合している会社の1つであり、Mistral Large 2をリリースしました。

Mistral Large 2 is a 123B parameter model, which based on the headline from Mistral is large enough.

Mistral Large 2は123Bのパラメーターモデルであり、Mistralの見出しに基づくと、十分に大きいと言えます。

We can see from their little charts here on their webpage that Mistral Large 2 is actually outperforming the Llama 3.1 70B, the newest model in math performance.

彼らのウェブページにある小さなチャートから、Mistral Large 2が数学の性能で最新のモデルであるLlama 3.1 70Bを上回っていることがわかります。

Here's some more benchmark comparisons from this Mistral model.

このMistralモデルからのさらなるベンチマーク比較をご覧ください。

We can see from the human eval benchmark Mistral Large 2 just slightly underperforms GPT-4o.

人間の評価ベンチマークから、Mistral Large 2はわずかにGPT-4oよりも性能が劣っていることがわかります。

It outperforms Claude 3.5 Sonnet and it outperforms Llama 3.1 405B, the newest model from Meta.

Claude 3.5 Sonnetを凌駕し、Metaの最新モデルであるLlama 3.1 405Bも凌駕しています。

It pretty much is on par with the best state of the art closed and open source models in all these other benchmarks here.

こちらの他のベンチマークでは、最先端のクローズドソースおよびオープンソースモデルとほぼ同等の性能を発揮しています。

When tested on code generation, this Mistral Large 2 outperformed all these other models in Python, C++, Bash, Java, TypeScript, PHP, and C Sharp.

コード生成のテストでは、このMistral Large 2はPython、C ++、Bash、Java、TypeScript、PHP、およびC Sharpのすべての他のモデルを凌駕しました。

But noticeably missing from this list here is Claude 3.5 Sonnet, which if I had to guess they left that out because Claude 3.5 Sonnet probably beat out Mistral in a lot of these, but I'm just speculating.

しかし、このリストから明らかに欠けているのはClaude 3.5 Sonnetです。おそらく、Claude 3.5 Sonnetがこれらの多くでMistralを凌駕していたため、それを省略したのだと思われますが、私は推測に過ぎません。

Why did they put Claude up here in these comparisons, but didn't mention it in these comparisons down here?

なぜ彼らはClaudeをこれらの比較に挙げたのに、下の比較では言及しなかったのでしょうか?

I don't know.

わかりません。

The point being here is that we are getting some really great open source models that are starting to compete with the bigger closed source models from companies like Anthropic and OpenAI.

ここで重要なのは、AnthropicやOpenAIのような企業の大規模なクローズドソースモデルと競合し始めている本当に素晴らしいオープンソースモデルを手に入れているということです。

When we get open source models like this, it's just the beginning.

このようなオープンソースモデルを手に入れると、それはたった始まりに過ぎません。

They're going to get fine tuned, they're going to get optimized, and they don't have the same rules and boundaries and biases and things like that that the closed models do have.

これらは微調整され、最適化され、クローズドモデルが持っているようなルールや境界、偏見などを持っていません。

Maybe these initial versions might, but because they're open source and other people are going to go and sort of iterate off of them, a lot of that stuff is going to be yanked away and perfected and optimized over time.

初期バージョンはそうかもしれませんが、オープンソースであり、他の人々がそれを元に進化させることになるため、そのようなものは時間をかけて取り除かれ、完成され、最適化されるでしょう。

This is a really powerful moment in time for AI, especially open source AI.

これは、特にオープンソースAIにとって非常に強力な時期です。

Apple's getting into the game as well.

Appleもこの分野に参入しています。

Google showed off a smaller model this week, a 7B parameter and a 1.4B parameter model, and they're making these open source as well.

Googleは今週、7Bパラメータと1.4Bパラメータの小さなモデルを披露し、これらもオープンソース化しています。

Their new model outperformed Mistral 7b, and they claim they're getting close to Llama 3 and Gemma, but this is obviously before Llama 3.1 came out, so who knows how close it is to the newest small model from Meta.

彼らの新しいモデルはMistral 7bを上回り、Llama 3やGemmaに近づいていると主張していますが、これは明らかにLlama 3.1が登場する前の話ですので、Metaからの最新の小さなモデルとどれほど近いかはわかりません。

Google's Gemini model got a big upgrade this week as well.

GoogleのGeminiモデルも今週、大幅にアップグレードされました。

According to Google's article here, they're upgrading the free tier of Gemini to Gemini 1.5 Flash, and they claim you'll notice improvements in quality and latency with especially noticeable improvements in reasoning and image understanding.

Googleの記事によると、彼らはGeminiの無料版をGemini 1.5 Flashにアップグレードしており、特に推論と画像理解の改善が顕著で、品質と遅延時間にも改善が見られると主張しています。

They've also expanded the amount of tokens on the free version of Gemini to 32,000 tokens.

彼らはGeminiの無料版でのトークンの量を32,000トークンに拡大しました。

According to this, to get the most out of the larger context window, we'll soon add the ability to upload files via Google Drive or directly from your device, which is already available in Gemini Advanced, but will soon be available in the free version of Gemini.

このため、より大きなコンテキストウィンドウを最大限に活用するために、近日中にGoogleドライブ経由またはデバイスから直接ファイルをアップロードできる機能を追加します。これはすでにGemini Advancedで利用可能ですが、無料版のGeminiでも近日中に利用可能になります。

You'll be able to throw documents inside of Google Drive and use that for context for whatever you're prompting inside of Gemini.

Googleドライブにドキュメントを投げ入れ、Gemini内でプロンプトしている内容に対してコンテキストとして使用することができます。

They're now displaying links to related content for fact-seeking prompts in Gemini.

Geminiでは、事実を求めるプロンプトに関連コンテンツへのリンクを表示しています。

If you think it's hallucinating, you can actually double check the source that it's getting that information from.

もし alucinating だと思うなら、実際にその情報を取得しているソースを二重チェックすることができます。

They're adding Gemini directly in Google Messages on select Android devices, and a handful of other features are all coming into Gemini.

彼らは選択された Android デバイスで Gemini を直接 Google メッセージに追加しており、他にもいくつかの機能がすべて Gemini に統合されています。

All of the companies building Large Language Models seem to have really big news this week.

大規模言語モデルを構築しているすべての企業は、今週は本当に大きなニュースを持っているようです。

You can't have a big week in AI from Meta and Google and Apple and Mistral without OpenAI getting in the game and trying to overshadow it a little bit with their latest announcements, including the fact that now you can actually fine tune GPT-4o and you can do it for free for up to 2 million training tokens a day.

Meta や Google、Apple、Mistral からの AI に関する大きな週があっても、OpenAI が参戦して最新の発表で少し影を落とそうとしていることを無視することはできません。それには、実際に GPT-4o を微調整することができ、1日最大 200 万トレーニングトークンまで無料で行うことができるという事実も含まれています。

This is a sort of limited time thing.

これは一種の期間限定のものです。

This is only through September 23rd, but they're trying to get people to get in, use GPT-4o and fine tune it on their own custom data.

これは9月23日までの期間限定ですが、人々に参加してもらい、GPT-4oを使用して独自のカスタムデータで微調整するよう努めています。

If you're a company that wants to fine tune it on your own internal documents or you want to fine tune it to just work with sort of health applications or biology applications, you can go and do that and experiment with it for free to up to 2 million training tokens a day right now.

もしあなたが、自社の内部文書で微調整したい企業であるか、健康アプリケーションや生物学アプリケーションと連携するよう微調整したい場合は、現在1日最大200万トレーニングトークンまで無料で試して実験することができます。

This week, OpenAI announced Search GPT.

今週、OpenAIはSearch GPTを発表しました。

There was speculation that this was going to come out months ago back when we got the GPT-4o announcement.

以前にGPT-4oの発表があったときに、数ヶ月前にこれが発表されるという憶測がありました。

A lot of the speculation was that this was going to be the announcement, this Search GPT.

多くの憶測は、このSearch GPTがその発表だというものでした。

Sam Altman here says, we think there's room to make Search much better than it is today.

サム・アルトマン氏はこう言っています。私たちは、現在よりも検索をはるかに改善できる余地があると考えています。

We're launching a new prototype called Search GPT.

私たちは、Search GPTという新しいプロトタイプを立ち上げています。

They put out a blog post about it with some more explanation of what we can expect.

彼らは、私たちが期待できるものについてさらに説明したブログ投稿を出しました。

They do say it's a temporary prototype of a new AI search feature.

彼らは、これが新しいAI検索機能の一時的なプロトタイプであると述べています。

If we look at their little sort of demo animation here, it looks like you can ask it a question and it gives us a response that looks very similar to what you get out of Perplexity or even Google Search with AI or Bing search where it actually gives you the answer with sources, maybe some images, some weather data was in that screenshot.

ここで彼らのデモアニメーションを見ると、質問をするとPerplexityやGoogle検索、Bing検索のように、ソースと一緒に回答が得られるようです。スクリーンショットにはおそらくいくつかの画像や天気データが含まれています。

We can see here they do a example prompt of music festivals in Boone, North Carolina in August.

ここでは、8月にノースカロライナ州ブーンで行われる音楽フェスティバルの例示が行われています。

We've got a response here where it shows the various music festivals with images and links to the actual source of the information.

実際の情報源への画像やリンクが表示される、音楽フェスティバルのさまざまな情報が示されています。

There's a little link button that opens up actual search results like you might see in something like Google.

Googleのようなもので見られる実際の検索結果が開くリンクボタンが少しあります。

It looks pretty promising, but it also looks kind of like what we get from Perplexity right now.

かなり有望に見えますが、現在のPerplexityから得られるものにも似ています。

They're rolling it out to a select number of people to test it, but you can join the wait list and maybe if you're lucky, you'll be one of the people that gets to test it before everybody else.

テストのために選ばれた人々に展開されていますが、待機リストに参加して、運が良ければ他の人よりも先にテストすることができるかもしれません。

We also got another little tease from Sam Altman.

サム・アルトマンからもう1つの小さなティーズがありました。

Marco here says, when are we getting voice?

マルコはこう言っています、「音声はいつ手に入りますか?」

Sam Altman actually replied to him and said alpha rollout starts to plus subscribers next week.

実際にサム・アルトマンは彼に返信し、アルファ版の展開が来週からプラスの加入者に始まると言いました。

If you're a ChatGPT pro user, we might be getting to see the voice feature that they showed off and got in trouble for because of the Scarlett Johansson stuff.

ChatGPTのプロユーザーであれば、彼らが披露し、スカーレット・ヨハンソンの問題でトラブルになった音声機能を見ることができるかもしれません。

We might get to see that like next week.

来週にはそれを見ることができるかもしれません。

Maybe we'll see.

もしかしたら私たちは見るかもしれません。

There's also some news out of Anthropic this week, albeit not as favorable or good news.

Anthropicからのニュースもありますが、好ましいものではないか、良いニュースではありません。

It looks like Anthropic's scraping bots are scraping websites at a insane rate even when the websites are telling them not to scrape my website.

Anthropicのスクレイピングボットは、ウェブサイトが自分のウェブサイトをスクレイプしないように言っているにも関わらず、狂気的な速度でウェブサイトをスクレイピングしているようです。

We can see Kyle Weins here says, Hey, Anthropic AI, I get you're hungry for data. Claude is really smart, but do you really need to hit our servers a million times in 24 hours? You're not only taking our content without paying, you're tying up our DevOps resources. Not cool.

カイル・ウィーンズがこう言っています。「Anthropic AI、データが欲しいのはわかります。Claudeは本当に賢いですが、24時間で100万回も私たちのサーバーにアクセスする必要が本当にあるのでしょうか?コンテンツを無料で利用しているだけでなく、私たちのDevOpsリソースも消費しています。これは良くないです。」

According to them, they specifically are asking in their terms of service for companies like Claude not to scrape them.

彼らによると、彼らはClaudeのような企業に対して、スクレイピングをしないように明示的にサービス利用規約で要求しています。

Just adding it to your terms of service, I don't believe is going to prevent some of these bots from scraping your site, but theoretically you should be able to add it to your robots.txt file, which should tell a lot of these bots, Hey, don't scrape this site.

利用規約に追加するだけでは、いくつかのボットがサイトをスクレイピングするのを防ぐことはできないと思いますが、理論的にはrobots.txtファイルに追加することができ、多くのボットに、このサイトをスクレイピングしないでくださいと伝えるはずです。

If I scroll down this thread a little bit here, it says our terms of service banned machine learning training before their crawl.

このスレッドを少しスクロールすると、クロール前に機械学習トレーニングを禁止するという私たちの利用規約が記載されています。

Afterwards, we added them to robots.txt.

その後、私たちはそれらをrobots.txtに追加しました。

It looks like they're doing the proper things to avoid scraping and Anthropic's been scraping it anyway.

スクレイピングを避けるために適切なことをしているようですが、Anthropicはそれをスクレイピングしています。

This is going to be a hot debate over the coming months, probably the coming years.

これは今後数ヶ月、おそらく数年にわたって続くであろう熱い議論になるでしょう。

We're even going to talk about it a little bit more in this video a little bit later when I get into some of the news around AI video, but I'm still in the Large Language Model weeds with you right now.

私たちは、AIビデオに関するニュースの中で少し詳しく話す予定ですが、今はまだ大規模言語モデルの詳細について話しています。

XAI and Grok is another pretty substantial Large Language Model.

XAIとGrokは、別のかなり重要な大規模言語モデルです。

While Elon Musk was on an interview this week, he said that Grok 2.0 is coming very soon and it's going to be on par with GPT-4o or Claude 3.5 Sonnet.

今週、イーロン・マスクはインタビュー中に、Grok 2.0が間もなく登場し、GPT-4oやClaude 3.5 Sonnetと同等の性能になると述べました。

But he also went on to say in this interview that Grok 3.0 will be the most powerful AI in the world and they're expecting to release it by December.

しかし、このインタビューで彼はまた、Grok 3.0が世界で最も強力なAIになると述べ、12月にリリースする予定だと述べました。

Elon sort of has a tendency to say something is coming at a certain time and then sort of under deliver on that time promise.

イーロンは、ある時期に何かが登場すると言う傾向があり、その時期の約束を果たせないことがあります。

We'll see if we actually do get it by December, but he's claiming that this will be the most powerful AI model that we've ever seen.

12月までに実際に手に入るかどうかはわかりませんが、彼はこれが今まで見た中で最も強力なAIモデルになると主張しています。

To sort of back that up a little bit here, we can see this other tweet from Elon saying nice work by xAI team, NVIDIA and supporting companies getting the Memphis super cluster training started at 420 AM local time.

これを少し裏付けるために、イーロンの別のツイートを見ると、xAIチーム、NVIDIA、およびサポート企業がMemphisスーパークラスターのトレーニングを現地時間の午前4時20分に開始したことを称賛しています。

Saying Elon, he probably specifically picked that time on purpose, but I won't go there.

イーロンは、おそらくその時期を特に意図して選んだのでしょうが、私はその点には触れません。

He says with 100,000 liquid-cooled H100s on a single RDMA fabric, it's the most powerful AI training cluster in the world.

彼は、1つのRDMAファブリックに100,000台の液冷H100を搭載して、世界で最も強力なAIトレーニングクラスターだと言っています。

He's got the most powerful AI training cluster in the world at his disposal, so it's not hard to believe that Grok 3.0 could be the most powerful model we've ever seen.

彼は世界で最も強力なAIトレーニングクラスターを自由に使えるので、Grok 3.0がこれまでに見た中で最も強力なモデルになる可能性が高いと信じるのは難しくありません。

But we don't know what OpenAI is going to do, maybe GPT-5 is going to come out before and he's going to have some more catching up to do.

しかし、OpenAIが何をするかはわかりません。もしかしたらGPT-5が先に登場し、彼が追いつかなければならないことがもっとあるかもしれません。

We just got to wait and see.

ただ待って見るしかありません。

Since we're on the Elon train right now talking about tweets and things that he's announcing and predicting lately, he said that Tesla will have genuinely useful humanoid robots in low production for Tesla internal use next year and hopefully high production for other companies in 2026.

今、最近のツイートや彼が発表し予測していることについて話しているので、私たちは今イーロンの列車に乗っています。彼は、来年にはTeslaが本当に役立つ人型ロボットを低生産で内部利用のために持つだろうと言い、2026年には他の企業向けに高生産を期待していると述べました。

He's saying these Tesla Optimus robots that we've all been seeing videos of, he's going to be using them at Tesla next year and other companies are going to be able to use them as part of their workforce by 2026.

彼は、私たちがすべてのビデオを見ているTesla・Optimus・ロボットを来年Teslaで使用し、他の企業が2026年までにそれらを労働力の一部として使用できるようになると言っています。

That feels fairly optimistic to me, but it also feels very plausible.

私にはかなり楽観的に感じますが、同時に非常に現実的にも感じます。

Bing's AI got a bit of a redesign this week.

今週、BingのAIが少しリデザインされました。

If we take a peek at this little video here, you can see that when they give it a question, it actually answers the question on the left side and the normal search results that you're used to are actually pushed over to the right side.

この小さなビデオを見てみると、質問をすると、実際に左側に質問に答え、通常の検索結果は右側に押しやられているのがわかります。

We can see here's another screenshot.

ここにもう1つのスクリーンショットがあります。

How long can elephants live?

象はどのくらい生きることができますか?

The answer is right here with some more details.

その答えは、さらに詳細が記載されています。

The source of the actual response that it gave and then the traditional search results that you'd expect are down this right sidebar.

実際の回答のソースと、期待される従来の検索結果が、この右側のサイドバーに表示されています。

I did a search on my own Bing account and it's still showing the old way, but I guess apparently it's rolling out to some or rolling out soon.

私は自分のBingアカウントで検索を行いましたが、まだ古い方法が表示されていますが、おそらく一部のユーザーには展開されているか、近日中に展開される予定です。

I don't know.

わかりません。

I'm still seeing the old way when I do a search.

検索をするときには、まだ古い方法が表示されます。

All right.

わかりました。

Shifting over to AI video news, Luma AI just released a cool new feature called loop.

AIビデオニュースに移りますと、Luma AIが新しい素敵な機能「ループ」をリリースしました。

They said today we are releasing loops in dream machine to keep your imagination going and going and going.

彼らは今日、「夢の機械」で想像力を続けるためにループをリリースすると言いました。

Get started here.

ここから始めましょう。

If you've used dream machine already, what I will say about it is that it's not super great at text to video yet, but if you generate an image, put the image in and then try to turn that image into a video, it's actually really, really good at that.

もしすでにDream Machineを使用したことがあるなら、私が言いたいのは、テキストからビデオへの変換にはまだあまり優れていないということですが、画像を生成し、その画像を入れてからその画像をビデオに変換しようとすると、実際には非常に優れているということです。

They've added a new looping feature where it can infinitely animate something over and over again, like this flaming loop video or this spaceship perpetually flying through space or a capybara riding a bicycle or this top that perpetually spins or just the prompt loop that just keeps on looping.

彼らは新しいループ機能を追加しました。これにより、この炎のループビデオや、宇宙を永遠に飛び続ける宇宙船、自転車に乗るカピバラ、永遠に回転するトップ、または単に繰り返しループするプロンプトなど、何かを無限にアニメーションさせることができます。

If we head on over to Luma Labs.AI, I can take an image, drop it in here and we can see that I've got a loop option.

もし私たちがLuma Labs.AIに移動すれば、画像を取り込んで、ループオプションを選択できます。

I simply click the loop option here and give it my prompt.

ここでループオプションをクリックして、プロンプトを入力するだけです。

I'm just going to put colorful swirling background, make sure a loop is checked.

カラフルで渦巻く背景を入れるだけで、ループがチェックされていることを確認します。

I'm going to uncheck enhanced prompt here and let's go ahead and see what it generates for us.

ここでは強化されたプロンプトを外し、生成物を見てみましょう。

I'm just throwing up one of my old thumbnails to see what it'll do with it, so it may not be great, but I wanted to show you a quick example.

古いサムネイルの1つを投稿してみて、それがどうなるか見てみます。だから素晴らしいとは限りませんが、素早い例をお見せしたかったのです。

Here's what it gave me, which I'm actually pretty impressed with.

実際に私に与えられたものは、かなり感心しています。

You could actually see AI news flashed onto the video for a second because that was in the original thumbnail, but it just loops this animation forever and ever and ever now.

実際、元のサムネイルにAIニュースがビデオに一瞬表示されるのが見えましたが、このアニメーションは今や永遠にループします。

I'm actually pretty impressed with this looping feature.

このループ機能には実際にかなり感心しています。

I think it's pretty cool.

かなりクールだと思います。

We'll definitely have to do some more playing around with it in future videos, but I want to move on and share with you even more AI video news because this week Kling, which a lot of people claim is the best text-to-video generator, I mentioned Luma's great for image-to-video, Kling is probably the best text-to-video out there that comes closest to what we've kind of seen with things like Sora.

将来の動画でこれをもっと試してみる必要がありますが、今週はKlingが最高のテキストからビデオを生成すると多くの人が主張しているので、さらにAIビデオニュースを共有したいと思います。私が以前に画像からビデオに最適なLumaを紹介しましたが、KlingはおそらくSoraのようなものと似ている最高のテキストからビデオへの変換ツールです。

It's also fairly uncensored where you can actually plug in celebrities' names and use IP and stuff like that right now.

また、かなり検閲が緩いので、有名人の名前を実際に入力してIPなどを使用することができます。

We can see an example here of some baby puppies or baby wolves here all, I guess, eating something.

ここでは、何かを食べている赤ちゃんの子犬や子狼の例を見ることができます。

Here's another one of like a samurai with a flaming sword running through the city.

こちらは、炎を纏った刀を持つ侍のような姿で街を駆け抜けるものです。

Humanoid robot like walking through a futuristic city.

未来都市を歩くような人型ロボットです。

It does pretty good text-to-video.

テキストからビデオへの変換はかなりうまくいっています。

If we head on over to KlingAI.com, we can actually log in and we don't actually need to give it a phone number.

KlingAI.comにアクセスすると、実際にログインすることができ、電話番号を提供する必要はありません。

Before people were using workarounds and getting Chinese phone numbers and plugging them in to get inside of it, but now all you got to do is register with an email and you can actually use it and you do get some free credits every day that you can play around with.

以前は、回り道をして中国の電話番号を取得し、それを入力して中に入る人がいましたが、今はメールで登録するだけで使用でき、毎日無料のクレジットを受け取ることができ、それを使って遊ぶことができます。

If I click on AI video, let's do one of my old standbys, a monkey on roller skates, and we'll generate.

AIビデオをクリックすると、私の古い定番の1つであるローラースケートを履いた猿を生成しましょう。

It takes about 10 credits, they gave us 66 credits every 24 hours, so roughly 6 videos a day.

約10クレジットかかりますが、24時間ごとに66クレジットを与えられるので、おおよそ1日に6本のビデオが生成できます。

Let's go ahead and generate.

さあ、生成してみましょう。

After a few minutes, this is what we got.

数分後、これが私たちが得たものです。

It actually looks like a monkey on roller skates.

実際には、ローラースケートを履いた猿のように見えます。

It's not amazing yet, I still haven't gotten the perfect monkey on roller skates, but I Figure a few more rolls of the dice and I probably would come up with something pretty decent.

まだ完璧なローラースケートを履いた猿を手に入れていないので、まだ素晴らしいとは言えませんが、もう少しサイコロを振れば、かなりまともなものができると思います。

They also have some other cool features here like the ability to mess with the camera movement, negative prompts, the ability to change between high performance and high quality, changing between 5 seconds and 10 seconds, different aspect ratios, things like that.

ここには、カメラの動きをいじる機能やネガティブなプロンプト、高性能と高品質の切り替え、5秒と10秒の切り替え、異なるアスペクト比など、他にもクールな機能があります。

Something we'll definitely need to play with again in a future video, which I'm really really looking forward to, but I want to move on with the news here and circle back around to that topic of where the training data is coming from on a lot of these tools.

これは将来のビデオでまた遊ぶ必要があるもので、本当に楽しみにしていますが、ここでニュースに移り、これらのツールの多くでトレーニングデータがどこから来ているかというトピックに戻りたいと思います。

Because this article came out this week on 404 Media about how Runway was trained on thousands of YouTube videos without permission.

Mediaの記事によると、Runwayは許可なく数千のYouTube動画でトレーニングされたとのことです。

In last week's news video, I talked about how companies like Anthropic and Apple and a bunch of these companies building Large Language Models were scraping the transcripts from YouTube videos without permission as training data.

先週のニュースビデオでは、AnthropicやAppleなどの企業がYouTube動画のトランスクリプトを許可なくトレーニングデータとして収集していることについて話しました。

It turns out that Runway was apparently training on YouTube videos.

ランウェイはおそらくYouTubeの動画をトレーニングしていたようです。

However, it's a little bit different because there's no real confirmation that they're doing this.

ただし、彼らがそれを行っているという確認が本当にないため、少し違います。

Leaked information from an anonymous source who then shared a spreadsheet of YouTube channels that supposedly this was trained on.

匿名の情報源から漏洩した情報によると、これがトレーニングされたとされるYouTubeチャンネルのスプレッドシートが共有されました。

It's all sort of confusing and vague, but there's this spreadsheet here and if we click on this tab that says recommended channels, supposedly these are the channels that the videos were pulled from to train Luma.

すべてがやや混乱して曖昧ですが、ここにこのスプレッドシートがあり、推奨チャンネルと書かれたタブをクリックすると、おそらくこれらはLumaをトレーニングするために引用された動画が取得されたチャンネルです。

But again, it's from an anonymous source and they were using VPNs and things like that to hide the fact that they were scraping.

ただし、再度言いますが、匿名の情報源からのもので、彼らはVPNなどを使用してスクレイピングしていることを隠すために行っていました。

It's really hard to 100% confirm that Runway actually did train on these channels.

ランウェイが実際にこれらのチャンネルでトレーニングを行ったことを100%確認するのは本当に難しいです。

But I mean, there's some pretty big channels in here.

でも、ここにはかなり大きなチャンネルがいくつかあります。

Marques Brownlee, Casey Neistat, MrBeast.

Marques Brownlee、Casey Neistat、MrBeast。

A lot of these channels are in this list of supposed videos that were scraped and used for Runway's training.

これらのチャンネルの多くが、ランウェイのトレーニングにスクレイピングされ使用されたとされる動画のリストに含まれています。

I have very mixed feelings about this personally.

個人的には、非常に複雑な気持ちです。

I don't really see a huge problem with a lot of these videos being used to train if the outputs that we're getting are substantially different than anything that it was trained on.

これらのビデオの多くがトレーニングに使用されている場合、それがトレーニングされたものとは大きく異なる出力であれば、私は実際には大きな問題を見ていません。

However, if people are using these tools and managing to get videos that look like some of those creators out of these videos, then it starts to feel wrong.

ただし、これらのツールを使用して、これらのビデオからいくつかのクリエイターのように見えるビデオを作成できる人々がいる場合、それは間違って感じられ始めます。

But there's also even more gray area than that because there is a lot of copyrighted content from TV networks and things like that, that end up on YouTube because of commentary channels.

しかし、それ以上にグレーゾーンがあります。テレビネットワークなどからの多くの著作権付きコンテンツがYouTubeに登場するため、それらはコメントチャンネルのために使用されます。

Let's say a commentary channel watches The Real Housewives of Orange County or something like that and does commentary over it.

例えば、コメントチャンネルが『The Real Housewives of Orange County』などを視聴し、それにコメントを付ける場合を考えてみましょう。

The video footage, which was aired on TV and then ripped to a YouTube channel and overdubbed with commentary, well, the video footage is still video footage from these TV shows and it just gets very, very muddy.

テレビで放映された映像がYouTubeチャンネルにアップロードされ、コメントとオーバーダビングされた場合、その映像は依然としてこれらのテレビ番組の映像であり、非常に複雑な状況になります。

I don't know how this is going to be solved.

どのようにこれが解決されるかわかりません。

I think the general consensus among the AI people is that if it's publicly available and we can train our own brains with this data, then why should a computer or company not be able to train?

AI関係者の一般的な合意は、それが一般に利用可能であり、私たち自身の脳をこのデータで訓練できるなら、なぜコンピュータや企業が訓練できないのかということです。

That's the sort of arguments that a lot of people are making.

多くの人々が行っている議論の種類です。

I just out of curiosity did a poll on my Twitter account here and I asked if someone puts their content on YouTube for the world to see, should it be fair game for AI companies to scrape and use in training data?

私は単なる好奇心から、ここで私のTwitterアカウントでアンケートを行いました。世界中に自分のコンテンツを公開する人がいる場合、AI企業がスクレイピングしてトレーニングデータとして使用することが公正であるべきか尋ねました。

54.5% of people said yes.

54.5%の人が「はい」と答えました。

28.3% of people said no, you shouldn't be able to use it.

28.3%の人が「いいえ、それを使うべきではない」と答えました。

17.2% said I'm conflicted.

17.2%が「葛藤している」と答えました。

Personally, I fall in that category.

個人的には、私もそのカテゴリーに属しています。

This is based on 2,169 votes, but I also realized that my Twitter following is probably fairly biased towards very pro AI.

これは2,169票に基づいていますが、私のTwitterのフォロワーはおそらく非常にAIに賛成の傾向があると気づきました。

This is sort of the results I expected, but me personally, I'm still a little conflicted.

これは私が予想していた結果のようですが、私自身はまだ少し葛藤しています。

But at the end of the day, I feel like if the videos that are being outputted from these systems are so far different than all of the stuff it was trained on, it probably is going to fall under fair use.

しかし、最終的には、これらのシステムから出力されるビデオが、それがトレーニングされたすべてのものとは大きく異なる場合、おそらくフェアユースに該当すると感じます。

But then you have those complications of sort of commentary channels and videos that were never meant to be trained, which just complicates it and I don't have the answers.

しかし、解説チャンネルやトレーニングされることを意図していなかったビデオなど、複雑な問題もあり、私には答えがありません。

I want to see cool stuff get made, but I also don't want to see stuff being made that actually hurts the creators the data was initially trained on.

カッコいいものが作られるのを見たいですが、初めにトレーニングされたクリエイターに実際に害を及ぼすものが作られるのを見たくありません。

I don't really feel like it's hurting those creators, but I don't know.

それがクリエイターたちに害を及ぼしているとはあまり感じませんが、わかりません。

I'm sure there's some arguments out there that could change my mind.

私の考えを変える可能性のある議論があると思います。

My opinions on this stuff are very, very fluid.

私の意見はこの件について非常に柔軟です。

Stability AI also released a new model this week called a Stable Video 4D.

Stability AIは今週、Stable Video 4Dという新しいモデルをリリースしました。

What's really cool about this Stable Video 4D is that you can input a video of a single object and then it sort of predicts what that object would look like in video form from different angles.

このStable Video 4Dの本当に素晴らしいところは、単一のオブジェクトのビデオを入力して、そのオブジェクトが異なる角度からビデオ形式でどのように見えるかを予測することです。

It says here Stable Video 4D transforms a single object video into multiple novel view videos of eight different angles/views.

ここには、Stable Video 4Dが単一のオブジェクトのビデオを8つの異なる角度/視点の新しいビューのビデオに変換するとあります。

We could see the examples here we've got this camel and I believe this was the initial video that we're seeing down in this cube, but then you see this little simulated camera showing what this video would look like if the camera angle was changed on that video.

ここに例があります。このラクダがあり、これがこの立方体の中で見ている初期のビデオだと思いますが、その後、このビデオのカメラ角度が変更された場合にどのように見えるかを示すこの小さなシミュレートされたカメラが表示されます。

Here's another example of a flag here.

こちらはここでの別の旗の例です。

This is the original footage and then you can see the cameras are pointed at different perspectives on that flag.

これは元の映像で、カメラがその旗に異なる視点で向けられているのがわかります。

As the camera moves around, we get different views of that original video.

カメラが移動すると、その元のビデオの異なる視点を得ることができます。

It is available over on Hugging Face right now so you can download the files here.

現在、Hugging Faceで利用可能なので、ここからファイルをダウンロードできます。

It doesn't look like anybody's used it inside of spaces yet so there's not like a free version that we can use, but I imagine within the next few days there'll be platforms online that have used this model that will allow us to use an online cloud-based user interface to play with this.

まだ誰もスペース内で使用していないようですので、無料版は使用できませんが、数日以内にこのモデルを使用したプラットフォームがオンラインで利用可能になり、オンラインクラウドベースのユーザーインターフェースを使用してこれを操作できるようになると思います。

I just haven't found one yet and I can't install it locally on my own computer because I'm still on vacation in Colorado.

まだ見つけていないし、私はコロラドでの休暇中なので、自分のコンピュータにローカルにインストールすることができません。

Adobe also rolled out some new AI features inside of Illustrator and Photoshop.

AdobeはIllustratorとPhotoshopの中でいくつかの新しいAI機能を導入しました。

We can take a peek at this example here where somebody used Illustrator to draw this butterfly and then they gave the prompt array of spring flowers and leaves and then the AI actually filled in the butterfly with the flowers and leaves.

Illustratorを使用してこの蝶を描いた人がいて、その後、春の花や葉の配列を与えて、AIが実際に蝶を花や葉で埋めました。

Here's another example of just a square drawn in Adobe Illustrator.

Adobe Illustratorで描かれたただの四角形の別の例がこちらです。

They gave the prompt flora and fauna of navy blue and you can see it actually generated this in a pattern.

彼らは海軍ブルーの植物と動物を与え、実際にこのパターンを生成しているのが見えます。

If I fast forward here a little bit, you can see that I actually extend this out into a duplicating pattern.

ここで少し早送りすると、実際にこれを複製パターンに拡張しているのが見えます。

That's a pretty cool feature that was just rolled out into Illustrator.

これはIllustratorに導入されたかなりクールな機能です。

There's a handful of smaller releases inside of Adobe as well.

Adobe内でもいくつかの小規模なリリースがあります。

I will obviously make sure that this is linked up in the description so you can check some of them out.

もちろん、説明文にリンクを貼っておきますので、いくつかをチェックできるようにします。

While we're on the topic of AI image generation, Leonardo just rolled out Teams inside of Leonardo where people can collaboratively work on images and creations inside of Leonardo.

AI画像生成の話題について話している間に、LeonardoではLeonardo内で画像や作品に共同で取り組むことができるTeamsが導入されました。

Multiple people can get in there and iterate and build off of images that are created in there.

複数の人がそこに入って、そこで作成された画像を元にして反復し、構築することができます。

We can see here some of the features, shared team collections.

ここでは、いくつかの機能、共有チームコレクションが見られます。

You can collaborate on the whole collection of images, consistent output.

画像の全コレクションで協力することができ、一貫した出力が可能です。

You can build fine tune models that are used between users, which will help you generate consistent assets.

ユーザー間で使用される微調整モデルを構築することができ、一貫した資産を生成するのに役立ちます。

If you're building images for games or something like that, you can make sure if multiple people are working on those game image assets, that they all look very consistent no matter who's using the platform at what computer they're using it.

ゲーム用の画像を作成している場合など、複数の人がそのゲーム画像資産に取り組んでいる場合、プラットフォームを使用しているコンピュータが何であっても、非常に一貫した外観になることを確認できます。

There's a shared team feed and a handful of other features available inside of this new release.

この新しいリリースの中には、共有チームフィードやその他のいくつかの機能が利用可能です。

A company called Sakana AI also dropped an image model to generate Japan's traditional Ukiyo-e artwork.

Sakana AIという企業は、日本の伝統的な浮世絵を生成するための画像モデルを公開しました。

I'm not sure if I said that right.

私が正しく言ったかどうかはわかりません。

This was a company that was founded by some ex-Google members who went to create their own AI company.

この企業は、Googleの元メンバーによって設立されたAI企業です。

It does appear that this new model that they created uses a sort of fine-tuned version of Stable Diffusion XL.

彼らが作成したこの新しいモデルは、Stable Diffusion XLの一種の微調整バージョンを使用しているようです。

The model is available over on Hugging Face and you should be able to use it in tools like Automatic 1111 or Comfy UI or whatever you use to generate Stable Diffusion images.

モデルはHugging Faceで利用可能であり、Stable Diffusion画像を生成するために使用するAutomatic 1111やComfy UIなどのツールで使用できるはずです。

Suno, the AI music generation company, also rolled out a new feature this week called Stems.

AI音楽生成会社であるSunoは、今週新機能であるStemsをリリースしました。

Pro and Premier users can now separate the vocals and instrumentals from songs, which will give you more control over how you use Suno.

ProおよびPremierユーザーは、今後歌と楽器を曲から分離することができ、Sunoの使用方法により多くの制御が可能になります。

You can break out just the drum tracks, just the bass tracks, just the vocal tracks, things like that to get more creative with whatever music you're generating.

ドラムトラックだけ、ベーストラックだけ、ボーカルトラックだけなど、生成される音楽により創造的になるために、様々なトラックを分離することができます。

While we're on the topic of AI audio generation, this tweet went viral this week from Matthew Sabia.

AIオーディオ生成に関する話題では、Matthew Sabia氏のこのツイートが今週バイラルしました。

There was a voice recording of Joe Biden going around talking about how he was dropping out of the presidential race here in the U.S. And Matthew here claims that he took that audio, pulled it into ElevenLabs, and ElevenLabs claimed that it was fake audio and that this was actually audio generated with ElevenLabs.

ジョー・バイデンがアメリカでの大統領選から撤退するという内容の音声録音が出回っていました。そして、ここにいるマシューは、その音声を取り込んでElevenLabsに持ち込んだと主張し、ElevenLabsはその音声が偽物であり、実際にはElevenLabsで生成された音声だと主張しました。

However, ElevenLabs stepped up and said, that's a lie, he actually pulled in a completely different audio clip, made it look like it was the Joe Biden clip, but it really wasn't.

しかし、ElevenLabsは立ち上がって、「それは嘘だ。実際にはまったく別の音声クリップを取り込んで、それをジョー・バイデンのクリップのように見せかけただけだが、実際には違うものだった」と述べました。

The Joe Biden clip was probably legitimate, but he edited a video to make it look like he was dropping in the Joe Biden clip.

ジョー・バイデンのクリップはおそらく正当なものだったが、彼はビデオを編集して、ジョー・バイデンのクリップが挿入されているように見せかけた。

But it was really a different, actually AI created clip that he was dropping in.

しかし、実際には異なる、AIによって生成されたクリップを挿入していたのです。

It gave him an output saying, no, this was AI generated.

彼には、「いいえ、これはAIによって生成されたものです」という結果が出ました。

It was all just basically a hoax on Twitter.

全て、基本的にはTwitter上のいたずらでした。

If you saw that recording going around, basically claiming that the Joe Biden audio clip was made with ElevenLabs, ElevenLabs claims, no, it wasn't.

もしあなたがその録音を見たなら、基本的にはジョー・バイデンの音声クリップがElevenLabsで作られたと主張しているものですが、ElevenLabsは否定しています。

That was faked.

それは偽物でした。

Finally, I thought this was really, really cool.

最後に、これは本当にとても素晴らしいと思いました。

I used to love the old college football games.

昔の大学フットボールのゲームが大好きでした。

I loved them more than the Madden video games.

私はそれらのゲームをマッデンビデオゲームよりももっと愛していました。

I always thought those games were so much fun, but they got discontinued over sort of arguments about the players being added into the games, but not getting compensated.

私はいつもそれらのゲームがとても楽しいと思っていましたが、選手たちがゲームに追加されることについての議論があり、選手たちが補償されないことが理由で中止されました。

But because college players can actually get paid now, they are actually starting to make college football games again.

しかし、大学の選手たちが実際に報酬を受け取ることができるようになったため、実際に大学フットボールのゲームが再び作られ始めています。

They used AI to quickly scan all of the players from the NCAA into this game.

彼らはAIを使用してNCAAのすべての選手をこのゲームに素早くスキャンしました。

You could play as your favorite college football team and the players on those teams faces are actually in the game.

あなたはお気に入りの大学フットボールチームとそのチームの選手として実際にゲームをプレイすることができます。

They actually used an AI model, plugged in 11,000 different faces of these players and had AI actually generate those players in the game.

彼らは実際にAIモデルを使用し、これらの選手の11,000の異なる顔をプラグインし、AIが実際にゲーム内でそれらの選手を生成しました。

I just thought that was really cool.

私はそれが本当にクールだと思いました。

This is a use case where AI rapidly sped up the process of game development for a very high profile, very big name, exciting game.

これは、AIが非常に有名で大規模でエキサイティングなゲームの開発プロセスを急速に進めたユースケースです。

I just think that's awesome because I'm a gamer and I'm an AI nerd.

私はゲーマーであり、AIの愛好家だから、それが素晴らしいと思います。

These are my two worlds colliding here.

これらは私の2つの世界がここで衝突しているところです。

I'm happy to hear this anyway.

とにかくそれを聞いて嬉しいです。

That's all I got for you.

それが私があなたに持っている全てです。

I'm actually going to be home next week.

実際、来週は家にいる予定です。

My Colorado vacation is coming to an end this weekend.

私のコロラドの休暇は今週末に終わります。

I typically would test out more of these tools and play around with them.

通常、これらのツールのさらなるテストを行い、それらを使って遊びます。

But since I've been on vacation, I've sort of slowed the pace of my videos, but I've seen so much stuff this week.

しかし、私は休暇中なので、動画のペースが少し遅くなっていますが、今週はたくさんのことを見てきました。

I can't wait to get home and start playing with more of these AI tools and making more videos, upping the pace of the videos that I'm doing.

家に帰ってこれらのAIツールをもっと使って遊び始め、より多くの動画を作成し、私が行っている動画のペースを上げるのが待ちきれません。

It's going to be some fun weeks ahead with all of this cool new AI stuff rolling out, and I can't wait to make more videos about it for you.

これからは、新しい素敵なAI関連のものが次々と登場する楽しい週になるでしょう。そして、それについてもっと多くの動画を作成するのが待ち遠しいです。

If you want to see more AI tutorials, more AI news, cool behind the scenes stuff from AI companies that are building all this stuff, make sure you subscribe to this channel and like this video.

もしもっとAIのチュートリアルやAIのニュース、AI企業がこれらすべてを構築している裏側の素敵なものを見たい場合は、このチャンネルに登録し、この動画にいいねをしてください。

It will make sure more videos like this and all this cool AI tech show up in your YouTube feed.

そうすることで、このような動画やこの素敵なAIテクノロジーがあなたのYouTubeフィードに表示されることが保証されます。

As always, if you haven't already check out futuretools.io where I curate all of the coolest AI tools that I come across.

いつものように、まだfuturetools.ioをチェックしていない場合は、ぜひチェックしてください。そこでは私が見つけた最もクールなAIツールをまとめています。

I share all of the AI news is pretty much updated on a daily basis and we've got a free newsletter where a couple of times a week I'll update you with just the coolest AI tools I've come across and just the most important AI news that I've found all directly to your inbox, totally free.

私はほぼ毎日更新されるすべてのAIニュースを共有しており、無料のニュースレターもあります。週に数回、私が見つけた最もクールなAIツールや最も重要なAIニュースを直接あなたのメールボックスにお届けします。完全に無料です。

You can find it all over at futuretools.io.

すべてはfuturetools.ioで見つけることができます。

The site is actually in the middle over an overhaul right now.

実際、サイトは現在大幅な改装中です。

I'm working with a developer.

私は開発者と一緒に作業しています。

There's going to be some community elements, some commenting and ratings and all sorts of really cool stuff to make this a much more interactive community based site to help you find the exact tool for what you need.

このサイトは、コミュニティ要素やコメント、評価などがあり、あなたが必要とする正確なツールを見つけるためのよりインタラクティブなコミュニティベースのサイトになる予定です。

Check that out at futuretools.io.

futuretools.io でチェックしてみてください。

Thank you so much for nerding out with me.

一緒に熱く語り合ってくれて本当にありがとう。

I just love talking about this stuff.

この話題について話すのが大好きなんです。

I'm so excited to make these videos every week and share all the cool stuff that I'm coming across in the AI world.

毎週これらのビデオを作成して、AIの世界で出会うすべての素晴らしいものを共有することにとても興奮しています。

I hope you appreciate it.

あなたが感謝してくれることを願っています。

I hope you like videos like this.

このような動画がお好きであることを願っています。

I hope you subscribe to channels like mine and thanks again for nerding out.

私のようなチャンネルに登録していただけることを願っており、再度ありがとうございます。

I will see you in the next video.

次の動画でお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?