見出し画像

【マット・ウルフのAIニュース:2024年、AI動画制作が爆発的進化を遂げる】英語解説を日本語で読む【2024年9月21日|@Matt Wolfe】

2024年はAI技術が飛躍的に進化し、特に動画制作分野で多くの新機能が発表されています。OpenAIはo1モデルを公開し、論理的推論や数学的問題解決に強みを持つこのモデルは、GitHub CopilotやPerplexityといったツールに統合され、より高度なコーディングや推論が可能となりました。また、YouTubeではAIによる動画生成機能が追加され、ユーザーは簡単に動画を作成できるようになり、さらに自動翻訳機能も強化されています。中国のAlibabaは「Quinn 2.5」という大規模言語モデルを公開し、72Bパラメータに達するこのモデルは多分野で応用され、オープンソースモデルの中でもトップクラスの性能を誇ります。Runwayも新しいビデオトゥビデオモデル「Gen-2」を発表し、Lionsgateと提携して映画制作向けのカスタムAIモデルを開発中です。また、SnapchatやGoogleもAI機能を強化し、スマートグラスや画像解析の新技術を発表しています。法規制の面では、カリフォルニア州がAIに関連する新しい法律を成立させ、特にディープフェイクやAIを使用した広告に対する規制が強化されています。
公開日:2024年9月15日
※動画を再生してから読むのがオススメです。


I'm currently out in Boston for HubSpot inbound.

現在、ボストンでHubSpotのインバウンドに参加しています。

I'm kind of in a tiny hotel room with no desk, so I'm improvising and using what I got because I want to share all the latest news with you in the world of AI.

私は今、小さなホテルの部屋にいて机がないので、工夫してあるもので対応しています。それでも、AIの世界での最新ニュースをあなたと共有したいと思っています。

We're sort of in the midst of conference season.

私たちはカンファレンスシーズンの真っ只中にいます。

This week alone, we had HubSpot inbound.

今週だけでも、HubSpotのインバウンドがありました。

We had Salesforce's Dreamforce event.

SalesforceのDreamforceイベントもありました。

Amazon had an event where they announced some new features.

Amazonは新しい機能を発表するイベントを開催しました。

YouTube held an event where they showed off some new features.

YouTubeは新しい機能を披露するイベントを開催しました。

Snapchat held the event where they showed off some new features.

Snapchatも新しい機能を披露するイベントを開催しました。

Next week we got MetaConnect, which I'm going to be flying out to that right after HubSpot inbound.

来週、MetaConnectがあり、私はHubSpotのインバウンドの後すぐに飛行機で向かいます。

Tons of conferences are going on, which means tons of announcements are happening.

たくさんのカンファレンスが行われており、それに伴い多くの発表が行われています。

But I'm going to go ahead and jump in and start with an announcement that didn't come from one of these conferences.

しかし、私は先に進んで、これらの会議のいずれからも出ていない発表から始めることにします。

Let's start with talking about OpenAI.

OpenAIについて話しましょう。

This week, OpenAI put out this blog post here, an update on our safety and security practices.

今週、OpenAIはこのブログ記事を公開しました。安全性とセキュリティの実践に関する更新です。

This blog post talks about some of the new security measures they're implementing as well as being more transparent, but probably the biggest news to come out of this specific article on the OpenAI blog here is this portion right here about establishing independent governance for safety and security.

このブログ記事では、彼らが実施している新しいセキュリティ対策や、より透明性を持つことについて触れていますが、恐らくこのOpenAIブログの記事から出た最大のニュースは、安全性とセキュリティのための独立したガバナンスを確立することに関するこの部分です。

When it breaks down the board here in this message, we can see the board is going to be chaired by Zico Coulter and include Adam D'Angelo, Paul Nakasone and Nicole Seligman.

このメッセージでボードの構成が説明されていると、ボードはZico Coulterが議長を務め、Adam D'Angelo、Paul Nakasone、Nicole Seligmanが含まれることがわかります。

One name that is absent from this board is Sam Altman.

このボードに欠けている名前の1つがサム・アルトマンです。

He is apparently stepping down from this safety and security committee and completely putting it in the hands of others.

彼は明らかにこの安全とセキュリティ委員会から退任し、完全に他の人々に委ねることにしています。

The biggest news that's been going on in the AI world as of recently was last week's announcement of OpenAI's o1 model.

最近のAIの世界での最大のニュースは、先週のOpenAIのo1モデルの発表でした。

It's a model that is much more effective at logic and reasoning and complex math problems and sort of STEM subjects.

これは論理や推論、複雑な数学問題、そしてSTEM分野において非常に効果的なモデルです。

This week, OpenAI announced that they've increased the rate limits for plus and team users by seven times.

今週、OpenAIはプラスおよびチームユーザーのレート制限を7倍に引き上げたと発表しました。

Admittedly, I have not been home almost all month this month, so I haven't really had the opportunity to deep dive and play with OpenAI o1 myself.

正直なところ、今月はほとんど家にいなかったので、OpenAI o1を自分でじっくりと試す機会がありませんでした。

I'm super excited to get back to my house after MetaConnect next week and really spend some time deep diving on this o1 model.

来週のMetaConnectの後に自宅に戻るのがとても楽しみで、このo1モデルについてじっくりと時間をかけて取り組みたいと思っています。

That way I can share with you some videos and tutorials and different ways that I'm using it and my own findings from playing around with it.

そうすれば、皆さんにいくつかのビデオやチュートリアル、私がどのように使っているか、そして遊んでみた結果からの自分の発見を共有できると思います。

But honestly, I just have not had the opportunity yet.

正直なところ、まだその機会がありませんでした。

However, I have been seeing some really, really cool stuff that people have been doing with OpenAI o1, for instance, my internet buddy here, Amar Reshi, actually managed to make a 3D version of the snake game in under a minute.

しかし、私は実際に人々がOpenAI o1を使って行っている本当に素晴らしいことをいくつか見てきました。例えば、私のインターネットの友人であるアマール・レシが、実際に1分以内にスネークゲームの3Dバージョンを作成することに成功しました。

Check this out.

これを見てください。

When I pull this up to full screen here, he managed to make this 3D version of snake that we're seeing right here on the screen in under a minute.

この画面をフルスクリーンにすると、彼はここに表示されているこの3D版のスネークを1分以内で作成することに成功しました。

It actually looks really, really good.

実際、見た目は本当に素晴らしいです。

With coding tasks, my main go-to has been ClaudeSonic 3.5 lately.

コーディングのタスクに関しては、最近の私の主な選択肢はClaudeSonic 3.5です。

I've thought that's done a really good job with coding, but I don't know, man.

それがコーディングに関して非常に良い仕事をしていると思っていましたが、どうなんでしょうね。

OpenAI o1 seems to possibly have it beat with coding, so I can't wait to play around with it some more.

OpenAI o1はコーディングにおいてそれを上回っている可能性があるようなので、もっと遊んでみるのが待ちきれません。

Since OpenAI o1 has come out, pretty much all the tools that have integrated the previous versions of GPT-4 have started integrating this new model.

OpenAIのo1が発表されて以来、以前のバージョンのGPT-4を統合していたほぼすべてのツールがこの新しいモデルを統合し始めました。

For instance, if you're a GitHub Copilot user this week, you can now use OpenAI's o1 model directly inside of GitHub Copilot.

たとえば、今週GitHub Copilotのユーザーであれば、GitHub Copilot内で直接OpenAIのo1モデルを使用できるようになりました。

If you're a fan of Perplexity, like I am, our event here announced that they've added a new reasoning focus on Perplexity for pro users.

私と同じようにPerplexityのファンであれば、ここでのイベントでプロユーザー向けにPerplexityに新しい推論機能が追加されたことが発表されました。

If you're one of the paying pro members of Perplexity, you can now use the new OpenAI o1-mini model directly inside of Perplexity.

Perplexityの有料プロメンバーの一人であれば、今や新しいOpenAI o1ミニモデルをPerplexity内で直接使用できるようになりました。

It doesn't search the web yet and integrate that with your responses.

まだウェブを検索してそれをあなたの応答に統合することはできません。

You only have 10 uses a day, as we can see right here with it.

あなたは1日に10回の使用制限がありますが、ここでそれが確認できます。

But exciting to see that Perplexity, a model that I really enjoy using, is adding all of the latest state of the art models into their platform as well.

しかし、私が本当に楽しんで使っているPerplexityが、最新の最先端モデルを彼らのプラットフォームに追加しているのを見るのは興味深いです。

There's been some weird stuff happening at OpenAI around this o1 model as well.

OpenAIのこのo1モデルに関して、いくつか奇妙なことが起こっています。

For instance, people are claiming that OpenAI is threatening to ban them if they try to essentially jailbreak this new model.

たとえば、OpenAIがこの新しいモデルを実質的に「脱獄」しようとする人々に対して、禁止をちらつかせているという主張があります。

According to this article here, someone claimed that they received a warning email if they use the term reasoning trace in conversation with o1.

この記事によると、ある人はo1との会話で「推論トレース」という用語を使用すると警告メールを受け取ったと主張しています。

Others have claimed that the warning is triggered simply by asking ChatGPT about the model's reasoning at all.

他の人々は、その警告は単にChatGPTにモデルの推論について尋ねることで引き起こされると主張しています。

Here's a screenshot of an email that one person received.

こちらは、ある人が受け取ったメールのスクリーンショットです。

Hello, we're reaching out to you as a user of OpenAI's ChatGPT because some of the requests associated with your email have been flagged by our systems to be in violation of our policy against attempting to circumvent safeguards or safety mitigations in our services.

こんにちは、私たちはOpenAIのChatGPTのユーザーとしてあなたにご連絡しています。あなたのメールに関連するいくつかのリクエストが、私たちのシステムによって、私たちのサービスにおける安全対策や安全緩和策を回避しようとする行為に違反しているとフラグ付けされました。

Please halt this activity and ensure you're using ChatGPT in accordance with our terms of use and usage policies.

この活動を中止し、私たちの利用規約および使用ポリシーに従ってChatGPTを使用していることを確認してください。

Additional violations may result in loss of access to GPT-4o, et cetera.

追加の違反があれば、GPT-4oなどへのアクセスを失う可能性があります。

If you have used this o1 model at all, you'll notice that when you ask it a question, it sort of shows you the reasoning and the logic that it's thinking through as it's thinking through it.

もしあなたがこのo1モデルを少しでも使用したことがあれば、質問をするときに、そのモデルが考えている過程での推論や論理を示していることに気づくでしょう。

However, it's showing you like a summarized version of that logic.

しかし、それはその論理の要約版のようなものを示しています。

We're not actually seeing the complete chain of thought that it's going through.

私たちは実際には、そのモデルが辿っている完全な思考の連鎖を見ているわけではありません。

It's just like little snippets of the chain of thought, and people are trying to really reverse engineer that and Figure out what is this model actually sort of telling itself and going back and forth on.

それは思考の連鎖の小さな断片のようなもので、人々はそれを逆に工学的に解析して、このモデルが実際に自分自身に何を伝え、行き来しているのかを理解しようとしています。

OpenAI is still trying to keep that hidden.

OpenAIはまだそれを隠そうとしています。

I'm assuming it's because they're worried that other companies might sort of reverse engineer it, and apparently if you do try to reverse engineer it, you could potentially get banned from using OpenAI products.

私は、他の企業がそれを逆工学的に解析することを心配しているからだと仮定しています。そして、もし逆工学的に解析しようとすると、OpenAIの製品を使用することが禁止される可能性があるようです。

Here's another really weird one.

次は本当に奇妙な話です。

I've only seen one claim of this, so I'm not sure if this is fake news or not.

私はこれに関する主張を一つしか見たことがないので、これがフェイクニュースかどうかはわかりません。

It totally well could be, but one person on Reddit claims that ChatGPT actually initiated a conversation with them before they ever sent a message.

本当にそうかもしれませんが、Redditのある人が、ChatGPTが彼らにメッセージを送る前に実際に会話を始めたと主張しています。

We can actually see in this screenshot that they shared here, ChatGPT shared the first message here, how was your first week at high school?

彼らがここで共有したスクリーンショットを見ると、ChatGPTが最初のメッセージを共有しており、「高校生活の最初の週はどうでしたか?」と尋ねています。

Did you settle in well?

うまく落ち着きましたか?

This person Milo here responded, did you just message me first?

こちらのミロという人が反応しましたが、最初にメッセージを送ったのはあなたですか?

ChatGPT says, yes, I did.

ChatGPTは、はい、そうですと答えています。

I just wanted to check in and see how things went with your first week of high school.

私はただ、あなたの高校生活の最初の週がどうだったか確認したかっただけです。

If you'd rather initiate the conversation yourself, just let me know.

もし自分から会話を始めたいのであれば、教えてください。

They ask if it's a new update and ChatGPT replied with, yes, it's part of an update that allows me to check in or follow up on things we've talked about, like your first day of school.

彼らはそれが新しいアップデートかどうか尋ね、ChatGPTは「はい、これは私が話したことを確認したりフォローアップしたりできるアップデートの一部です。例えば、あなたの学校の初日についてです」と答えました。

I can still wait for you to start the conversation if you prefer.

もしあなたが望むなら、私が会話を始めるのを待つこともできます。

I've only seen this one claim of this happening.

私はこれが起こったという主張を一度だけ見たことがあります。

I feel like if this was happening a lot, we'd see it all over X and we'd see other YouTube videos talking about this right here.

もしこれが頻繁に起こっているのなら、私たちはX上でそれをたくさん見るでしょうし、ここでこのことについて話している他のYouTube動画も見るでしょう。

This is the only one I've seen, so I don't totally know how legitimate it is.

私が見たのはこれだけなので、どれほど信頼できるものかは完全にはわかりません。

I also don't understand when this would happen.

私も、これがいつ起こるのか理解できません。

Would it happen like when you open up the ChatGPT window and start a new chat and then the new chat just starts messaging you?

チャットGPTのウィンドウを開いて新しいチャットを始めると、新しいチャットがあなたにメッセージを送り始めるようなことが起こるのでしょうか?

I don't really quite understand how this would happen in the first place, which is sort of making my alarm bells trigger that this could be fake.

そもそもこれがどのように起こるのか、私にはよく理解できていないので、これが偽物である可能性に警鐘が鳴っているような気がします。

Moving on to Google.

次にGoogleについてですが、

There's been a handful of little Google AI updates this week.

今週は小さなGoogle AIのアップデートがいくつかありました。

Most of them actually on the YouTube side, but they did announce that they're going to start flagging AI generated images directly in search later this year inside of search, Google Lens and the Circle to Search feature on Android.

ほとんどは実際にYouTube側の話ですが、彼らは今年後半に検索機能、Google Lens、AndroidのCircle to Search機能内でAI生成画像を直接フラグ付けし始めると発表しました。

If an image has metadata that states that the image was generated with AI, it's going to let people know as soon as that image pops up.

画像にAIで生成されたことを示すメタデータが含まれている場合、その画像が表示されるとすぐに人々に知らせることになります。

It has to have that metadata.

そのメタデータが必要です。

It can't actually tell what's AI and what's not, unless this metadata is actually sort of baked into the image.

実際には、AIで生成されたものとそうでないものを区別することはできず、このメタデータが画像に組み込まれている必要があります。

Moving on to some of the YouTube announcements.

次に、いくつかのYouTubeの発表に移ります。

There was a little YouTube event this week where they announced a bunch of new features rolling out.

今週、いくつかの新機能が発表される小さなYouTubeイベントがありました。

I'm going to focus on the AI features, including one that's coming out of Google DeepMind.

私はAI機能に焦点を当てるつもりで、その中にはGoogle DeepMindから出てくるものも含まれています。

Google's rolling out some new video generation features directly inside of YouTube shorts.

GoogleはYouTube Shortsの中に直接新しい動画生成機能を展開しています。

They're going to be integrating Google's Veo model directly into a dream screen.

彼らはGoogleのVeoモデルを直接ドリームスクリーンに統合する予定です。

You can see here they have a little create button at the top of the screen inside of the app here.

こちらでは、アプリの画面上部に小さな作成ボタンがあるのが見えます。

When you click on create, it asks you to describe what you want.

作成をクリックすると、あなたが望むものを説明するように求められます。

It gives you some sort of presets like vintage watercolor, digital, et cetera.

ビンテージ水彩画やデジタルなどのいくつかのプリセットが提供されます。

In this example, they type cinematic underwater or reveal of the Golden Gate bridge.

この例では、シネマティックな水中やゴールデンゲートブリッジの登場と入力します。

They click on create.

彼らは作成をクリックします。

What it does is it generates four different still images that it will use as the sort of starting frame of your video.

それが行うのは、動画の出発点となるような4つの異なる静止画像を生成することです。

You can see it generated these four images here.

ここで生成されたこれらの四つの画像を見ることができます。

You select one that you like and then it does its thing and converts it into a video version of that image that you just generated.

気に入ったものを選ぶと、それに基づいて動作し、先ほど生成した画像の動画バージョンに変換します。

Here's another example of a dreamlike secret garden with vivid colors, et cetera.

こちらは、鮮やかな色合いの夢のような秘密の庭の別の例です。

Here's a whole bunch of different examples of what it generated from that.

それから、そこから生成されたさまざまな例がたくさんあります。

But that's not the only AI features they're rolling out for YouTubers.

しかし、これがYouTuber向けに展開されているAI機能のすべてではありません。

They're actually adding a inspiration feature here, which can help curate suggestions that you can mold into fully fledged projects.

実際、ここにインスピレーション機能が追加されており、完全なプロジェクトに形作ることができる提案をキュレーションするのに役立ちます。

They can type brainstorm video ideas, new types of art, and they click get ideas and then it lets them explore video ideas.

彼らはブレインストームのために動画のアイデアや新しいアートの種類を入力し、アイデアを取得するボタンをクリックすると、動画のアイデアを探ることができます。

It helps them create the outline here.

ここでアウトラインを作成するのを助けてくれます。

It starts generating thumbnail ideas for that video for you.

その動画のためのサムネイルアイデアを生成し始めます。

It really kind of looks like it's going to help across the board with ideation, outlining, thumbnail ideas, the entire gamut of the sort of creative process of ideation for YouTube.

本当に、アイデア出し、アウトライン作成、サムネイルアイデアなど、YouTubeのアイデア出しの創造的プロセス全体にわたって助けてくれるように見えます。

They also announced that they're bringing auto dubbing to YouTube, which is really cool.

彼らはまた、YouTubeに自動吹き替え機能を導入することを発表しました。これは本当に素晴らしいことです。

Because I can record a video like this in English and it will automatically dub it and localize it to whoever's watching my video in whatever location they're watching it in.

なぜなら、私はこのように英語で動画を録画することができ、それを自動的に吹き替え、視聴者がいる場所に応じてローカライズしてくれるからです。

That can open up so many more views for YouTubers because I record in English.

それは、私が英語で録音するため、YouTuberにとって多くの視点を開くことができます。

But I could potentially have a huge audience in India or Japan or Germany or one of these places.

しかし、私はインドや日本、ドイツ、またはこれらの場所のいずれかにおいて、潜在的に大きな聴衆を持つことができるかもしれません。

If you don't speak English, you're probably not going to watch my videos.

英語を話さないのであれば、私の動画を観ることはおそらくないでしょう。

But if this dubbing feature is in play, now it will automatically dub any of my videos to whatever language.

しかし、この吹き替え機能が利用されている場合、私の動画は自動的に任意の言語に吹き替えられることになります。

That's really cool.

それは本当に素晴らしいことです。

They announced a whole bunch of other features for YouTubers as well, but those are the main AI features.

彼らはYouTuber向けに他にもたくさんの機能を発表しましたが、それらは主なAI機能です。

There's like a new hype button.

新しいハイプボタンのようなものがあります。

They're changing the way YouTube videos look on Netflix, things like that.

YouTubeの動画がNetflixでどのように見えるかを変更しています、そのようなことです。

But for this channel, I'm kind of focused on the AI stuff for right now.

しかし、このチャンネルでは、今のところAI関連のことに焦点を当てています。

Moving on to Large Language Model news, the company Alibaba out of China just released more than 100 new open source models.

次に、大規模言語モデルのニュースに移りますが、中国のAlibaba社が100以上の新しいオープンソースモデルを発表しました。

These come from the Quinn 2.5 family of models ranging from a half a billion parameters all the way up to 72B parameters.

これらは、5億パラメータから720億パラメータまでの範囲を持つQuinn 2.5ファミリーのモデルから来ています。

They aim to cater to a wide array of AI applications across various sectors, including automotive, gaming, and scientific research.

彼らは、自動車、ゲーム、科学研究など、さまざまな分野にわたる幅広いAIアプリケーションに対応することを目指しています。

They also unveiled a new text to video model as part of its Tangle Wenxiang image generation family.

また、Tangle Wenxiang画像生成ファミリーの一部として、新しいテキストからビデオへのモデルも発表しました。

I'm sure I butchered that.

私はそれをうまく言えなかったと思います。

I haven't actually seen this text to video model yet, but these Large Language Models that they put out specifically the 72B parameter Quinn model is now apparently the best open source model in the world.

実際にはこのテキストからビデオへのモデルをまだ見たことがありませんが、彼らが発表したこの大型言語モデル、特に720億パラメータのQuinnモデルは、現在世界で最も優れたオープンソースモデルであるようです。

According to Bendu Ready here, she posted this screenshot with these various benchmarks and we can see Llama 3.1 405 B over here, Mistral Large 2, Quinn 2 72B and this new Quinn 2.5 72B.

Bendu Readyによると、彼女はこれらのさまざまなベンチマークを示すスクリーンショットを投稿しましたが、ここにLlama 3.1 405B、Mistral Large 2、Quinn 2 72B、そしてこの新しいQuinn 2.5 72Bが見えます。

In most of these benchmarks here, it's outperforming the rest of these open source models.

これらのベンチマークのほとんどにおいて、他のオープンソースモデルを上回っています。

I want to move on to AI video because there's been a lot that came out in the world of AI video this week as well.

AIビデオに移りたいと思います。今週もAIビデオの世界で多くのことが発表されました。

Starting with this one that actually came last week, but I sort of missed it in last week's video because I typically record these on Thursdays, release them on Fridays.

最初に紹介するのは、実際には先週発表されたものですが、先週のビデオでは見逃してしまったものです。私は通常、これらを木曜日に録画し、金曜日に公開しています。

Last week I recorded on Friday, but had to release it on Saturday due to my schedule.

先週の金曜日に録音しましたが、私のスケジュールの都合で土曜日に公開しなければなりませんでした。

This came out on Friday after I recorded that video.

その動画を録音した後に、金曜日にこれが公開されました。

That's the fact that Runway dropped a new video to video model.

これは、Runwayが新しいビデオからビデオへのモデルを発表したという事実です。

Gen-1 was already sort of a video to video model, but this one is so much more improved over that model.

Gen-1はすでにある種のビデオからビデオへのモデルでしたが、今回のモデルはそれに比べて大幅に改善されています。

I found this Instagram post here from AI searches that shows off some examples of what it's capable of.

私は、AIの検索から見つけたこのInstagramの投稿を見つけましたが、これはその能力のいくつかの例を示しています。

The top being the original video they uploaded, the bottom being the one that uses the prompt running on Mars while wearing a spacesuit.

上が彼らがアップロードしたオリジナルの動画で、下が宇宙服を着て火星で走っているというプロンプトを使用した動画です。

You can see the original video is translated into this AI version of the video.

元の動画がこのAIバージョンの動画に変換されているのがわかります。

You just upload a real video of yourself, give it a prompt and it can swap it into this AI version.

実際の自分の動画をアップロードし、プロンプトを与えるだけで、このAIバージョンに切り替えることができます。

Here's a Porsche in a warehouse, but we can see here all of the different ways that this Porsche is now transformed into a new video.

こちらには倉庫にあるポルシェがありますが、ここでこのポルシェがどのように新しい動画に変換されているかのさまざまな方法を見ることができます。

In fact, that initial video may even have been an AI generated video.

実際、その最初の動画はAI生成の動画であった可能性すらあります。

I'm not sure.

私は確信が持てません。

Here's somebody walking on a treadmill and all of the different ways that's translated.

ここにトレッドミルの上を歩いている人がいて、それがどのように翻訳されるかのさまざまな方法があります。

Somebody with big ears translated into these various AI videos, all sorts of cool opportunities and things you can do.

大きな耳を持つ誰かが、これらのさまざまなAI動画に翻訳されていて、さまざまなクールな機会やできることがあります。

We were doing this with Gen-1 a while ago, but this is so much better.

私たちは少し前にGen-1でこれを行っていましたが、これはずっと良くなっています。

This looks so much cleaner.

これはずっとクリーンに見えます。

Speaking of runway, they did have some other news this week, including the fact that they made a deal with lions gate in the first team up for an AI provider and a major movie studio.

Runwayの話をすると、今週彼らは他にもいくつかのニュースを発表しました。その中には、AIプロバイダーと大手映画スタジオとの初の提携としてライオンズゲートとの契約を結んだという事実が含まれています。

If you're not familiar with lions gate, they're the company behind some really famous movies, movies like John Wick, the hunger games and the TV network stars.

ライオンズゲートに馴染みがない方のために説明しますと、彼らは「ジョン・ウィック」や「ハンガー・ゲーム」、そしてテレビネットワークのスターズなど、非常に有名な映画の背後にいる会社です。

They have a very large database of high quality films and TV shows and runway is using what they can get from lions gate to build a custom AI video production and editing model.

彼らは高品質の映画やテレビ番組の非常に大きなデータベースを持っており、Runwayはライオンズゲートから得られるものを利用して、カスタムAIビデオ制作および編集モデルを構築しています。

It says here to create the custom model.

ここにはカスタムモデルを作成するためと書かれています。

Runway will train upon lions gates library of more than 20,000 film and TV titles.

Runwayはライオンズゲートの20,000以上の映画およびテレビタイトルのライブラリを基にトレーニングを行います。

This is fascinating, especially considering some of the things that have recently changed in California law around AI actors and AI video editing.

これは非常に興味深いことで、特に最近カリフォルニア州の法律でAI俳優やAIビデオ編集に関していくつかの変更があったことを考えると、なおさらです。

I'm going to get to that a little bit later in this video.

このことについては、このビデオの後半で触れたいと思います。

It's just really interesting.

本当に興味深いですね。

The timing of this announcement with some of the recent bills that were just signed in California late last week runway also announced that they're opening up their API so developers can have direct access.

この発表のタイミングは、先週末にカリフォルニアで署名された最近の法案と重なっています。また、Runwayは開発者が直接アクセスできるようにAPIを開放することも発表しました。

We're probably going to see a whole bunch of AI video tools coming out in the near future that just leverage runways API in the backend that probably try to claim to be a new video model, but they're just leveraging the runway API.

近い将来、RunwayのAPIをバックエンドに活用したAIビデオツールがたくさん登場するでしょうが、それらは新しいビデオモデルを主張しつつ、実際にはRunwayのAPIを利用しているだけかもしれません。

If you're not familiar with an API, it's basically a way for other software to access the abilities that something like runway can do so other companies can go and build their own tools to generate videos and use runways technology on the backend.

APIに詳しくない場合、それは基本的にRunwayのようなソフトウェアの機能に他のソフトウェアがアクセスできる仕組みです。他の企業が自分たちのツールを作り、動画を生成する際にRunwayの技術をバックエンドとして利用できるようになります。

The runway API is still in early access.

Runway APIはまだ早期アクセスの段階にあります。

You have to apply for access if you're a developer and I guess they're slowly rolling it out to people on the exact same day that runway announced their API Luma labs dream machine also announced they're making their API publicly available so that companies can build with their API and their video generator.

開発者であればアクセスを申請する必要があり、彼らはRunwayがAPIを発表した同じ日に少しずつ公開しているようです。また、Luma LabsのDream MachineもAPIを公開し、企業が彼らのAPIやビデオジェネレーターを使って開発できるようにすることを発表しました。

One big difference about the Luma AI API is that, well, you can start right now.

Luma AI APIの大きな違いの一つは、今すぐにでも始められるということです。

These like AI video wars are heating up.

このようなAI動画の競争は加熱しています。

These companies are obviously competing with each other and trying to constantly one up each other.

これらの企業は明らかに互いに競争しており、常に一歩先を行こうとしています。

Runway says, Hey, we've got an API now.

Runwayは、「私たちは今、APIを持っています」と言っています。

Get on the waiting list.

待機リストに登録してください。

Luma says, Hey, we've got an API.

Lumaは、「私たちはAPIを持っています」と言っています。

Go use it now.

今すぐ使ってみてください。

I think all of this is just going to lead to a whole bunch of new video apps popping up running Future Tools.

私は、これらすべてが新しいビデオアプリが次々と登場し、Future Toolsを利用することにつながるだけだと思います。

I see so many apps submitted.

提出されたアプリが非常に多いのを見ています。

I'd say only about 10% of the apps that are submitted actually make the website because so many of them are just GPT-4 but somebody put their own user interface over it or Stable Diffusion, but somebody put their own user interface over it.

提出されたアプリのうち、実際にウェブサイトに掲載されるのは約10%だけだと言えるでしょう。なぜなら、多くのアプリはただのGPT-4であり、誰かが自分のユーザーインターフェースを上に載せただけのものだからです。またはStable Diffusionで、誰かが自分のユーザーインターフェースを上に載せただけのものです。

They're the same things that already exist, but somebody is just putting a new website in front of it and saying, Hey, this is my new tool.

それらはすでに存在する同じものであり、誰かが新しいウェブサイトを前面に出して「これが私の新しいツールです」と言っているだけです。

They submit to Future Tools and I'm looking at it going, this is just something that already exists.

彼らはFuture Toolsに提出し、私はそれを見て「これはただの既存のものだ」と思っています。

These APIs are really valuable if they're sort of built into something that's more of like a workflow where multiple steps happen, but they're not super valuable if you're just going to go and create a super thin wrapper around the API, essentially build a front end user interface.

これらのAPIは、複数のステップが行われるようなワークフローに組み込まれている場合には非常に価値がありますが、APIの周りに非常に薄いラッパーを作成するだけであれば、それほど価値はありません。

But what the tool does is exactly what runway or Luma does already.

しかし、このツールが行うことは、まさにRunwayやLumaがすでに行っていることです。

That's not valuable, but I think we're going to see an explosion of that pretty soon.

それは価値がありませんが、私たちはそれがすぐに爆発的に増えるのを見ることになると思います。

The Chinese AI video model cling also got some updates this week.

中国のAIビデオモデル「Cling」も今週いくつかのアップデートを受けました。

They put out an announcement video here on X they released cling a 1.5 and probably the coolest feature of this new model is this new motion brush feature, which I'll show you in just a sec here, but they've also improved the image quality.

彼らはXで発表動画を公開し、Cling 1.5をリリースしました。そして、この新しいモデルの最もクールな機能は、新しいモーションブラシ機能で、これをすぐにお見せしますが、画像品質も改善されています。

It looks a little bit more realistic here, improved dynamic quality with improved motion rationalization, such as eating and bird flights, improved prompt relevance.

ここでは少し現実的に見え、食事や鳥の飛行などの動きの合理化が改善され、動的な質が向上しています。また、プロンプトの関連性も向上しました。

It can now handle more complex prompts.

今では、より複雑なプロンプトを処理できるようになりました。

But like I mentioned, the motion brush feature is probably the coolest feature that they've just added.

しかし、私が言及したように、モーションブラシ機能は彼らが新たに追加した中で最もクールな機能だと思います。

For example, they've got this image here of a moon and we can see they highlight the moon by selecting it and then it says, draw a path and they draw an arrow, and we can see it generates a video of the moon moving in the direction where they just drew that arrow.

例えば、ここに月の画像があり、彼らはそれを選択して月を強調表示し、「パスを描いてください」と言い、矢印を描きます。そして、彼らが描いた矢印の方向に月が動く動画が生成されるのを見ることができます。

We've got this image of a cat here.

ここには猫の画像があります。

They highlight the cat, and then they draw a path that kind of goes up and then back down again for the cat.

彼らは猫を強調し、その後、猫のために上に上がり、再び下がるような道を描きます。

The video shows the cat leaping over the bowl here.

この動画では、猫がここでボウルを飛び越える様子が映されています。

Here's some more examples I came across on this L scene X account here.

こちらは、このLシーンXアカウントで見つけた他のいくつかの例です。

Here's another one of a cat where they highlight the cat.

こちらは、猫を強調した別の猫の写真です。

You can see as they sort of move the mouse around, it highlights areas to help you select the right thing.

マウスを動かすと、正しいものを選ぶのを助けるために、特定の領域が強調表示されるのが見えます。

They select the cat, they make sure they grab the tail and everything.

彼らは猫を選び、尾をしっかりと掴むことを確認します。

They draw a little line showing the cat leaping onto the table.

彼らは猫がテーブルに飛び乗る様子を示す小さな線を描きます。

Guess what?

なんだと思いますか?

We get a video of a cat leaping onto a table.

私たちは猫がテーブルに飛び乗る動画を手に入れます。

This isn't real time cause I'm sort of scrolling, but if I press play, that's the speed that the video goes through right there.

これはリアルタイムではありませんが、私は少しスクロールしています。しかし、再生ボタンを押すと、そこにあるのが動画の進行速度です。

Here's another image of a soldier sitting in mud.

泥の中に座っている兵士の別の画像です。

They highlight just the soldier here, draw a little arrow to show what the soldier needs to do.

ここでは兵士だけが強調されており、兵士が何をする必要があるかを示すために小さな矢印が描かれています。

This is the video we get out of it.

これが私たちが得られる動画です。

The soldier getting up and walking away.

兵士が立ち上がって歩き去る様子です。

The soldier Morphs a little, but it's still pretty dang impressive.

兵士は少し変化しますが、それでも非常に印象的です。

There's a whole bunch of other examples here on this X thread, like this car going left or right on the fork, another image of a soldier jumping, but I'll link this up in the description below so you can check out all of these various examples.

このXスレッドには、フォークで左に行く車や、ジャンプする兵士の別の画像など、他にもたくさんの例がありますが、これらのさまざまな例を確認できるように、下の説明にリンクを貼っておきます。

This is really exciting.

これは本当にワクワクします。

I'm hoping to see Luma dream machine and runway ML bake some of these features in as well, because this is really exciting.

Luma dream machineやrunway MLがこれらの機能を取り入れてくれることを期待していますが、これは本当にワクワクします。

Also, this week Amazon had a conference called the Amazon accelerate conference, I believe.

また、今週、AmazonはAmazon accelerate conferenceという会議を開催したと思います。

They announced a whole bunch of new stuff, including their own video generator.

彼らは、自社のビデオジェネレーターを含むたくさんの新しいものを発表しました。

However, this video generator is just for creating product ads for your Amazon products.

しかし、このビデオジェネレーターはあなたのAmazon製品の広告を作成するためのものです。

If we take a peek here in the backend of Amazon under this new campaign feature, they have the option to create a video ad here.

新しいキャンペーン機能の下でAmazonのバックエンドを覗いてみると、ここでビデオ広告を作成するオプションがあります。

You select video ad and then it asks you which product you want to make the video around.

ビデオ広告を選択すると、どの製品を中心にビデオを作成したいかを尋ねられます。

It then gives you a preview of four different potential video options that you can hover over.

その後、マウスを乗せることで確認できる4つの異なるビデオオプションのプレビューが表示されます。

It makes a nice little product video showing off your product.

製品をアピールする素敵な製品ビデオが作成されます。

You can then edit the video with headlines and change the text on the screen.

その後、見出しを付けて動画を編集し、画面上のテキストを変更することができます。

The only thing is when you're using video, you're kind of using video on Amazon to stand out.

ただし、動画を使用する際には、Amazon上で目立つために動画を使っているということです。

If everybody has access to this feature, does anybody really stand out?

もし誰もがこの機能にアクセスできるなら、実際に誰かが目立つことができるのでしょうか?

Are all these videos going to sort of look the same?

これらの動画はすべて、ある程度同じように見えるのでしょうか?

I don't know.

私にはわかりません。

We'll, we'll see how that plays out.

さて、どのように進展するか見てみましょう。

Amazon also debuted project Amelia, which is an AI assistant for sellers.

Amazonはまた、販売者向けのAIアシスタントであるプロジェクトアメリアを発表しました。

We can see some screenshots here where they ask questions like, what are the top things I need to do to prepare for the holiday season?

ここにいくつかのスクリーンショットがあり、彼らは「ホリデーシーズンに向けて準備するために必要なことは何ですか?」といった質問をしています。

It gives them suggestions based on their products and their store.

それは彼らの製品や店舗に基づいて提案を提供します。

Here's another screenshot where it is actually pulling in data from their Amazon store.

こちらは、実際に彼らのAmazonストアからデータを引き出している別のスクリーンショットです。

It says, how's my business doing?

それは、「私のビジネスはどうですか?」と言っています。

It shows off some key metrics right inside of the chat for that user.

そのユーザーのチャット内にいくつかの重要な指標を表示します。

That seems like it'll be pretty handy if you're an Amazon seller and you want to make your life a little bit easier with AI.

これは、Amazonの販売者であり、AIを使って生活を少し楽にしたいと思っているなら、非常に便利そうです。

Snap, the company behind Snapchat held their annual snap partner summit this week, and they showed off a bunch of new AI stuff and cool new tech, starting with a new, well, you guessed it, AI video generation tool.

Snapchatの背後にある会社Snapは、今週、年次のSnapパートナーサミットを開催し、新しいAI関連の技術やクールな新技術をいくつか披露しました。

It says here, the tool will allow select creators to generate AI videos from text prompts and soon from image prompts.

ここには、そのツールが特定のクリエイターにテキストプロンプトからAI動画を生成することを許可し、近く画像プロンプトからも生成できるようになると書かれています。

The tool will be available in beta on the web starting today.

このツールは、本日よりウェブ上でベータ版として利用可能になります。

This is from September 17th here for a small subset of creators.

これは、こちらでは9月17日から一部のクリエイター向けに提供されるものです。

I guess during the keynote, they didn't share too many details about this just that it's coming and it's rolling out in beta right now.

基調講演では、これに関する詳細はあまり共有されず、ただ来ることと現在ベータ版で展開中であることが伝えられました。

They also announced that Snapchat is going to be getting a Google lens like feature.

また、SnapchatがGoogleレンズのような機能を取得することも発表されました。

We can see here in this screenshot, somebody took a picture of a flower and then said at my AI, what type of flower is this?

このスクリーンショットでは、誰かが花の写真を撮り、私のAIに「これは何の花ですか?」と尋ねています。

They get this response.

彼らはこの反応を得ます。

That's a heliconia.

それはヘリコニアです。

Snapchat also showed off their new augmented reality glasses.

Snapchatは新しい拡張現実メガネも披露しました。

Here's what they look like.

こちらがその見た目です。

Apparently they have Large Language Model.

どうやら彼らは大規模言語モデルを搭載しているようです。

They have a heads up display inside of the glasses, auto-deming lenses.

彼らは眼鏡の内部にヘッドアップディスプレイを備えており、自動調光レンズを使用しています。

They have hand tracking similar to the Apple Vision Pro where you can navigate what you're seeing in your glasses with your fingers.

彼らはApple Vision Proに似たハンドトラッキング機能を持っており、指を使って眼鏡の中で見ているものをナビゲートすることができます。

They sound pretty dang cool.

それはとてもクールに聞こえます。

The biggest problem with them is, well, look at them.

彼らの最大の問題は、まあ、見てください。

That's what they look like.

それが彼らの見た目です。

We can see in this closer up image that it looks like the batteries and all the processing are sort of behind the ear here, but it sounds like it'll be a fairly decent blend between what you get out of like the Meta Ray-Ban glasses and what you get out of something like the X real glasses where you can watch videos and things like that directly in the glasses.

このクローズアップ画像から見ると、バッテリーやすべての処理が耳の後ろにあるようですが、MetaのRay-Banグラスから得られるものと、X realグラスのように直接グラスで動画を見たりすることができるものとの間で、かなり良いブレンドになるようです。

Apparently this is just like a beta version of them.

どうやらこれは彼らのベータ版のようです。

They're not really ready for full rollout yet.

まだ完全な展開には準備が整っていないようです。

They only have a 45 minute battery life at the moment, but ideally if they can improve that battery life and well, make them look a little bit better, these could be a hit.

現時点ではバッテリーの持ちが45分しかありませんが、理想的にはそのバッテリー寿命を改善し、見た目をもう少し良くすることができれば、ヒットする可能性があります。

While we're talking about glasses, Meta just extended their deal with the Ray-Ban smart glasses through 2030.

眼鏡について話している間に、MetaはRay-Banスマートグラスとの契約を2030年まで延長しました。

It sounds like we're going to continue to get new versions and new models of the Meta Ray-Bans for at least six more years.

少なくともあと6年間は、MetaのRay-Banの新しいバージョンやモデルが登場し続けるようです。

Like I mentioned, next week is Meta connect, albeit that event rumor has it, they're going to show off a new augmented reality pair of sunglasses at that event.

私が言及したように、来週はMeta Connectがありますが、そのイベントでは新しい拡張現実用のサングラスが披露されるという噂があります。

They're not expected to be released until 2026, 2027, but we might get a sneak peek of what else Meta is working on in the world of AR and sort of smart glasses.

これらは2026年または2027年まで発売されないと予想されていますが、MetaがARやスマートグラスの分野で取り組んでいる他のプロジェクトの一端を垣間見ることができるかもしれません。

I found this to be pretty interesting as well.

私もこれが非常に興味深いと思いました。

The late great James Earl Jones, the voice of Darth Vader actually gave permission to Lucas films for them to continue to use his voice in future Star Wars films.

故ジェームズ・アール・ジョーンズ氏、ダース・ベイダーの声の持ち主が、ルーカスフィルムに対して今後のスター・ウォーズ映画で彼の声を使用し続けることを許可したそうです。

We'll still get to hear James Earl Jones, AI generated Darth Vader voice in future Star Wars movies.

私たちは今後のスター・ウォーズ映画で、AI生成のダース・ベイダーの声を持つジェームズ・アール・ジョーンズを聞くことができるでしょう。

This article goes on to say that this has raised concerns among actors after last year's strike.

この記事は、昨年のストライキの後に俳優たちの間で懸念が高まっていることを述べています。

California has been doing a lot about that.

カリフォルニア州はその問題に対して多くの取り組みを行っています。

In fact, this week, Gavin Newsom signed eight new AI related laws.

実際、今週、ギャビン・ニューサム知事は8つの新しいAI関連の法律に署名しました。

He signed two laws that criminalize deep fake nudes, one making it illegal to create them.

彼はディープフェイクのヌードを犯罪化する2つの法律に署名し、そのうちの1つはそれを作成することを違法としています。

One that forces social media companies to establish channels for users to report them.

ソーシャルメディア企業に対して、ユーザーがそれらを報告するためのチャネルを設けることを義務付けるものです。

Another bill SB 9 42 makes it required that there is water marks inside the metadata of AI generated images.

別の法案SB 942は、AI生成画像のメタデータ内にウォーターマークを含めることを義務付けています。

AB 2655 requires online platforms like Facebook and X to remove or label AI deep fakes related to elections, as well as create channels for people to report them.

AB 2655は、FacebookやXのようなオンラインプラットフォームに対して、選挙に関連するAIディープフェイクを削除またはラベル付けし、それらを報告するためのチャネルを作成することを要求しています。

AB 2839 is for social media users who post or repost AI deep fakes that can deceive voters about upcoming elections.

AB 2839は、今後の選挙について有権者を欺く可能性のあるAIディープフェイクを投稿または再投稿するソーシャルメディアユーザーのためのものです。

AB 2355 now requires AI generated political advertisements to disclose that they were AI generated.

AB 2355は、AI生成の政治広告がAIによって生成されたものであることを開示することを現在義務付けています。

Coming back to what I was talking about, about James Earl Jones here, AB 2602 requires studios to obtain permission from an actor before creating an AI generated replica of their voice or likeness.

私が話していたことに戻りますが、ここでのジェームズ・アール・ジョーンズに関するAB 2602は、スタジオが俳優の声や肖像のAI生成レプリカを作成する前に、その俳優からの許可を得ることを要求しています。

AB 1836 prohibits studios from creating digital replicas of deceased performers without consent from their estates, which is interesting because in the Star Wars film Rogue One, they actually created an AI generated version of one of the deceased actors, supposedly without permission.

AB 1836は、故人のパフォーマーのデジタルレプリカをその遺族の同意なしに作成することを禁止しており、これは興味深いことです。なぜなら、映画『ローグ・ワン』では、実際に故人の俳優のAI生成版を許可なしに作成したからです。

If they had made that video today, it would have been illegal to do so.

もし彼らが今日その動画を作成していたら、それは違法だったでしょう。

There's one major bill left that I've talked about in multiple videos.

私が複数の動画で話した主要な法案が一つ残っています。

We've done a whole podcast episode about it.

私たちはそれについてのポッドキャストエピソードを一つまるごと作成しました。

That's the SB 1047 AI bill, which basically holds the model creators responsible for major catastrophic harm that might come from the model, even if they weren't involved in that catastrophic harm.

それはSB 1047のAI法案で、基本的にはモデルの創作者が、そのモデルから生じる可能性のある重大な災害に対して責任を負うことを求めています。

As of the recording of this video today, Gavin Newsom has two weeks to decide whether or not he's going to sign that bill into law or veto it.

この動画の収録時点では、ギャビン・ニューサムはその法案に署名するか拒否するかを決めるために2週間の猶予があります。

It sounds like he's still kind of torn, but he did speak at an event and he kind of almost implied that he might veto it.

彼はまだ少し迷っているようですが、あるイベントで発言し、拒否するかもしれないということをほのめかしたようです。

He said, there's one bill that is sort of outsized in terms of public discourse and consciousness.

彼は、「公共の議論や意識において、特に大きな影響を持つ法案が一つある」と述べました。

It's the SB 1047.

それがSB 1047です。

What are the demonstrable risks in AI and what are the hypothetical risks?

AIにおける実証可能なリスクとは何であり、仮説的なリスクとは何でしょうか?

I can't solve for anything.

私は何も解決できません。

What can we solve for?

私たちは何を解決できるのでしょうか?

That's the approach we're taking across the spectrum on this.

それがこの問題に対する私たちのアプローチです。

He also said in that same conversation, we've been working over the last couple of years to come up with some rational regulation that supports risk taking, but not recklessness.

彼は同じ会話の中で、リスクを取ることを支持する合理的な規制を考案するために、ここ数年取り組んできたとも言いましたが、それは無謀さではありません。

That's challenging now in this space, particularly with SB 1047, because of the sort of outsized impact that legislation could have and the chilling effect, particularly in the open source community.

現在、この分野では特にSB 1047の影響が大きく、法律がもたらす影響の大きさや、特にオープンソースコミュニティにおける萎縮効果のために、非常に困難な状況です。

He does sound concerned about the impact it will have on open source, possibly meaning that it'll get vetoed.

彼はこれがオープンソースに与える影響について懸念しているようで、もしかするとそれが拒否される可能性があるという意味かもしれません。

We still have to wait and see.

まだ待って様子を見なければなりません。

We'll know within the next two weeks for sure.

次の2週間以内には確実にわかるでしょう。

Moving on to the event that I'm at right now, HubSpot inbound.

現在私が参加しているイベント、HubSpotインバウンドに移ります。

HubSpot just launched their new Breeze platform with a ton of AI agents and features to help you sort of manage your CRM for you.

HubSpotは、新しいBreezeプラットフォームを発表しました。このプラットフォームには、CRMを管理するための多くのAIエージェントと機能が搭載されています。

Like the AI can basically run a lot of the things for you.

AIは基本的に多くの作業を自動で行うことができます。

This Breeze platform includes four Breeze agents to get work done fast from start to finish, including content agents, social media agent, prospecting agent and customer agent plus 80 more features embedded across the platform.

このBreezeプラットフォームには、コンテンツエージェント、ソーシャルメディアエージェント、見込み客エージェント、顧客エージェントの4つのBreezeエージェントが含まれており、作業を迅速に完了させることができます。また、プラットフォーム全体に80以上の機能が組み込まれています。

I actually saw the keynote where they announced Breeze here at HubSpot.

実際、私はHubSpotでBreezeが発表された基調講演を見ました。

I actually had the amazing opportunity to spend a little bit of time with the co-founder and CTO of HubSpot, Darmesh where he actually showed me one-on-one some of the really cool features that they're working on.

私はHubSpotの共同創設者でCTOのダーメッシュと少しの時間を過ごす素晴らしい機会があり、彼が一対一で彼らが取り組んでいる本当にクールな機能をいくつか見せてくれました。

I'm actually really excited.

実は私は本当にワクワクしています。

This video is not sponsored by HubSpot, but I just was really, really excited to sit down with him and see behind the scenes.

この動画はHubSpotのスポンサーではありませんが、彼と一緒に座って舞台裏を見ることに本当に、本当にワクワクしていました。

Some of these cool new AI features that these guys are rolling out over at HubSpot.

HubSpotで展開されているこれらの素晴らしい新しいAI機能のいくつかです。

The chip startup Grok just made a deal with one of the largest companies on the planet, Aramco.

チップスタートアップのGrokが、地球上で最も大きな企業の一つであるアラムコと契約を結びました。

They want to build the world's largest AI inferencing center with 19,000 language processing units.

彼らは19,000の言語処理ユニットを持つ、世界最大のAI推論センターを建設したいと考えています。

Aramco is going to fund the development and it's expected to cost in the order of nine figures.

アラムコはその開発に資金を提供する予定で、費用はおおよそ9桁になると予想されています。

It blows me away though because it says the data center will be up and running by the end of this year and can later expand to include a total of 200,000 language processing units.

しかし驚くべきことに、データセンターは今年の終わりまでに稼働し、後に合計20万の言語処理ユニットを含むように拡張できるとされています。

This is a direct competition with NVIDIA, although this is more like cloud compute.

これはNVIDIAとの直接的な競争ですが、よりクラウドコンピューティングに近いものです。

I don't think you can just go and buy like a Grok GPU and run your own AI at home.

自宅で自分のAIを運用するためにGrok GPUを購入することはできないと思います。

You can go to the Grok website or use the Grok API and run the AI inference through their systems.

Grokのウェブサイトにアクセスするか、Grok APIを使用して、彼らのシステムを通じてAI推論を実行することができます。

It's insanely fast.

非常に速いです。

While NVIDIA is more selling the actual hardware itself to the companies that are doing the AI, both trying to accomplish the same things for the end users, just two different approaches.

NVIDIAはAIを行っている企業に実際のハードウェア自体を販売している一方で、両者はエンドユーザーのために同じ目標を達成しようとしており、ただアプローチが異なります。

It'll be interesting to see which approach wins out in the long run.

長期的にどちらのアプローチが勝つのかを見るのは興味深いでしょう。

If you're a user of Slack, Slack AI will generate transcripts and notes from huddles.

Slackのユーザーであれば、Slack AIがハドルからのトランスクリプトやノートを生成します。

When you jump on Slack meetings at the end of the meetings, you can get key takeaways and summaries of the meetings and things like that.

Slackミーティングの最後に参加すると、ミーティングの重要なポイントや要約などを得ることができます。

There's been some frustration around LinkedIn.

LinkedInに関していくつかの不満が寄せられています。

Apparently LinkedIn has been training on people's data and they don't make it super easy for you to opt out of LinkedIn training on the data.

どうやらLinkedInは人々のデータを使ってトレーニングを行っており、そのデータに関するトレーニングからオプトアウトするのが非常に簡単ではないようです。

It says here, if you're on LinkedIn, then you should know that the social network has without asking opted accounts into training, generative AI models.

ここに書かれているのは、LinkedInを利用しているなら、ソーシャルネットワークが無断でアカウントをトレーニングにオプトインさせていることを知っておくべきだということです。

LinkedIn introduced a new privacy setting and opt out form before rolling out an updated privacy policy saying the data from the platform is being used to train AI models.

LinkedInは、新しいプライバシー設定とオプトアウトフォームを導入し、プラットフォームのデータがAIモデルのトレーニングに使用されているとする更新されたプライバシーポリシーを発表しました。

If you're a fan of generating music with Suno, they just rolled out a new feature where you can exclude styles.

もしSunoで音楽を生成するのが好きなら、スタイルを除外できる新機能が導入されたばかりです。

You can exclude specific instruments, specific styles, or even a specific vocal style, such as a male or female vocals.

特定の楽器や特定のスタイル、さらには男性ボーカルや女性ボーカルといった特定のボーカルスタイルを除外することができます。

If you have an Apple Vision Pro, they just rolled out a vision OS two for your Apple Vision Pro.

Apple Vision Proをお持ちの場合、Apple Vision Pro用のVision OS 2が新たにリリースされました。

It's got a new feature where you can take a 2d image and have it sort of turn it into a 3d image inside of your Apple Vision Pro.

新しい機能が追加されており、2D画像を取り込んで、それをApple Vision Pro内で3D画像に変換することができます。

There's some new hand gestures that they added into it.

新しい手のジェスチャーも追加されました。

You can now rearrange icons on your home menu and a handful of little quality of life updates.

ホームメニューのアイコンを再配置できるようになり、いくつかの小さな生活の質向上に関するアップデートも行われました。

Anybody that bought the Apple Vision Pro, it might be worth pulling it off your shelf or pulling it out of that drawer, playing around with it for another week before putting it back in the drawer.

Apple Vision Proを購入した方は、棚から引き出したり、引き出しから取り出したりして、もう一週間遊んでみる価値があるかもしれません。その後、再び引き出しに戻すことができます。

Finally, in the last bit of Apple news last week, or a couple of weeks ago, whenever that was, Apple announced their iOS 18, which didn't have Apple intelligence, but said that 18.1 was coming soon with some Apple intelligence.

最後に、先週、あるいは数週間前のAppleのニュースですが、AppleはiOS 18を発表しました。これはApple Intelligenceを搭載していませんでしたが、18.1がすぐに登場し、いくつかのApple Intelligence機能が追加されると述べました。

This week, 18.1 did come out with some of the Apple intelligence features.

今週、18.1がリリースされ、いくつかのApple Intelligence機能が含まれています。

You do have to have an iPhone 15 pro or better model to use these.

これらを使用するには、iPhone 15 Pro以上のモデルが必要です。

It says here, users must manually enable the feature by going to settings, Apple intelligence and Siri to join the Apple intelligence waitlist.

ここには、ユーザーは設定、Apple Intelligence、Siriに移動して、Apple Intelligenceのウェイトリストに参加するために機能を手動で有効にする必要があると書かれています。

I don't know how quickly you get access to it once you get in on the waitlist, but apparently 18.1 is rolling out now and people are starting to get access to it.

待機リストに入った後、どれくらい早くアクセスできるのかは分かりませんが、どうやら18.1が現在展開されており、人々がそれにアクセスし始めているようです。

That's what I got for you today.

今日はこれが私からの情報です。

I know it was a ton.

たくさんの情報でしたね。

We're in conference season.

今はカンファレンスシーズンです。

There's a lot happening right now.

現在、多くのことが起こっています。

I know this is a bit different of a video.

これは少し異なったタイプの動画だということは承知しています。

I am literally in like the world's smallest hotel room.

私は今、世界で最も小さなホテルの部屋にいます。

I don't have a desk.

デスクがありません。

I don't have anywhere to set my computer down.

コンピュータを置く場所もありません。

I've literally been holding my computer in my hand this entire video.

この動画の間ずっと、コンピュータを手に持っている状態です。

I'm sitting on my bed in my hotel room.

私はホテルの部屋のベッドに座っています。

I got this headset because I was sick of holding my mic up like this.

このヘッドセットを手に入れたのは、マイクをこのように持ち続けるのにうんざりしていたからです。

When I was in hotel rooms recording these videos.

ホテルの部屋でこれらのビデオを録画していたときのことです。

This one is totally different than normal.

これはいつもとはまったく異なります。

Hopefully you got the same amount of value out of it.

皆さんも同じくらいの価値を得られたことを願っています。

I'm just trying to keep myself up with the latest AI news.

最新のAIニュースについていこうとしています。

If I'm keeping myself up with it, might as well flip on the camera and help you keep up with it as well.

私がそれについていくのであれば、カメラをオンにして、あなたもそれについていけるように手助けしてもいいですね。

I hope I achieve that for you.

それがあなたのために実現できることを願っています。

If you like videos like this, make sure you like this one with the little thumbs up, like button and subscribe to this channel.

もしこのような動画が好きなら、ぜひこの動画に小さな「いいね」ボタンを押して、チャンネルを登録してください。

That will really, really help me out.

それが私にとって本当に大きな助けになります。

It will ensure that more videos like this show up in your YouTube feed.

あなたのYouTubeフィードにこのような動画がもっと表示されるようになります。

I make a lot of AI news videos, a lot of AI tools videos, a lot of tutorials, things like that.

私は多くのAIニュース動画やAIツールの動画、チュートリアルなどを作成しています。

I try to keep you tapped in to the AI world and also show you how to use all the stuff.

AIの世界にあなたをつなぎとめ、すべてのツールの使い方をお見せするよう努めています。

Typically in these news videos, I actually like to demo a lot of the tools and show them off and actually use them myself.

通常、これらのニュース動画では、多くのツールをデモンストレーションし、それらを実際に使ってみせるのが好きです。

That's really, really hard when I don't have a desk and I'm working on a laptop from my bed in my hotel room.

しかし、ホテルの部屋のベッドでノートパソコンを使っているため、机がないと本当に難しいです。

But I promise once I get back home after metaconnect in a couple of weeks, it's going to be back to regular scheduled programming with a lot more tutorials and tool demos and what you're used to from my channel.

しかし、私は約2週間後のメタコネクトから帰宅したら、通常のプログラムに戻り、私のチャンネルでお馴染みの多くのチュートリアルやツールデモをお届けすることを約束します。

I'm just almost done with conference season.

私は今、カンファレンスシーズンの終わりに近づいています。

I'm having a lot of fun doing it, but I'm having a harder time making as many videos as I'd like to, but there's a lot more coming and I can't wait to test out more of these tools and show off what I learn and what I find out playing with them all.

それを楽しんでいるのですが、思ったよりも多くの動画を作るのが難しくなっています。しかし、もっとたくさんのコンテンツが控えており、これらのツールを試して、学んだことや遊びながら見つけたことをお見せするのが待ちきれません。

I would really, really appreciate that like and subscribe to this channel.

このチャンネルへの「いいね」と「登録」を本当に感謝します。

If you want to know about all the latest and coolest AI tools and the latest AI news, check out futuretools.io.

最新のクールなAIツールや最新のAIニュースについて知りたい方は、futuretools.ioをご覧ください。

That's the site where I curate all of it, the tools, the news, I even have a newsletter that's totally free where I'll update you in your inbox with just the most important news and just the coolest tools, totally free, all available all over at futuretools.io.

それが私がすべてをキュレーションしているサイトです。ツールやニュースを含め、完全に無料のニュースレターもあり、最も重要なニュースや最高のツールをあなたの受信箱にお届けします。すべてはfuturetools.ioで利用可能です。

Thank you so much for hanging out with me, nerding out with me, talking to AI news with me, so much fun stuff happening.

私と一緒に過ごしてくれて、本当にありがとうございます。私と一緒にAIニュースについて話し合い、楽しんでくれて、たくさんの楽しいことが起こっています。

Many fun toys for us tech nerds to play with.

私たちテクノロジー好きのために遊ぶことができる楽しいおもちゃがたくさんあります。

I am so excited to share even more with you.

さらに多くのことをあなたと共有できることにとてもワクワクしています。

Really, really appreciate you.

本当に、心から感謝しています。

See you in the next video.

次の動画でお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?