見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2023年11月18日|@Matt Wolfe】

この動画では、OpenAIのChatGPTの一般利用開始とサーバーの遅延、GPT-5の開発、MicrosoftのAI関連アナウンス、YouTubeのAI機能に関する最新情報が紹介されています。ChatGPTは使用量増加により一時的な新規登録停止に追い込まれ、使用制限が以前よりも早く達成されています。MicrosoftはAzureクラウドにOpenAI技術を統合し、新機能を発表。YouTubeではAI音楽クローンに厳しく対応し、AI生成コンテンツの明示を求めています。さらに、Meta, Runway, Deorum, Kaa AI, Notion, GoogleのDeep MindなどがAI技術の新たな進歩と応用を示しており、医療診断の自動化やAI診察室の導入などが進んでいます。
公開日:2023年11月18日
※動画を再生してから読むのがオススメです。


All right, let's get into the AI news for this week.

さて、今週のAIニュースに入りましょう。

Last week, pretty much everybody finally got access to GPTs inside of ChatGPT, assuming you're a ChatGPT Plus subscriber.

先週、ChatGPT Plusに加入していれば、ほとんどの人がChatGPTのGPTsにアクセスできるようになりました。

This week, well, it seems everybody was trying them out and ChatGPT got a little overwhelmed.

今週は、みんながGPTを試しているようで、ChatGPTは少し圧倒されたようです。

You can see from this tweet here on November 14th from Sam Alman, We're pausing new ChatGPT Plus signups for a bit.

11月14日のサム・アルマンのツイートからわかるように、ChatGPT Plusの新規登録を少し停止しています。

The surge in usage post Dev day has exceeded our capacity, and we want to make sure everyone has a great experience.

Dev day後の利用の急増は私たちの容量を超えており、私たちはみなさんが素晴らしい体験をすることを確認したいと思っています。

And not only have they paused new signups for ChatGPT Plus, ChatGPT has been really slow lately, and it seems to be way easier to hit the usage cap than it used to.

そして、ChatGPT Plusの新規サインアップを一時停止しているだけでなく、ChatGPTは最近本当に遅くなっていて、以前よりもずっと簡単に使用量上限に達しているようです。

When I was recording my most recent video about how to create your own GPTs, while I was trying to demonstrate stuff, I was actually getting rate limited after only 15 prompts.

私が自分のGPTsを作成する方法についての最新のビデオを録画していたとき、私はいろいろなことを実演しようとしていましたが、実際にはわずか15回のプロンプトでレート制限を受けていました。

So, I'd enter 15 prompts, and then it would tell me to wait 2 hours before I can prompt again.

つまり、15回プロンプトを入力すると、もう一度プロンプトを入力できるまで2時間待てと言われるのだ。

So, that 25-minute video literally took me about 6 hours to record so that I could just pick up where I left off and continue prompting again.

だから、その25分のビデオは文字通り6時間ほどかかりました。そうすることで、私は前回終わったところから再開し、再びプロンプトを続けることができました。

So, hopefully, ChatGPT figures out how to scale this, and we can get back to normal with ChatGPT usage.

だから、ChatGPTがこれをスケールする方法を見つけ出し、ChatGPTの使い方が元に戻ることを期待しています。

Speaking of OpenAI and GPT, apparently OpenAI is starting to work on GPT-5.

OpenAIとGPTといえば、どうやらOpenAIはGPT-5に取り組み始めているようだ。

According to Sam Alman, it could even be super intelligent.

サム・アルマンによれば、それは超インテリジェントになる可能性さえあるという。

Sam Alman recently did an interview with the Financial Times, and in that interview, he said that they actually need more investment from Microsoft in order to continue building more major AI models.

サム・アルマンは最近Financial Timesのインタビューに応じ、その中で、より主要なAIモデルを構築し続けるためには、マイクロソフトからのさらなる投資が必要だと語った。

Now, the OpenAI team hasn't actually set a timeline for GPT-5, and they haven't really said what the capabilities it might have are.

現在、OpenAIチームはGPT-5のタイムラインを設定しておらず、GPT-5がどのような能力を持つかも明らかにしていない。

But according to Sam Alman, they are starting to work on it.

しかし、サム・アルマンによれば、彼らはGPT-5の開発に着手しているとのことだ。

But personally, I wouldn't expect it anytime soon.

しかし個人的には、すぐにとは思っていない。

Training these models takes a lot of compute power and a lot of time.

このようなモデルのトレーニングには膨大な計算能力と時間がかかる。

If I had to guess, I don't think we'll see GPT-5 in 2024.

推測するに、2024年にGPT-5が登場するとは思えない。

Maybe 2025.

2025年かもしれない。

We'll have to see.

様子を見るしかない。

Saying that, I have made predictions about how far out things are going to happen, and almost every time I've done that, they happen way faster than what I claim they will.

とはいえ、私は物事がどれくらい先に実現するかについて予測を立てたことがあるが、ほぼ毎回、私が主張するよりもずっと早く実現している。

So, I'm probably wrong there.

だから、私はおそらく間違っている。

There's also actually a ton of news coming out of the Microsoft camp this week, who happens to be OpenAI's biggest partner.

OpenAIの最大のパートナーであるマイクロソフト陣営からも、今週はたくさんのニュースが飛び込んできた。

This week was Microsoft's Ignite event, which was mostly focused on their Azure cloud computing platform and the advancements they've done with cloud computing.

今週はマイクロソフトのIgniteイベントで、主にクラウド・コンピューティング・プラットフォームのAzureとクラウド・コンピューティングの進歩に焦点が当てられていた。

But there were a few AI announcements throughout this keynote, including how all of OpenAI's tech is actually going to be rolled into the Microsoft Azure cloud.

しかし、この基調講演では、OpenAIのすべての技術がMicrosoft Azureクラウドに実際に導入されることを含め、いくつかのAIの発表があった。

As OpenAI innovates, we will deliver all of that innovation as part of Azure AI.

OpenAIのイノベーションに伴い、我々はそのイノベーションのすべてをAzure AIの一部として提供します。

And we are bringing the very latest of GPT-4, including GPT-4 Turbo, with vision to Azure OpenAI service.

そして、GPT-4 Turboを含むGPT-4の最新技術をAzure OpenAIサービスに導入します。

Now, in one of the coolest moments of this keynote, Satya Nadella actually showed off something that we haven't even seen yet from ChatGPT, and that's the inclusion of adding videos into a prompt.

さて、この基調講演の最もクールな瞬間の1つで、Satya Nadellaは実際にはChatGPTからまだ見たことのないものを披露しました。それは、プロンプトにビデオを追加することです。

Now, this was only a slight, like, couple segment of this entire keynote, but I can't wait to start using this myself.

それは、プロンプトに動画を追加できることです。これは、この基調講演全体のほんの2、3セグメントにすぎませんでしたが、私はこれを使い始めるのが待ちきれません。

Soon, you'll be able to connect GPT-4 Turbo with vision to Azure AI Vision, allowing you to prompt with video, images, and text.

近々、GPT-4 TurboとビジョンをAzure AI Visionに接続できるようになり、動画、画像、テキストでプロンプトを表示できるようになります。

In fact, our customer WPP is already using this today with one of their largest clients.

実際、私たちの顧客であるWPPは、彼らの最大のクライアントのひとつで、今日すでにこれを使用しています。

They also announced what they called models as a service, where you can use the Microsoft Azure cloud to fine-tune and custom train your own Stable Diffusion Code, LLaMA, Mistral 7B, and other models directly on their cloud.

また、Microsoft Azureのクラウドを利用して、Stable Diffusion Code、LLaMA、Mistral 7B、その他のモデルをMicrosoft Azureのクラウド上で直接微調整し、カスタムトレーニングすることができます。

And since NVIDIA is a part of everything, and Jensen Huang needs to show up at every single keynote, there was a quick cameo from Jensen talking about how NVIDIA and Microsoft are deepening their partnership, and how Microsoft is going to start using the H200 chips that NVIDIA is putting out soon.

また、NVIDIAはあらゆるものの一部であり、ジェンセン・フアンは基調講演のたびに登場する必要があるため、ジェンセンの簡単なカメオ出演があり、NVIDIAとMicrosoftがどのようにパートナーシップを深めているか、MicrosoftがNVIDIAが近々発表するH200チップをどのように使い始めるかについて語った。

They're also completely overhauling Microsoft Teams, where you can now create your own avatars and show up on team calls using your avatar instead of your real face.

また、Microsoft Teamsを全面的に見直し、自分のアバターを作成し、実際の顔の代わりにアバターを使ってチーム通話に参加できるようになりました。

And you'll even be able to prompt in your own meeting space to look how you want that meeting space to look when you do your Microsoft Teams meetings.

さらに、Microsoft Teamsでミーティングを行う際、自分のミーティングスペースにプロンプトを表示させ、そのミーティングスペースを自分の好きなように見せることもできるようになる。

It also sounds like Microsoft is going all in on the Copilot branding.

また、MicrosoftはCopilotのブランディングに全力を注いでいるようだ。

Instead of Bing Chat, pretty much everything is now going to be Microsoft Copilot.

Bing Chatの代わりに、ほとんどのものがMicrosoft Copilotになる。

Bing Chat is now Copilot.

Bing ChatはCopilotになりました。

It's a standalone destination, and it works wherever you are, on Microsoft Edge, on Google Chrome, on Safari, as well as mobile apps coming soon to you.

これは独立したデスティネーションで、Microsoft EdgeでもGoogle ChromeでもSafariでも、どこにいても機能する。

And speaking of OpenAI and their GPTs, you're going to be able to use GPTs inside of Microsoft Copilot pretty soon as well, as various plugins from Microsoft that they announced in a previous keynote.

OpenAIとそのGPTsについて言えば、以前の基調講演で発表されたマイクロソフトの様々なプラグインと同様に、かなり近いうちにMicrosoft Copilotの中でGPTsを使用できるようになるでしょう。

GPTs are a new way for anyone to create a tailored version of ChatGPT that's more helpful for very specific tasks at work or at home.

GPTsは、職場や家庭での特定の作業により役立つ、カスタマイズされたバージョンのChatGPTを誰でも作成できる新しい方法です。

And going forward, you will be able to use both plugins and GPTs in Copilot to tailor your experience.

今後、CopilotでプラグインとGPTsの両方を使用して、あなたの体験をカスタマイズできるようになります。

And this week, I even saw from Paul K here that in some Bing accounts, the plugins have already started rolling out.

そして今週、ポール・K氏から、一部のBingアカウントではすでにプラグインが展開され始めているとの情報を得た。

Now, I checked my account, they're not in my account yet.

私のアカウントでは、まだプラグインは導入されていない。

Paul does give instructions to check to see if it's in your account.

Paulは、自分のアカウントにプラグインがあるかどうかを確認する方法を教えてくれた。

You basically go to bing.com/chat, and if you see this new little plugins tab next to your recent activity, well then it's rolled out into your account.

基本的には、bing.com/chatにアクセスし、最近のアクティビティの横に新しい小さなプラグインのタブが表示されていれば、アカウントに導入されていることになります。

But this is a little bit of a preview of what it looks like.

しかし、これはどのように見えるかのちょっとしたプレビューです。

You can see we've got Instacart, Kayak, Clara, OpenTable, Shop, and Search as initial available plugins inside of Microsoft Copilot.

Instacart、Kayak、Clara、OpenTable、Shop、SearchがMicrosoft Copilotの初期プラグインとして利用できることがわかります。

And then the last really interesting thing that I found from this main keynote, Satya talked about Copilot Studio.

そして、この基調講演の最後に、サティアがCopilot Studioについて語りました。

We're announcing Copilot Studio.

私たちはCopilot Studioを発表します。

You know, with Copilot Studio, you can build custom GPTs, create new plugins, orchestrate workflows, monitor, in fact, your Copilot performance, manage your customizations, and much, much more.

Copilot Studioでは、カスタムGPTsの構築、新しいプラグインの作成、ワークフローのオーケストレーション、Copilotのパフォーマンスの監視、カスタマイズの管理など、さまざまなことができます。

So here's a look at what Copilot Studio will look like.

ここで、Copilot Studioがどのようなものになるかを見てみましょう。

It looks like you'll be able to train your own data into it, use custom GPTs, add plugins to it, and it looks like they have this really cool visual builder where you can sort of string together elements that you want your Copilot to use.

独自のデータをトレーニングしたり、カスタムGPTsを使用したり、プラグインを追加したり、Copilotに使用させたい要素をつなぎ合わせることができる、とてもクールなビジュアルビルダーがあるようです。

So it almost, to me, looks like an even more advanced version of what we're getting out of GPTs.

私には、GPTsから得られるものをさらに進化させたもののように見える。

By taking a peek at the Copilot Studio website here, it looks like you can use your own data here, integrate it with all sorts of other tools, point it to your own website, and it looks like we can try a demo or try building our own free version right now.

こちらのCopilot Studioのウェブサイトを覗いてみると、自分のデータを使用したり、さまざまな他のツールと統合したり、自分のウェブサイトにポイントしたりすることができるようです。デモを試したり、今すぐ無料版を作ってみることもできるようです。

But let's try the demo here real quick and let's plug in Future Tools and start the chat.

デモを試して、Future Toolsに接続して、チャットを始めてみましょう。

And it says, Hello, I'm the virtual assistant for Future Tools.

こんにちは、私はFuture Toolsのバーチャルアシスタントです。

How can I help?

どうされましたか?

Let's type, What tools can help me cut long-form videos into short-form videos?

長編動画を短編動画にカットするのに役立つツールは何ですか?

Looks like it says, You can use Wisecut and Spikes Studio to cut long-form videos into short-form videos.

WisecutとSpikes Studioを使って長編動画を短編動画にカットできます。

Let's go ahead and open these and see if that's what these actually do.

さっそくこれらを開いて、これらが実際にできることなのか確認してみよう。

Wisecut is an online automatic video editing software.

Wisecutはオンライン自動ビデオ編集ソフトです。

It automatically cuts down long videos into shorter, impactful content.

長い動画を自動的に短く、インパクトのあるコンテンツにカットしてくれる。

Spikes Studio, from long-form videos to viral clips in one click.

Spikes Studioでは、長編動画からバイラルクリップまでワンクリックで編集できる。

So even their demo is already pretty useful.

だから、彼らのデモでもかなり役に立っています。

Microsoft Copilot Studio is definitely something I'll have to make a deeper dive video on in the future and really put it through its motions and see what we can do.

Microsoft Copilot Studioは間違いなく、今後もっと深く掘り下げたビデオを作成し、実際に動かしてみて、何ができるかを確認しなければならないだろう。

Let's see how it compares to GPTs.

GPTsと比べてどうなのか見てみよう。

But again, I've got to save that for a future video.

でも、これもまた将来のビデオにとっておかなければならない。

And something else that came out of the Microsoft Ignite event, although it wasn't in the main keynote, was this ability to create what TechCrunch is calling deepfakes.

また、基調講演にはなかったのですが、マイクロソフトのIgniteイベントで発表されたものに、TechCrunchがディープフェイクと呼んでいるものを作成する機能があります。

Really, what it's doing is similar to what we've seen from tools like D-ID or H-AI-N or Synthesia, where we can give it text prompts and it will create a talking avatar where the lips look like they're moving.

D-IDやH-AI-N、Synthesiaのようなツールに見られるようなもので、テキストプロンプトを与えると、唇が動いているように見えるしゃべるアバターを作ってくれる。

Pretty much what we've seen from plenty of other tools.

これは、他の多くのツールでも見られることだ。

It looks like Microsoft is just kind of creating their own version.

マイクロソフトは独自のバージョンを作っているようだ。

But here's a quick demo.

しかし、ここに簡単なデモがある。

Hello, I am Christina.

こんにちは、私はクリスティーナです。

Let me show you how to create an engaging avatar video in four steps.

4つのステップで魅力的なアバタービデオを作る方法をお見せしましょう。

It begins with the talking script for your avatar.

まず、アバターのトーキングスクリプトから始めます。

Actually, I don't think the lips move very well to the voice on this one yet.

実はこれ、まだ唇が声に合わせてうまく動いていないんです。

I feel like D-ID and H-AI-N do it quite a bit better still.

D-IDやH-AI-Nの方がまだかなりうまくできている気がする。

But interesting to see that Microsoft is rolling this out as well.

しかし、マイクロソフトがこれを展開しているのは興味深い。

Not something I would have actually expected from Microsoft.

マイクロソフトに期待していたわけではないが。

They also appear to be rolling out an L1 lab-style thing where you can train your own voice for text-to-speech models.

また、音声合成モデルのために自分の声を訓練できるL1ラボのようなものも展開しているようだ。

Moving on past Microsoft, although Satya and Jensen Huang did mention that they were going to be using H200 chips in their upcoming cloud computers, it was actually only this week that NVIDIA announced that they'd even be making these H200 chips.

マイクロソフトに話を移すと、サティヤとジェンセン・フアンはH200チップを今後のクラウドコンピュータに使うつもりだと言っていたが、実はNVIDIAがこのH200チップを製造すると発表したのは今週になってからだった。

NVIDIA H200 is the first GPU to offer HBM3, essentially it's going to have faster, larger memory to fuel the acceleration of generative AI and large language models while advancing scientific computing for HPC workloads.

NVIDIA H200は、HBM3を提供する最初のGPUであり、本質的には、HPCワークロードの科学的コンピューティングを進めながら、生成AIと大規模言語モデルの加速を促進するために、より高速でより大きなメモリを搭載する予定である。

So basically, NVIDIA is making better, faster chips designed for training AI, and Microsoft is going to be using them in their cloud computers.

つまり基本的に、NVIDIAはAIのトレーニング用に設計された、より優れた高速チップを製造しており、マイクロソフトはそれをクラウドコンピュータに使用する予定です。

All right, moving on to Google News.

さて、Google Newsに話を移そう。

Google's actually rolling out a Bard experience for teens.

グーグルは実際に、10代の若者向けにバード体験を展開している。

It's essentially what we've come to expect from Bard, but with more guardrails on it.

基本的には、私たちがBardに期待しているものですが、よりガードレールがついています。

Basically, they trained Bard to recognize areas that are inappropriate for younger users and implemented safety features and guardrails to help prevent unsafe content, such as illegal or age-gated substances, from appearing in its responses to teens.

基本的には、若いユーザーにとって不適切な領域を認識するようBardを訓練し、違法な物質や年齢制限のある物質など、安全でないコンテンツが10代の若者への回答に表示されないよう、安全機能とガードレールを実装した。

Also, if teens ever ask for facts, it will automatically run their double-check response feature instead of forcing you to click on it anyway, which, in my opinion, seems like they should just do anyway.

また、もしティーンエイジャーが事実を求めた場合、それは強制的にクリックする必要がなく、自動的に二重チェックの応答機能を実行します。私の意見では、それはどちらにせよ行うべきだと思われます。

If you're going to ask it a question and you're looking for facts, why not always run the double-check?

質問をして事実を知りたいのなら、常にダブルチェックを実行すればいいじゃないか。

But apparently, they're going to do it for teens.

しかし、どうやら彼らは10代の若者たちのためにそれをするつもりらしい。

Apparently, YouTube is about to start cracking down on AI clones of musicians.

どうやらYouTubeは、ミュージシャンのAIクローンを取り締まろうとしているようだ。

They're going to start allowing music labels and the musicians to send takedown requests of music that uses the unique singing or rapping voice of an artist.

音楽レーベルやミュージシャンが、アーティストの独特の歌声やラップを使用した音楽の削除要求を送ることを許可し始めるようだ。

They're also rolling out a requirement where you must let people know when your content was generated by AI, and you can see it's going to put a little label on the content saying altered or synthetic content.

また、コンテンツがAIによって生成されたものであることを人々に知らせなければならないという要件も導入され、コンテンツに改変コンテンツや合成コンテンツという小さなラベルが貼られる予定です。

This is something people have asked me about recently, how do I feel since I am in AI and I'm also on YouTube?

これは最近私に聞かれたことで、私はAIに携わり、YouTubeにも出演している。

And personally, I think it's a great move.

個人的には、これは素晴らしい動きだと思う。

I think people should know if they're watching something that was generated by AI.

人々は、AIによって生成されたものを見ているかどうかを知るべきだと思います。

So asking people who are generating AI content to inform you that you're watching AI-generated content seems like a good thing to me.

だから、AIコンテンツを生成している人たちに、AIが生成したコンテンツを見ていることを知らせるよう求めるのは、私にとっては良いことのように思える。

I don't really see the downside.

デメリットはあまり見当たらない。

The only people who would not like this are people that are trying to trick others into thinking it's not AI-generated content.

これが好きではない唯一の人々は、他の人にAI生成のコンテンツではないと思わせようとしている人々です。

But speaking of YouTube and AI and also music, this week Google DeepMind showed off their new Lyria model, and they're trying this Lyria
model in an experiment they're calling Dream Track.

しかし、YouTubeやAI、音楽について話すと、今週、Google DeepMindは新しいLyriaモデルを披露しました。彼らはこのLyriaモデルを「Dream Track」という実験で試しています。

Basically, a limited set of creators will be able to use Dream Track for producing a unique soundtrack with AI-generated voice and musical style of artists, including Alec Benjamin, Charlie Puth, Charlie XCX, Demi Lovato, John Legend, Sia, Troye Sivan, and Papoose.

基本的に、限られたクリエイターがDream Trackを使用して、Alec Benjamin、Charlie Puth、Charlie XCX、Demi Lovato、John Legend、Sia、Troye Sivan、Papooseを含むアーティストのAI生成の声と音楽スタイルを持つユニークなサウンドトラックを制作することができます。

Some of these names I've never heard of before.

これらの名前のいくつかは以前聞いたことがありません。

These are all artists that gave YouTube permission and are working with YouTube and DeepMind to allow people to use their unique voice in new songs.

これらはすべて、ユーチューブに許可を与え、ユーチューブとディープマインドと協力して、人々が新曲で独自の声を使えるようにしているアーティストたちだ。

They've also developed a way to watermark AI-generated audio that theoretically the normal person won't be able to hear the watermark, but it does something to the waveform visualization so that somebody looking at the waveforms can actually see and detect the watermark.

彼らはまた、AIが生成した音声に透かしを入れる方法を開発した。理論上、普通の人は透かしを聞くことはできないが、波形を視覚化することで、波形を見る人が実際に透かしを見て検出できるようにするのだ。

And while that last post was on DeepMind's blog, YouTube's official blog is talking about it as well.

この最後の投稿はDeepMindのブログでのものだが、YouTubeの公式ブログでもこのことが話題になっている。

This tool is also able to do things like create horns by you just sort of humming what you want the horns to sound like.

このツールは、あなたがホーンの音をどのようにしたいかをほんの少しハミングするだけで、ホーンを作成することもできます。

So you'll be able to generate custom AI music for your videos that, since it's AI, shouldn't have any royalty or licenses attached to them.

したがって、AIで生成されたカスタムの音楽をビデオに生成することができますが、AIであるため、それにはロイヤリティやライセンスが付いていないはずです。

Once again, something that seems pretty cool, and I can't wait to get my hands on it.

再び、かなりクールなもののようで、手に入れるのが待ちきれません。

And finally, in other YouTube news, they've started to roll out some of their AI features for people to test out.

そして最後に、YouTubeの他のニュースとして、彼らは人々がテストするためのAI機能の一部を展開し始めた。

If you are a YouTube Premium user, you can test out the mobile versions of some of their new AI functionality right now.

YouTube Premiumユーザーであれば、今すぐモバイル版の新しいAI機能を試すことができる。

You can test out their conversational AI, where you ask questions about the video you're looking at, and I guess using the transcripts, it can answer questions about the video you're watching.

会話型AIを試すことができ、見ているビデオについて質問すると、トランスクリプトを使って、見ているビデオについての質問に答えてくれる。

And then they also have a comment topics summarized by AI, so you can just get a summary of what all the comments say without having to read them all.

また、AIによって要約されたコメントトピックもあり、すべてのコメントを読まなくても、その要約を得ることができる。

If you want to get sort of a general feel for what the comments are saying about a video, this tool will summarize them for you.

動画に関するコメントの大まかな内容を把握したい場合、このツールでコメントを要約することができる。

Now, if you're a YouTube premium subscriber, you can go to youtube.com/neww and there are buttons to try these features out.

YouTubeのプレミアム会員であれば、youtube.com/newwにアクセスして、これらの機能を試すことができる。

So, if you want to ask the questions, that's available now.

だから、質問したいなら、今すぐ利用できる。

But right now, it's only available to YouTube on Android.

ただ、今はAndroidのYouTubeにしか対応していません。

You can also try out the comment topic summarized by AI, and this one is available on both Android and iOS.

また、AIがまとめたコメントトピックも試すことができ、こちらはAndroidとiOSの両方で利用できる。

One thing to keep in mind, they only let you try out one at a time.

注意点としては、一度に1つしか試せないということだ。

So, you can actually turn on both the comment topic summarizer and the conversational and have them both running at the same time.

つまり、コメントトピックの要約と会話文の両方をオンにして、両方を同時に実行させることができる。

They only let you do one or the other.

ただし、どちらか一方しかできない。

Alright, I've got some really cool stuff to share with you in the AI art world this week.

さて、今週はAIアートの世界で本当にクールなものをいくつか紹介しよう。

For example, Meta announced two new pieces of research around their emu art generator model.

例えば、メタ社はエミュ・アート・ジェネレーター・モデルに関する2つの新しい研究を発表した。

They announced emu video and emu edit.

エミュビデオとエミュエディットだ。

Emu edit seems to be their imp painting feature where you can edit very specific aspects of your AI-generated images.

emu editは、AIが生成した画像の非常に特定の部分を編集できるインプ・ペインティング機能のようだ。

They also announced emu video, which seems to be their version of what we've seen from something like Runway Gen 2 or pabs or Moon Valley or all of the various AI video generators that are available right now.

また、Runway Gen 2やpabs、Moon Valleyなど、現在利用可能なさまざまなAIビデオジェネレーターのようなもののようだ。

However, taking a peek at these, they actually look really good.

しかし、これらを覗いてみると、実によくできている。

They seem to have a lot more motion than what I've seen from some of the other video generators.

他のビデオジェネレーターと比べて、彼らはより多くの動きを持っているようです。

Like this prompt of a couple dances elegantly in a luxurious Hall in a masquerade ball, photo-realistic.

例えば、カップルが仮面舞踏会の豪華なホールで優雅に踊るというプロンプトは、写真のようにリアルです。

That looks pretty dang good to me.

私にはかなり良く見える。

This wood on fire prompt looks awesome as well.

この薪ストーブのプロンプトも素晴らしい。

A pizza spinning inside a wood-fired pizza oven, dramatic vivid colors.

薪で焼かれたピザ窯の中で回転するピザ、ドラマチックなビビッドカラー。

A majestic white unicorn with a golden horn walking in slow motion underwater.

金色の角を持つ雄大な白いユニコーンが水中をスローモーションで歩く。

A robot with a TV screen as a face at the Acropolis in Athens, 4K high resolution.

アテネのアクロポリスでテレビ画面を顔にしたロボット、4K高解像度。

A hamster wearing a virtual reality headset as a DJ in a disco.

ディスコのDJとしてバーチャルリアリティヘッドセットを装着したハムスター。

But my guess, based on what I'm seeing here, is that they're all going to be pretty short generations, still like 3 or 4 seconds, like we're getting with the rest of the tools.

しかし、私がここで見ているものから推測するに、それらはすべて、他のツールで得られるような、まだ3秒や4秒といった、かなり短い世代になるのではないだろうか。

Now, I don't know when we're going to actually get access to this.

さて、いつになったら実際にアクセスできるようになるのかわからない。

It says this work is purely fundamental research right now, but the potential use cases are clearly evident.

今のところ、この研究は純粋に基礎的な研究だと書いてあるが、潜在的な使用例は明らかだ。

But it appears to be some fun video creation and AI image editing models that should be fun to play with when they're finally available to normal people.

しかし、最終的に普通の人々が利用できるようになれば、楽しいビデオ作成とAI画像編集モデルで遊べるはずだ。

Staying on the AI video theme for a second, here's something really cool to come out of Runway this week.

AIビデオというテーマで少し話を進めると、今週ランウェイから発表されたとてもクールなものがある。

I don't believe it's available yet.

まだ公開されていないと思う。

I don't see it in my Runway account, but it's the ability to do in-painting in videos and actually change what we're seeing in a video.

私のランウェイのアカウントにはないのですが、ビデオでインペインティングを行い、実際にビデオで見ているものを変えることができるのです。

So, what they did in this video was they selected this truck here and made the truck the only thing that's moving.

このビデオで彼らがしたことは、このトラックを選択し、動いているのはトラックだけにした。

They selected just the smoke and made the smoke the only thing that's animated.

彼らはただ煙を選んで、煙だけをアニメーション化しました。

The waterfall, the rest of the image isn't animated.

滝や他の部分はアニメーションしていません。

You are just picking and telling it what aspects of these images to animate, and that looks like it's going to be really awesome and give us even more control over what we're doing with our AI-generated videos.

あなたはただ選んで、どの画像の要素をアニメーション化するかを伝えるだけで、それは本当に素晴らしく見えます。それによって、私たちはAIで生成したビデオに対してさらに制御を持つことができます。

This is going to be game-changing.

これはゲームを変えるものになるでしょう。

Another cool thing in the AI video world is Deorum, and I've actually did a whole live stream with Deorum with one of the creators of Deorum, and it makes these really cool sort of morphing videos where it sort of animates between various images.

Deorumのクリエイターの一人と一緒に、Deorumのライブストリームをやったことがあるんですが、Deorumは本当にクールなモーフィング・ビデオを作っていて、いろいろな映像の間をアニメーションで行き来するんです。

Well, now Deorum is doing a Discord bot to make it really, really easy to create these types of animations.

そして今、DeorumはDiscordボットを使って、このようなアニメーションを本当に簡単に作れるようにしている。

In the past, you had to use something like Automatic 11-11, and there were all sorts of settings and configurations and numbers and different knobs to turn inside of the app to get the video you want.

過去には、Automatic 11-11のようなものを使用する必要があり、アプリ内で望むビデオを得るために設定や構成、数値、さまざまなつまみがありました。

And from what I can gather, you're going to be able to use the SDXL model and generate these Deorum animations pretty quickly and easily directly inside of Discord pretty soon.

私が調べたところでは、SDXLモデルを使って、Discordの中で直接Deorumアニメーションを素早く簡単に生成できるようになるようだ。

So, something to look forward to as well.

それも楽しみにするものです。

If you go to app.deorum/as/signup, you can actually get on the waitlist.

app.deorum/as/signupに行けば、キャンセル待ちリストに載ることができます。

I do not know when this is rolling out, but I love playing with AI video, so this will be something we will deep dive in once we get access to it.

しかし、私はAIビデオで遊ぶのが大好きなので、アクセスできるようになったら、もっと深く掘り下げてみたいと思います。

Let's check in on Midjourney real quick.

Midjourneyについて簡単に説明しよう。

Ali JWS was on the November 15th office hours.

アリJWSは11月15日のオフィスアワーに登場した。

They recently released a Nii style tuner.

彼らは最近Niiスタイルのチューナーをリリースした。

They announced that version 6 is coming out sometime in December.

彼らはバージョン6が12月のどこかでリリースされることを発表しました。

Apparently, we're going to be able to generate images directly from within the website within 1 to 2 weeks.

どうやら1~2週間以内にウェブサイト内から直接画像を生成できるようになるらしい。

However, it looks like it's only going to be available for people who have generated over 10,000 images to start.

ただし、10,000枚以上の画像を生成した人だけが利用できるようになるようだ。

It also looks like version 6 is going to have better text understanding.

また、バージョン6ではテキストの理解度が向上するようだ。

It's going to be very likely that version 6 will actually be able to write text.

バージョン6では実際にテキストが書けるようになる可能性が非常に高くなりそうだ。

They claim it should be ready before the holidays if all goes well.

彼らは、すべてが順調に進めば、休日前に準備が整うと主張しています。

There's this really cool tool that's been circulating this week called Kaa AI.

今週、Kaa AIというとてもクールなツールが出回っている。

KRE-E-A, and it actually allows you to update images in real time.

KRE-E-Aで、実際にリアルタイムで画像を更新することができる。

In fact, here's one of my buddies Riley Brown showing off what it can do.

実際、私の仲間の一人であるライリー・ブラウンがこのツールでできることを披露してくれている。

So, check this out.

これを見てください。

You can actually just add clip art.

クリップアートを追加するだけです。

So, if we add a clip art of this umbrella here and drag it down, right here he's now holding the umbrella.

この傘のクリップアートを追加して下にドラッグすると、彼が傘を持っています。

Look at that, he's holding the umbrella.

見てください、彼が傘を持っています。

And we're going to enhance it.

そして、それを向上させます。

Look at that image now.

この画像を見てください。

This Kaa tool is still in beta.

このKaaツールはまだベータ版です。

You can get on the waitlist, and they are rolling out access to it.

ウェイティングリストに登録すれば、順次アクセスできるようになる。

I did get access to it to try it out myself.

私はそれにアクセスして自分で試してみました。

I could give it a prompt like a man laying in the sand on a beach.

ビーチの砂浜に寝そべる男のようなプロンプトを出すことができた。

And then, over on this left side, I can start drawing here.

そして、この左側で絵を描き始めることができる。

So let's go ahead and select a background.

では、背景を選んでみましょう。

Here, you can see now we've got our sort of beach sand color.

ここでは、私たちが持っているビーチの砂のような色が見えます。

Let's go ahead and add a rectangle.

長方形を追加しましょう。

I'll make it blue.

青にします。

We'll put that right here.

それをここに配置します。

I'm going to grab an ellipse here.

ここで楕円形を選びます。

Let's make it, I know, let's make it red.

それを作りましょう、わかりました、それを赤くしましょう。

I'll make a little head here.

ここに小さな頭を作ります。

I'll grab the paintbrush, you know, draw a little thick figure lying here.

ペイントブラシを持って、ここに横たわっているちょっと太い人物を描きます。

This is supposed to be his towel on the beach.

これはビーチでタオルをかけているところだ。

And look at that, we're getting a little dude laying in the sand on the beach.

見てください、ビーチの砂浜に寝そべっているちっちゃな男ができました。

There's some other modes here: cinematic, illustration, product.

他にも、シネマティック、イラストレーション、プロダクトといったモードがある。

Let's go ahead and leave it on cinematic here.

ここではシネマティックにしておきましょう。

And what's really cool about this is I can grab this image over here on the right, drag it over to the left, and now it's using this as my starting image.

このモードが本当にクールなのは、右の画像を掴んで左にドラッグすると、これをスタート画像として使ってくれることです。

It enhanced this one over here on the right, and now I can continue to build off this.

この右の画像は強調され、この画像を基にさらに発展させることができます。

Let's go ahead and, you know, grab a red color here and draw something in the sand up here, put something in the sand over here, something in the sand over here.

さあ、ここで赤い色を選んで、ここに何かを描いてみましょう。ここに何かを砂に置いてみましょう。ここにも何かを砂に置いてみましょう。

You can see as I'm doing it, everything is changing.

そうしているうちに、すべてが変化していくのがわかるだろう。

Now, I haven't spent a ton of time with this yet, but it seems really fun.

まだあまり時間をかけていませんが、とても楽しそうです。

You can even flip on your webcam and have it generate AI-generated images using what it's seeing on your camera.

ウェブカメラを起動して、カメラに映ったものを使ってAIが生成した画像を表示させることもできます。

In fact, here's an example from Karen Chang that I saw earlier today where she's got the webcam mode turned on, and you can see as she's moving around, the image on the right side is actually changing with her movements.

実際、今日見たカレン・チャンの例では、ウェブカメラ・モードをオンにしていて、彼女が動き回っているときに、右側の画像が彼女の動きに合わせて実際に変化しているのがわかる。

It's pretty dang crazy.

かなりクレイジーだ。

Again, head over to kaakkea.ai, join the waitlist.

kaakkea.aiにアクセスして、ウェイティングリストに参加してください。

It's pretty cool.

かなりクールだ。

This week, Notion rolled out a new AI called Q&A, and basically what this does is you can ask questions and it will look across your entire Notion database, all the information you've ever plugged into your Notion.

今週、NotionはQ&Aという新しいAIを発表しました。基本的にこれは、あなたが質問をすると、Notionのデータベース全体、つまりあなたがNotionに接続したすべての情報を調べてくれるものです。

It can query that information.

その情報を照会することができる。

It's basically using everything you've ever entered into your Notion account or context for any questions that you ask it.

基本的には、あなたがこれまでNotionのアカウントに入力した内容や、質問に対するコンテキストをすべて使用します。

So you can ask it things like, What were the action items from last week's website redesign meeting?

例えば、先週のウェブサイト再設計会議のアクションアイテムは何でしたか?

And it will search all of your notes inside of Notion and bring up the action items from that meeting.

と尋ねると、Notion内のすべてのメモを検索して、その会議のアクションアイテムを表示します。

If you're someone that uses Notion a lot, this seems like it will be really, really handy to find stuff very quickly.

Notionをよく使う人なら、これは本当に、素早く何かを見つけるのに便利そうだ。

I'm actually going to be talking about it even more in one of next week's videos, so look out for that.

実際には、来週のビデオの1つでそれについてさらに話す予定ですので、お楽しみに。

Google's Deep Mind developed something they called GraphCast, and it's an AI model that's faster and more accurate for global weather forecasting.

GoogleのDeep Mindは、GraphCastと呼ばれるものを開発しました。それは、グローバルな天気予報においてより高速かつ正確なAIモデルです。

It can actually deliver 10-day weather predictions with unprecedented accuracy in just 1 minute, and it can also offer earlier warnings of extreme weather events.

実際には、わずか1分で前例のない精度で10日間の天気予報を提供することができ、さらには極端な天候の早期警告も行うことができます。

It says here, for the inputs, GraphCast requires just two sets of data: the state of the weather 6 hours ago and the current state of the weather.

グラフキャストは、6時間前の天気と現在の天気の2つのデータを入力するだけで、6時間後の天気を予測する。

The model then predicts the weather 6 hours in the future.

そしてモデルは6時間後の天気を予測する。

This process can then be rolled forward in 6-hour increments to provide state-of-the-art forecast up to 10 days in advance.

このプロセスを6時間単位で進めることで、10日先まで最先端の予報を提供することができる。

It's almost like the way a large language model works, where it's constantly trying to predict the next best word in the statement that it's putting out.

まるで大規模な言語モデルの動作のようで、常に次の最適な単語を予測しようとしています。

Well, this is looking at the graphs of the weather and trying to predict the next thing that's going to happen with the weather.

これは、天気のグラフを見て、次に起こる天気の予測を試みるものです。

It's very fascinating.

とても魅力的だ。

And finally, I'm going to wrap up with this announcement of the Go Forward Care Pod.

そして最後に、Go Forward Care Podの発表で締めくくろうと思います。

This is an AI doctor's office.

これはAI診察室です。

It appears to be like a little room that you walk into.

中に入ると小さな部屋のように見えます。

You go into this box and it will actually scan your body to help detect all sorts of medical conditions.

この箱の中に入ると、実際に体をスキャンし、あらゆる種類の病状を発見するのに役立ちます。

It could do genetic analysis, heart health, detect skin cancers, and even help analyze mental health.

遺伝子分析、心臓の健康状態、皮膚がんの検出、さらには精神的な健康状態の分析に役立つ可能性さえある。

So in the very near future, this might be how medical diagnoses work.

つまり、ごく近い将来、これが医療診断の仕組みになるかもしれない。

You walk into one of these boxes, it does all the scans it needs to do.

この箱の中に入ると、必要なスキャンがすべて行われる。

And then passes that information along to a actual doctor to help figure out the next courses of actions, any sort of treatments that need to happen.

そして、その情報を実際の医師に伝え、次の行動や必要な治療などを考えるのに役立てます。

But the diagnosis process may become fully automated by AI in the very near future, and to me, that's pretty exciting because it will likely free up a lot of doctors to do even more important work.

しかし、診断プロセスはAIによって非常に近い将来、完全に自動化されるかもしれません。私にとっては、それは非常に興奮することです。なぜなら、それによって多くの医師がさらに重要な仕事に取り組む時間が確保される可能性があるからです。

And I would imagine that the accuracy of these diagnoses are probably going to be pretty solid anyway.

そして、これらの診断の正確さは、おそらくいずれにせよかなり確かなものになるだろうと想像している。

All of this stuff excites me.

このようなことはすべて私を興奮させる。

I'm a huge nerd, I love this stuff.

私は大のオタクで、このようなものが大好きだ。

I hope you love this stuff too.

あなたにもこのようなものが好きになってほしい。

I'm excited to see this roll out.

私はこのようなものが出てくるのを見るのが楽しみだ。

Who knows, maybe one day I'll be making a vlog Style video where I'm getting a full health analysis by walking into one of these AI boxes.

もしかしたら、私がこのAIの箱の中に入って、完全な健康分析を受けるVlogスタイルのビデオを作る日が来るかもしれない。

But there you have it, there's the breakdown of the AI news for this week.

しかし、それがあります、今週のAIニュースの概要です。

Again, I record these videos on Thursday, so there may be even more news that I missed from this video.

繰り返しになるが、私はこのビデオを木曜日に録画しているので、このビデオで見逃したニュースがさらにあるかもしれない。

But if there was, I'll make sure it's in next week's video.

しかし、もしあれば、来週のビデオで確認するつもりだ。

And if you do want to stay in the loop with all the latest AI as it happens, check out futur tools.

また、最新のAI情報を常にチェックしたい方は、futur toolsをご覧ください。

I keep the AI news page up to date on a daily basis.

私はAIニュースのページを毎日更新しています。

I curate all the coolest AI tools that I come across, and I even have a free newsletter where every single week I share with you the five coolest tools that I've come across.

私が出会った最もクールなAIツールすべてをキュレーションし、毎週、私が出会った最もクールなツールを5つ紹介する無料のニュースレターも発行しています。

I share with you three interesting news articles, a handful of YouTube videos, and a bunch of other really cool stuff happening in the AI world.

また、3つの興味深いニュース記事、YouTubeのビデオ、その他AIの世界で起きている本当にクールなことの数々をご紹介しています。

It's totally free, just click the join the free newsletter button, you can find it over at futur tools.

無料ニュースレターに参加するボタンをクリックするだけで、futur toolsでご覧いただけます。

So thank you so much once again for tuning into this video, I really, really appreciate you.

だから、もう一度このビデオにチューニングしてくれて本当にありがとう、本当に感謝しています。

If you want to stay in the loop with all the latest AI news, you want to get AI tutorials, you want to learn about the coolest AI research that's in the works, make sure you subscribe to this YouTube channel and like this video, and it will ensure that more videos like this show up in your YouTube feed.

最新のAIニュースについて常に情報を得たい、AIのチュートリアルを受けたい、進行中の最もクールなAIの研究について学びたい場合は、このYouTubeチャンネルに登録し、このビデオにいいねをしてください。そうすることで、このようなビデオがもっとYouTubeのフィードに表示されることが保証されます。

So thank you once again for tuning into this video, I really appreciate you.

このビデオにご視聴いただき、本当にありがとうございました。

I'll see you in the next video. Bye-bye.

また次のビデオでお会いしましょう。 バイバイ。

この記事が気に入ったらサポートをしてみませんか?