見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2023年9月24日|@Matt Wolfe】

この動画では、GoogleとMicrosoftのAIバトルの中で、OpenAIが高機能なDALL·E3を発表し、これがChatGPTと統合されることが紹介されています。OpenAIは外部専門家との協力ネットワークを立ち上げ、一方で著作権問題で訴えられています。MicrosoftはWindows 11と新しいSurfaceデバイスにAI機能を追加する予定です。GoogleはBardの新機能やYouTubeのAI関連アップデートを導入しました。AmazonのAlexaやFire TVはAI機能が向上しました。Intelは新しいAIチップとソフトウェアの開発を進めています。TikTokはAIコンテンツにラベル付け、LimeWireはAI関連の買収を行いました。その他にも、多くの企業がAI技術の進化と応用に注力しています。
公開日:2023年9月24日
※動画を再生してから読むのがオススメです。


The battle for AI dominance between Google and Microsoft really, really heated up this week.

この週、GoogleとMicrosoftのAIの支配を巡る戦いが本当に、本当に激しくなりました。

Now, I just flew back in from New York where I was attending a Microsoft Event, so I'm a day late on making this news video.

実は、ニューヨークから帰ってきたばかりで、Microsoftのイベントに参加していました。なので、このニュースのビデオを作成するのが1日遅れています。

But man, it has been a week with announcements from Google, YouTube, Microsoft, OpenAI, Amazon, Intel.

でも、本当にこの1週間はGoogle、YouTube、Microsoft、OpenAI、Amazon、Intelからの発表が溢れていました。

I mean, this week was a week where everybody was talking about AI.

要するに、この週はみんながAIについて話していた週でした。

So let's just jump straight in with probably the biggest news that came out of this week.

では、この週に発表されたおそらく最も大きなニュースから始めましょう。

OpenAI unveiled DALL·E3, and as you can see from their example images, DALL·E3 has gotten much, much better than DALL·E2 with things like actual text.

OpenAIはDALL·E3を発表し、例の画像からもわかるように、DALL·E3は実際のテキストなど、DALL·E2よりもかなり、かなり進化しています。

I just feel so empty inside and much more contrasty images than what we used to get out of DALL·E.

中が空っぽに感じるし、以前のDALL·Eと比べて画像のコントラストがはるかに高いです。

Here's a side-by-side comparison that they gave of DALL·E2 versus DALL·E3 using the same prompt: an expressive oil painting of a basketball player dunking depicted as an explosion of a nebula.

これは、同じプロンプトを使用して、DALL·E2とDALL·E3を横に並べて比較したものです:バスケットボールのプレイヤーがネビュラの爆発として描かれている表現豊かな油絵。

This was DALL·E2 on the left, here.

左側がDALL·E2の結果です。

This was DALL·E3 on the right.

右側がDALL·E3の結果です。

Quite an improvement.

かなりの向上ですね。

In their demo video, here, they actually show somebody using it with more of a conversational language.

デモビデオでは、もっと会話的な言語でそれを使用する人を実際に紹介しています。

My 5-year-old keeps talking about super duper sunflower Hedgehog.

私の5歳の子供は、超絶すごいひまわりのハリネズミのことをずっと話しています。

What does it look like?

それはどんな見た目をしていますか?

And then it generates some pictures of a hedgehog.

それから、ハリネズミの画像をいくつか生成します。

My daughter says its name's Larry.

私の娘は、その名前がLarryだと言います。

Can I see more?

もっと見せてもらえますか?

Generates more of the same Hedgehog.

同じハリネズミの画像をもっと生成します。

Can I see Larry's house?

Larryの家を見せてもらえますか?

It generates a house with Larry on it.

それはLarryがいる家の画像を生成します。

Larry is so cute.

Larryはとても可愛い。

What makes him so special?

彼はなぜそんなに特別なのですか?

Here's the reasons.

理由はこちらです。

Then it actually sort of tells a story about Larry.

実際にはLarryに関する物語を少し話しています。

So not only is it creating images, it's creating stories and creating environments and creating sticker designs.

なので、画像を生成するだけでなく、物語や環境、ステッカーデザインも作成しています。

And so it looks like with DALL·E3, the goal is no longer to just type a prompt of an image you want to see, but actually have a conversation with ChatGPT to get to the image you're looking for.

DALL·E3を見ると、目的は望む画像のプロンプトをタイプするだけでなく、ChatGPTと実際に会話をして探している画像を得ることのようです。

And speaking of ChatGPT, they're actually building it straight into ChatGPT.

そして、ChatGPTについて話すと、実際にそれを直接ChatGPTに組み込んでいます。

So you're not going to use a separate DALL·E3 site.

別々のDALL·E3のサイトを使用することはありません。

You're just going to go to ChatGPT and have it generate images for you.

ChatGPTにアクセスして画像を生成させるだけです。

They gave a whole bunch of other examples of some images.

他にもいくつかの画像の例を示してくれました。

If you click on any one of these images here, you can see the prompt that was used in DALL·E3 to get that image.

こちらの画像のいずれかをクリックすると、その画像を得るためにDALL·E3で使用されたプロンプトを確認できます。

You can also see some of the text: Find the universe within you.

テキストも見ることができます:あなたの中に宇宙を見つけて。

So it seems to be doing pretty good with text.

テキストに関してはかなりうまくやっているようです。

And then I came across this tweet from Nick St Pierre here on Twitter, where he took a bunch of these images that they showed as examples here and then ran the exact same prompt into Midjourney to see how they compared.

そして、TwitterのNick St Pierreからのこのツイートを見つけました。彼はここで示されたこれらの画像のいくつかを取ってきて、Midjourneyで正確に同じプロンプトを実行して、どのように比較されるかを見ました。

And here's what he came up with.

そして、彼が得た結果がこれです。

Here's that same heart image.

同じハートの画像です。

On the top is the DALL·E3 version, on the bottom is the Midjourney version.

上部がDALL·E3のバージョン、下部がMidjourneyのバージョンです。

Obviously, Midjourney isn't going to generate text like DALL·E3 is.

明らかに、MidjourneyはDALL·E3のようにテキストを生成することはできません。

Here's an image of a house on a cliff side that DALL·E3 generated.

これは、DALL·E3が生成した崖の上の家の画像です。

Here's the Midjourney version.

これがMidjourneyのバージョンです。

The top on this one is DALL·E, the bottom is Midjourney.

この一つの上部はDALL·E、下部はMidjourneyです。

And looking through a lot of these, I would say that in some instances, DALL·Eseems to make a better image, and in some of these other instances, I think Midjourney seems to make a better image.

これらの多くを見ていると、場面によってはDALL·Eの方が良い画像に見えることがありますし、他の場面ではMidjourneyの方が良い画像に見えることがあります。

But they're definitely closing the gap between them, and the ability to just do it straight inside of ChatGPT, as opposed to Discord like we're used to with Midjourney, now I think is going to be a much-needed user experience upgrade.

しかし、彼らの間の差は確実に縮まってきており、ChatGPT内部で直接行えるようになったことは、以前のようにDiscordを使用するのと比べて、非常に必要なユーザー体験の向上だと思います。

So here's another one where the top is DOI, the bottom is Midjourney.

こちらも上部がDOI、下部がMidjourneyのものです。

What do you think?

どう思いますか?

Do you think DALL·Eis going to give Midjourney a run forwards money, especially since it's going to be just in ChatGPT for people who already use ChatGPT at no additional cost?

DALL·EがChatGPT内部で使用できるようになると、すでにChatGPTを使用している人々にとって追加のコストがかからないという点で、Midjourneyに競争を挑むと思いますか?

It's also going to be inside of Bing, but we're going to talk about that in a minute.

また、Bingの中にも入っているようですが、それについては後ほどお話しします。

According to OpenAI's press release, DALL·E3 will be available to ChatGPT plus and Enterprise customers in early October.

OpenAIのプレスリリースによれば、DALL·E3は10月初旬にChatGPT plusとEnterpriseのお客様に利用可能になる予定です。

They'll also be available for commercial use.

また、商業利用も可能になります。

It says, as with DALL·E2, the images you create with DALL·E3 are yours to use, and you don't need our permission to reprint, sell, or merchandise them.

DALL·E2と同様に、DALL·E3で作成した画像は自分のものとして使用でき、再印刷や販売、商品化するための当社の許可は必要ありません。

Next up, I want to talk to you about today's sponsor, BetterHelp.

次に、今日のスポンサー、BetterHelpについてお話ししたいと思います。

Now, what does BetterHelp have to do with AI?

BetterHelpはAIとどのような関係があるのでしょうか?

Honestly, not a whole lot, but at the pace that AI is moving, it can often feel overwhelming and hectic, and a lot of people have real fears over where AI is going and how it's going to affect their lives and their jobs.

正直なところ、それほど多くはありませんが、AIの進歩の速さによって、しばしば圧倒されたり忙しく感じたりすることがあります。多くの人々がAIの進化が自分たちの生活や仕事にどのような影響を与えるのか、本当の恐怖心を抱いています。

And one way to really help deal with a lot of this craziness that's going on is to actually talk to somebody, which is why I agreed to partner with BetterHelp on this episode.

そのような状況をうまく乗り越えるためには、誰かと話すことが有効ですので、このエピソードにBetterHelpとの提携を決意しました。

BetterHelp is focused on making therapy more affordable and accessible to everyone, and knowing where to start to find a therapist can be difficult on its own.

BetterHelpは、セラピーをより手頃な価格で誰にでも利用しやすくすることに焦点を当てています。セラピストを見つけるための出発点を見つけること自体が難しいことを知っています。

BetterHelp offers an online platform connecting you with professional therapists.

BetterHelpは、専門のセラピストとあなたを繋ぐオンラインプラットフォームを提供しています。

By answering a few questions, you can be matched with a suitable therapist within just a few days.

数問の質問に答えるだけで、数日以内に適切なセラピストに紹介されます。

As an entrepreneur who's gone through ups and downs and a lot of struggles over my career, I've often turned to therapy to have somebody to talk to and to help calm my mind over some of the fears and stresses that come along with running a business.

私は起業家としてキャリアの中で上下や多くの困難を経験してきたので、ビジネスを運営する際に生じる恐怖やストレスを和らげるために、しばしばセラピーに頼りました。

Signing up is super easy, and if you use my link that's in the description, betterhelp.com/slmwolf, you'll get 10% off your first month.

サインアップは非常に簡単で、私のリンクの説明欄にあるbetterhelp.com/slmwolfを使用すると、初回1ヶ月間が10%オフになります。

Now, I know firsthand that therapist compatibility is a crucial element, and if who you're matched with doesn't align, they make it super easy to switch to another one, and it's completely free to do it.

私自身がセラピストの相性が重要な要素であることを知っています。もしマッチングした相手と合わない場合は、簡単に別のセラピストに切り替えることができ、完全に無料です。

So if you're looking for guidance, consider online therapy with BetterHelp.com.

ガイダンスが必要な場合は、BetterHelp.comのオンラインセラピーを検討してみてください。

Click the link in the description or visit betterhelp.com/slmwolf.

説明欄のリンクをクリックするか、betterhelp.com/slmwolfを訪問してください。

So thanks so much again to BetterHelp for sponsoring this video.

このビデオのスポンサーとしてBetterHelpに再度感謝します。

In other OpenAI news this week, theinformation.com dropped an article about how OpenAI hustles to beat Google to launch a multimodal LLM.

今週のOpenAIのニュースとして、theinformation.comがOpenAIがGoogleより先にマルチモーダルLLMをローンチするための取り組みについての記事を公開しました。

Now, I'm not personally subscribed to The Information because, well, yeah.

個人的にはThe Informationの購読者ではありません。

So I get my news from websites that report on what other websites are reporting on, like this AI Beat website.

ですので、他のウェブサイトが報じている内容を報じるウェブサイトからニュースを取得しています。

And essentially what it says is that OpenAI isn't necessarily working on GPT-5 right now.

そして、実際にはOpenAIが現在GPT-5に取り組んでいるわけではないと言われています。

They're working on making more and more improvements to GPT-4, including what they're currently calling GPT Vision, which is the additional multimodal capabilities for ChatGPT.

彼らはGPT-4のさらなる改善に取り組んでおり、現在GPT Visionと呼ばれるChatGPTのマルチモーダル機能を追加しています。

Essentially, they want ChatGPT to work a lot more like what they showed off in the GPT-4 demo when GPT-4 came out, like how it can interpret images, understand context, and produce text or responses that incorporate both text and visual input.

GPT-4がリリースされた際のデモのように、ChatGPTが画像を解釈し、文脈を理解し、テキストと視覚入力の両方を取り入れたテキストやレスポンスを生成できるようにすることを目指しています。

And this, of course, comes a week after Google was talking about how Gemini is coming out soon and it's going to blow GPT-4 out of the water.

これは、Googleが近々Geminiをリリースし、それがGPT-4を圧倒すると発表した1週間後のことです。

So the battle between OpenAI, Microsoft, and Google is really on right now.

今、OpenAI、Microsoft、Googleの間の戦いが実際に始まっています。

And from an AI nerd perspective, it's been really, really fun and exciting to watch because at the end of the day, it just means cooler and more improved tools for us to use.

AIのオタクの視点から見ると、本当に楽しくてワクワクするものでした。最終的には、私たちが使うためによりクールで改良されたツールが増えるということを意味します。

This week, OpenAI also announced that they are starting an OpenAI Red Teaming Network.

今週、OpenAIはOpenAI Red Teaming Networkを開始すると発表しました。

They're basically trying to find a whole bunch of outside experts in various fields, things like cognitive science, chemistry, biology, physics, alignment, education, healthcare, finance, biometrics, privacy, cybersecurity, misinformation, things like that.

彼らは基本的に、認知科学、化学、生物学、物理学、アライメント、教育、医療、金融、バイオメトリクス、プライバシー、サイバーセキュリティ、誤情報など、さまざまな分野の外部の専門家を見つけようとしています。

They want experts in all of these different areas to sort of form a team together to all work together to figure out how to solve a lot of these problems.

これらのさまざまな分野の専門家たちが一緒になって、これらの問題の解決方法を模索するためのチームを形成することを望んでいます。

And they're going to be outside sources.

そして、これは外部の資源となるでしょう。

These aren't going to be, you know, team members working inside of OpenAI.

OpenAIの内部で働くチームメンバーではありません。

This is a third party that they're trying to create here.

これは彼らが作成しようとしている第三者の組織です。

If you're an expert and you want to participate in this Red Team, you could reach out at redteam@openai.com.

専門家であり、このRed Teamに参加を希望する場合は、redteam@openai.comまで連絡してください。

And it looks like you can apply up through December 1st, 2023.

2023年12月1日まで応募が可能のようです。

And since we're on the subject of OpenAI, more authors are suing OpenAI.

そして、OpenAIの話題になっているので、さらに多くの著者がOpenAIを訴えています。

I feel like a broken record because I talk about this in almost every single end of the week AI news video about more people, more companies suing OpenAI.

ほぼ毎週の週末のAIニュース動画でこれについて話しているので、繰り返しのような気がしますが、さらに多くの人々、多くの企業がOpenAIを訴えています。

This week, it is George R.R. Martin, the creator of Game of Thrones, along with John Grisham, Jonathan Franzen, Jod Pilt.

今週は、「ゲーム・オブ・スローンズ」の生みの親であるGeorge R.R. Martin、John Grisham、Jonathan Franzen、Jod Piltがいます。

Once again, it's another lawsuit saying that OpenAI scraped the entire contents of their work and now people can go and use OpenAI as an alternative to purchasing and reading their books.

また、OpenAIが彼らの作品の全内容をスクレイピングし、人々がOpenAIを使用して彼らの本を購入・読む代わりに使用できるという別の訴訟です。

I am no expert whatsoever, so don't take what I say very seriously, but I actually think that the authors probably aren't going to win these because at the end of the day, the way AI works and the way these AIs are trained is essentially the same way that a human is trained.

私は専門家ではないので、私の言うことをあまり真剣に受け取らないでくださいが、実際には、著者たちがこれらを勝訴する可能性は低いと思います。なぜなら、AIの動作方法やこれらのAIが訓練される方法は、人が訓練される方法と基本的に同じだからです。

Now, if somebody grows up to become an author and throughout their life, they read books by George R.R. Martin, they read books by John Grisham, they read books by Michael Crichton and Stephen King and all of these authors, and then they grow up to write their own book and their books are heavily influenced by all of the works that they've read up until then, that's essentially how the AI is working.

例えば、ある人が作家になるために育ち、人生の中でGeorge R.R. MartinやJohn Grishamの本を読み、Michael CrichtonやStephen Kingなどの著者の本を読んで、自分の本を書くようになり、その本がこれまで読んできた作品に大きく影響されている場合、それはAIが動作する方法と基本的に同じです。

Now, these complaints about how if AI consumes all of these books...

そして、AIがこれらの本をすべて消費するというこれらの苦情について...

And then we ask it questions about those books, and then it could give us responses.

そして私たちがそれらの本に関する質問をすると、それは私たちに答えを与えることができます。

So then, we don't need to go read those books.

それで、私たちはそれらの本を読む必要はありません。

Well, isn't that already happening on YouTube?

それはもうYouTubeで起こっているのではないですか?

Aren't there already like book reviews out there where somebody read the book and then gave you a general quick synopsis so you don't have to read it?

誰かが本を読んで、それを読まなくてもいいように一般的な簡単な要約を提供する本のレビューは既にあるのではないですか?

Well, that person who made that synopsis for you did the same thing the AI did.

その要約を作成した人は、AIがしたのと同じことをしました。

They ingested the book and then figured out how to summarize it in an easier way for you to understand.

彼らは本を摂取し、あなたが理解しやすい方法でそれを要約する方法を見つけ出しました。

Same thing goes if me and you were just having a conversation.

あなたと私が会話をしている場合も同じことです。

If I read an entire book and you said, Oh, I'll probably never read that, can you tell me what it's about?

もし私が本を全部読んで、ああ、多分それを読むことはないでしょう、それは何についてですか?と言ったら?

I can regurgitate it based on me consuming it and what I understood.

私はそれを摂取し、理解したことに基づいてそれを再生することができます。

The AI is just doing that same thing.

AIはまさにそのようなことをしています。

If you kind of look at it from that perspective of, well, if an AI can consume a book and then sort of tell you what it understands about the book based on questions you ask of it, well, then the AI would have to then somehow pay the author royalties because they were able to give you some information about the book.

もしAIが本を消化し、それに関する質問に基づいて本の理解を教えてくれることができるとすると、AIは著者に何らかの報酬を支払わなければならないでしょう。なぜなら、AIが本についての情報を提供できたからです。

Does that mean me reading the book, I would have to now pay the author some sort of royalty because I consume the book and then turn it's a very gray area subject.

それは、私が本を読んで、私が本を摂取してそれを、それは非常にグレーなエリアの主題に変えるならば、著者に何らかの形のロイヤルティを支払わなければならないことを意味するのでしょうか。

But based on the sort of logic that plays out in my head around it, I have a hard time seeing a lot of these authors win these lawsuits.

しかし、私がそれについて考えるロジックに基づいて、これらの著者の多くがこれらの訴訟を勝訴するのは難しいと思います。

But again, not a lawyer, what I say with a grain of salt, I'm just sort of randomly ranting here.

しかし、再び、弁護士ではありません、私の言うことを少し軽く受け取ってください、私はここでただのランダムに愚痴っているだけです。

All right, let's talk about Microsoft.

さて、Microsoftについて話しましょう。

And like I mentioned at the beginning of this video, I just flew in from New York because I was actually at this event where they were making all of these announcements.

この動画の最初に述べたように、私はニューヨークから飛んできました。実際には、彼らがこれらの発表をしていたこのイベントにいました。

I was actually sitting in the very front row, and this head right here is me.

実際には、非常に前の列に座っていました、そして、この頭は私です。

I know it's me because this is the microphone that I had attached to my camera, and I was sitting in the front row.

これは私だと分かっているのは、これが私のカメラに取り付けられていたマイクだからです、そして、私は前列に座っていました。

This right here is Pete Hang from the neuron newsletter, and this right here is Rowan Chun from The Rundown newsletter.

これはneuron newsletterのPete Hang、そしてこれはThe Rundown newsletterのRowan Chunです。

And down here was I Justine, also another tech YouTuber.

そして、下にはI Justineもいました、別のテクノロジーYouTuberです。

So the whole front row was pretty much various creators in the AI space.

だから、前列全体は、AI分野のさまざまなクリエイターたちでした。

So it was really cool that Microsoft was flying people like us out, the creators that are making things like YouTube videos and AI newsletters, to sit front row for some of these events.

Microsoftが私たちのようなクリエイターを、YouTube動画やAIニュースレターを作成している、このようなイベントの前列に座らせるために飛ばしてくれたのは本当にクールでした。

Now, because I flew out to this event and shot a whole bunch of footage, I'm actually going to make a video dedicated to this event.

このイベントに飛んで行って、たくさんの映像を撮影したので、実際にはこのイベントに関するビデオを作成する予定です。

It's going to be a fun sort of Vlog style where I sort of walk you through my experience of going to New York and meeting with all these other creators and getting to sit in the front row of this event.

それは、ニューヨークに行って、これらの他のクリエイターとの会合や、このイベントの前列に座る経験を通して、私があなたに私の経験を紹介するような楽しいブログスタイルになります。

And then, actually, getting to speak with a lot of these people that were on stage in one-on-one sessions to ask them questions and learn more about what they're doing.

そして、実際に、舞台に上がっていたこれらの人々と1対1のセッションで話をし、彼らがやっていることについての質問をし、もっと学びます。

So, that is way too much for this specific video, but I will give you the breakdown quickly of the news that was announced at this event.

それはこの特定の動画には多すぎるので、このイベントで発表されたニュースの概要を簡単にお伝えします。

They really kicked it off by announcing that Windows 11 is going to have AI baked into like everything.

彼らは本当に、Windows 11がAIをすべてに組み込むことを発表することから始めました。

You're going to be able to just use your photo app to remove backgrounds.

あなたは、あなたの写真アプリを使って背景を削除するだけでよいです。

You're going to be able to have conversations with a little chat window that's going to query all of your documents in Microsoft Word, Microsoft Excel, and PowerPoint, and all the Microsoft Suite of tools.

Microsoft Word、Microsoft Excel、PowerPointなどのMicrosoftのツールスイートのすべての文書をクエリする小さなチャットウィンドウと会話することができます。

You're going to be able to just query straight to them using AI.

AIを使用して、それらに直接クエリを投げることができます。

They're also about to make Outlook free for everybody.

また、Outlookをすべての人に無料で提供する予定です。

So, if you have a Windows account, you're going to get a free account to Outlook, and Outlook's going to have a whole bunch of AI features built into it, including the ability to write emails that sound like your past emails.

Windowsアカウントを持っている場合、Outlookの無料アカウントを取得することができます。そして、Outlookには、過去のメールのように聞こえるメールを書く能力を含む、たくさんのAI機能が組み込まれています。

So, it actually learns on your emails, your tone of voice, how you typically write, and will write emails in your style.

つまり、あなたのメール、あなたの声のトーン、通常どのように書くかを学び、あなたのスタイルでメールを書くことができます。

So, here's the quick breakdown: we're going to get Copilot in Windows, which is sort of that sidebar chat that you see in Edge right now.

それで、手短に概要をお伝えしますが、WindowsにCopilotを導入する予定で、それは現在Edgeで見ることができるサイドバーチャットのようなものです。

We're going to get new AI features in paint, we're going to get new AI features in photos.

Paintに新しいAIの機能を追加する予定で、また、写真にも新しいAIの機能を追加します。

You're going to be able to extract text from images and copy and paste text directly from images into other applications.

画像からテキストを抽出し、そのテキストを他のアプリケーションに直接コピー&ペーストすることができるようになります。

Clipchamp is getting an update, which will help you with scene suggest suggestions, edits, and narratives, and a bunch of other AI features to help you edit videos.

Clipchampはアップデートされる予定で、シーンの提案、編集、ナラティブなどの他に、ビデオ編集をサポートするための多くのAIの機能が追加されます。

There are some updates to notepad, Outlook, what we just talked about, a modernized file explorer, and a whole bunch more features coming to Windows 11 starting on September 26.

ノートパッドやOutlookのアップデート、さっき話したような近代化されたファイルエクスプローラーなど、9月26日からWindows 11に追加される機能がたくさんあります。

Bing and Edge are getting a whole bunch of new features as well.

BingやEdgeも多くの新機能が追加される予定です。

Diva here, who made most of the announcements about Bing and Edge updates, I actually did get a chance to have a one-on-one sit down with her to ask her more questions about what's coming, what's going to become of SEO, things like that.

BingとEdgeのアップデートに関するほとんどの発表を行ったDivaさんに、一対一で質問をする機会を得ました。今後の展開やSEOの行方などについて、彼女にさらに質問しました。

I had a really fascinating discussion.

とても興味深いディスカッションができました。

Again, I'll share a lot of that in an upcoming video.

その内容は、近日公開予定のビデオで多く共有します。

But inside of Bing and your Edge chat, you're going to get more personalized answers where it actually remembers a lot of the history of previous conversations and previous things that you're doing on your computer to use as additional context in your conversations.

BingとEdgeのチャット内では、より個別に対応した回答が得られます。実際には、以前の会話やコンピュータ上で行っている以前の作業の履歴を多く覚えて、会話の追加の文脈として使用します。

You're going to get a Copilot in Microsoft shopping.

MicrosoftショッピングにもCopilotが導入される予定です。

They announced that DALL·E3, which I already mentioned earlier in this video, is going to be accessible directly within Bing chat, and it's going to be usable for free inside of Bing chat too.

このビデオの初めで既に触れたDALL·E3が、Bingチャット内で直接利用でき、またBingチャット内では無料で利用できることが発表されました。

So, no additional cost.

追加の費用はかかりません。

You can just have it create images for you using DALL·E3 instead of Bing.

あなたはDALL·E3を使用してBingの代わりに画像を作成することができます。

And they're putting their 365 Copilot into pretty much everything.

彼らは、365 Copilotをほぼすべてに導入しています。

And this is sort of similar to what Google is doing with their duet, where you get this sort of large language model chatbot directly inside of tools like Microsoft Word, Microsoft Excel, Microsoft PowerPoint, tools like that can now be queried through large language models and all sort of interact with each other.

これは、Googleがデュエットで行っているのと似ています。Microsoft Word、Microsoft Excel、Microsoft PowerPointなどのツール内で直接大規模な言語モデルのチャットボットを使用することができます。

They also announced their new Surface devices at this event, which are much more powerful than previous models using NVIDIA 4050 and NVIDIA 4060 graphics cards.

また、このイベントで新しいSurfaceデバイスも発表されました。これは、以前のモデルよりもはるかにパワフルで、NVIDIA 4050とNVIDIA 4060のグラフィックカードを使用しています。

At one point at the event, they had it rendering a 3D file from blender on both a M2 Mac and also one of these new Surface pros, and the surface actually finished the render in half the time that the M2 Mac did.

イベントのある時点で、M2 Macとこれらの新しいSurface Proの両方でblenderからの3Dファイルをレンダリングしていましたが、SurfaceはM2 Macの半分の時間でレンダリングを完了しました。

They also put LLaMA 2 onto one of these surfaces and was able to run the large language model locally using these new NVIDIA graphics cards.

これらのSurfaceの一つにLLaMA 2を入れ、新しいNVIDIAのグラフィックカードを使用して大規模な言語モデルをローカルで実行できました。

They showed off some cool generative fill technology using Adobe suite of tools where they were able to use their stylist pen on the screen, sort of circle areas that they wanted to edit, and then use generative fill to change those areas.

彼らはAdobeのツールを使って、クールな生成フィル技術を披露しました。画面上でスタイリストペンを使って、編集したい部分をサークルで囲み、生成フィルを使ってその部分を変更することができました。

So, that ability to use like a pen tool to get generative fill edits on a touchscreen tablet like this looks like it'll be something really, really valuable.

このようなタッチスクリーンタブレットでペンツールを使ってジェネラティブフィルの編集をする能力は、非常に価値のあるものとなりそうです。

But again, look out for a longer, deeper breakdown of a lot of this Microsoft Event with some fun video vlogging elements around it that I shot while at this event.

しかし、私がこのイベントで撮影したビデオブログの要素を含む、このMicrosoftイベントのより詳しい解説を再度お待ちください。

That should be coming out pretty soon.

それは、もうすぐ公開される予定です。

And finally, to wrap up the Microsoft-related news, GitHub, which is a company owned by Microsoft, announced that their Copilot chat beta is now available for all individuals.

最後に、Microsoft関連のニュースをまとめると、Microsoftが所有するGitHubは、Copilotチャットのベータ版がすべての個人向けに利用可能であると発表しました。

So, the GitHub Copilot is essentially a large language model chatbot that will help you write and debug and fix coding problems.

GitHub Copilotは、コードの作成やデバッグ、問題の修正をサポートする大規模な言語モデルのチャットボットです。

So, you can be chatting with your code and say, Why is this code not working?

なぜこのコードが動かないのか、という質問をコードと共にチャットすることができます。

It can help you analyze the code.

それはコードを分析するのを助けてくれます。

You can tell it to write you a script about something specific, and it can try to write that script.

何か特定のことについてスクリプトを書いてくれるように頼むことができ、それはそのスクリプトを書く試みをすることができます。

And you can basically have conversations back and forth with the GitHub Copilot to get your code dialed in.

GitHub Copilotとの間でコードを調整するための対話を持つことができます。

We can see in this animation here, they ask, How do I create a Chrome extension?

このアニメーションで見ることができますが、彼らは「Chromeの拡張機能はどのように作成しますか?」と尋ねています。

What should the file structure look like?

ファイルの構造はどのようにすべきですか?

And then it goes and creates a file structure for a Chrome extension.

そして、それはChromeの拡張機能のためのファイル構造を作成します。

Forum, all they had to do was ask with natural language.

フォーラムでは、自然言語で質問するだけで良かったのです。

Now, if you do want to play around with GitHub Copilot, it is 10 bucks a month or 100 bucks a year.

もしGitHub Copilotを試したいのであれば、月10ドルまたは年100ドルです。

But they do have a free trial that looks like it gets you about 30 days of use before you actually got to start paying that 10 bucks a month.

ただし、無料トライアルがあり、実際に10ドル/月を支払う前に約30日間使用することができます。

Now, of course, we can't have a week of Microsoft and OpenAI being in the spotlight without Google gole jumping in and showing off some really cool stuff as well.

もちろん、MicrosoftとOpenAIがスポットライトになる週を過ごすことなく、Googleが飛び込んできて本当にクールなものをいくつか見せてくれます。

So this week, Google actually added a bunch of new features to Bard like the extensions feature, which basically allows you to connect to your Bard and have chat conversations with things like YouTube, Google Maps, Google hotels, Google blights, Google Drive, Gmail, and Google Docs.

この週、GoogleはBardに新しい機能をたくさん追加しました。それは、YouTube、Googleマップ、Googleホテル、Googleの便、Googleドライブ、Gmail、Googleドキュメントなどとチャットで会話できる拡張機能です。

They also added the double-check feature where after Bard gives you a response, you can have it double-check Google to find sources for the information that Bard used.

また、Bardが応答を与えた後、Bardが使用した情報の情報源を見つけるためにGoogleをダブルチェックできる機能も追加しました。

Now, this is one that I already made a video about, so I kind of did a little bit deeper of a dive on Google Bard.

これは私がすでにビデオを作成したものの1つなので、Google Bardについてもう少し詳しく調査しました。

The video looks like this, but you can see real quickly there's a little extensions button up here in the top right.

ビデオはこのように見えますが、右上に小さな拡張ボタンがあるのがすぐにわかります。

If I click on this, I am connected to Google Flights, hotels, Maps, workspace, and YouTube because it's connected to my Google workspace.

これをクリックすると、Google Flights、ホテル、マップ、ワークスペース、YouTubeに接続されます。なぜなら、私のGoogleワークスペースに接続されているからです。

It has access to Gmail, Drive, docs, etc.

Gmail、Drive、ドキュメントなどにアクセスできます。

So I can enter a prompt like What are the recent updates from my kid's school?

したがって、「私の子供の学校からの最新の更新は何ですか?」のようなプロンプトを入力できます。

and my email.

そして、私のメール。

It will actually search my email for any announcements related to what's going on at my kid's school and then round it all up for me.

実際に、私の子供の学校で何が起こっているかに関連するアナウンスメントを検索するために私のメールを検索します。

And then, of course, I can click into any one of these, and it will go directly to that email.

そしてもちろん、これらのいずれかをクリックすると、そのメールに直接アクセスします。

The multimodal capabilities of Bard have gotten a lot better over the last several weeks as well.

Bardのマルチモーダル機能は、ここ数週間でかなり改善されました。

I was able to upload this picture of a cheeseburger and actually get ingredients and a recipe to make a similar-looking cheeseburger.

私はこのチーズバーガーの写真をアップロードして、同じように見えるチーズバーガーを作るための材料とレシピを実際に入手することができました。

Again, I have a whole breakdown of some of Bard's recent updates, which I highly recommend checking out.

もう一度、Bardの最新の更新に関していくつかの概要がありますが、私は強くお勧めします。

But that's not all we got from Google this week.

しかし、今週Googleから得たものはそれだけではありません。

On the same day that I was at the Microsoft Event, YouTube put on an event to announce a whole whole bunch of new AI features that they're rolling out.

Microsoftのイベントに参加していた同じ日に、YouTubeは彼らが展開している新しいAI機能のたくさんの発表のためにイベントを開催しました。

They announced things like dream screen, which are AI-generated images or video backgrounds for shorts.

彼らは、ショート用のAI生成画像またはビデオ背景の夢の画面のようなものを発表しました。

We can actually see an example here, Panda drinking coffee.

実際には、ここでパンダがコーヒーを飲む例を見ることができます。

And then, it gives us kind of a Gen 2 Pika lab Style video of a panda drinking coffee.

そして、それはパンダがコーヒーを飲むGen 2 Pikaラボスタイルの背景を作成します。

They announced YouTube create, which is a new editing and production app for mobile creators.

私はYouTubeショートでこのようなものを使用することを非常に楽しみにしています。

This is kind of like YouTube's answer to cap cut.

これは、YouTubeがcap cutに対抗するようなものですね。

They also announced AI insights tools to spark inspiration and help creators decide what to make their next video about, which to me seems like they're kind of going head-to-head with tools like vid IQ.

彼らはまた、クリエイターが次のビデオを何にするかを決めるのを助けるためのAIのインサイトツールを発表しましたが、私にとってはvid IQのようなツールと真っ向から競合しているように思えます。

You can see here from this screenshot, they've got a button that says generate outline suggestions, and it actually helps outline a video.

このスクリーンショットから見ることができますが、彼らは「アウトラインの提案を生成」というボタンを持っていて、実際にビデオのアウトラインを助けています。

So, it says next year YouTube studio will tap generative AI to spark video ideas and draft outlines to help creators brainstorm.

だから、YouTubeスタジオがクリエイターのアイディアを助けるために発生的AIを使用することが来年になると言っています。

Insights will be personalized for each Channel and based on what audiences are already watching on YouTube.

インサイトは、各チャンネルに合わせてパーソナライズされ、YouTubeで既に視聴されている内容に基づいています。

We've been testing a version of AI-powered Tools in YouTube studio with creators, and More than 70% of those surveyed said that it's helped them develop and test ideas for videos.

私たちは、YouTubeスタジオのAI駆動ツールのバージョンをクリエイターとテストしており、調査に回答した70%以上が、それが彼らにビデオのアイディアを発展させ、テストするのを助けたと言っています。

There's going to be an assistive search for finding music for your videos, and they're also adding automatic dubbing with a company called allow, which is going to be a feature where I can speak out an entire YouTube video in English.

あなたのビデオのための音楽を探すための補助的な検索がある予定であり、また、allowという会社との自動吹き替えを追加しています。これは、私がYouTubeのビデオを英語で一通り話すことができる機能になります。

It will go and recreate and dub over that entire video in whatever language I want it to dub it over in without having to hire like a voiceover expert or something like that.

それは、声の専門家やそういったものを雇うことなく、私がそれを吹き替えたい言語でそのビデオ全体を再生し、吹き替えるでしょう。

YouTube's just going to have that dubbing built in, opening up us YouTube creators to be be feed in front of potentially so much wider audiences.

YouTubeはその吹き替えを組み込む予定で、私たちYouTubeのクリエイターがはるかに広い視聴者の前に飼われる可能性があります。

So, something that I'm super excited about as a YouTube Creator who's also in the AI space.

だから、私はAIの領域にもいるYouTubeのクリエイターとしてとても興奮しています。

YouTube's announcements this week were huge for me.

YouTubeの今週の発表は、私にとっては大きかったです。

And of course, Amazon, one of the companies that originally introduced a lot of us to AI with their Alexa products, well, they're improving Alexa with better AI.

そしてもちろん、Amazonは、彼らのAlexa製品で私たちの多くにAIを紹介した会社の一つで、彼らはより良いAIでAlexaを向上させています。

So, Microsoft had a press event this week, YouTube had a press event this week, Amazon had a press event this week, and Intel also had a press event this week, which we'll talk about next.

だから、Microsoftは今週プレスイベントを持っていました、YouTubeは今週プレスイベントを持っていました、Amazonは今週プレスイベントを持っていました、そしてIntelも今週プレスイベントを持っていました、次にそれについて話すでしょう。

But at Amazon's press event, Amazon announced that their new Alexa experience will be a more conversational experience.

しかし、Amazonのプレスイベントで、Amazonは新しいAlexa体験がもっと会話的な体験になることを発表しました。

Somehow experiences that take into account body language as well as a person's eye contact and gestures.

何らかの方法で、体の言語だけでなく、人のアイコンタクトやジェスチャーを考慮に入れた経験。

It's also going to give Alexa a bigger and more opinionated personality.

また、Alexaにもっと大きく、もっと意見が強い性格を与える予定です。

So yeah, I'm sure there's going to be a lot of people that maybe don't want Alexa to have a personality, but we'll see.

だから、多分Alexaに性格を持たせたくない多くの人々がいるでしょうが、私たちは見るでしょう。

They actually demoed the Alexa device and asked it, What's your favorite sports team?

彼らは実際にAlexaデバイスをデモし、あなたのお気に入りのスポーツチームは何ですかと尋ねました。

And Alexa responded with follow-up questions about the Seahawks stats and game times.

そして、AlexaはSeahawksの統計や試合の時間についてのフォローアップの質問で応答しました。

The new generative AI model will also be able to adjust its tone and response to express things like affirmation, excitement, laughter, and surprise.

新しい発生的AIモデルはまた、肯定、興奮、笑い、驚きのようなものを表現するためのトーンと応答を調整することができるでしょう。

Amazon also announced that they're bringing generative AI to their Fire TV.

Amazonはまた、彼らがFire TVに発生的AIを持ってくると発表しました。

They said that Fire TV users will now be able to ask Alexa more nuanced and open-ended questions about TV shows and movies, thanks to the new generative AI experience, which allows them to speak in a more natural and conversational way.

彼らは、Fire TVのユーザーが新しい発生的AIの経験のおかげで、テレビ番組や映画に関してもっと繊細で開かれた質問をAlexaに尋ねることができるようになると言っています。これにより、彼らはもっと自然で会話的な方法で話すことができます。

Users will also be able to ask Alexa to find content based on specific actors, directors, scenes, genres, or entitlements, such as action movies with car chases, comedies for a rainy day inside, or animated movies that are free.

ユーザーは、特定の俳優、監督、シーン、ジャンル、または権利に基づいてコンテンツを探すようAlexaに依頼することもできます。例えば、カーチェイスのあるアクション映画、雨の日の家でのコメディ、無料のアニメーション映画などです。

To me, and like I mentioned, Intel also had an event this week.

私の意見ですが、前にも述べたように、この週にはIntelもイベントを開催しました。

At this conference, Intel demonstrated laptops that could generate a song in the style of Taylor Swift and answer questions in a conversational style, all while being disconnected from the internet.

このカンファレンスで、Intelはインターネットから切断された状態で、Taylor Swift風の曲を生成したり、会話風に質問に答えたりすることができるノートPCを披露しました。

They're also working on a new chip called The Arrow Lake, which will come out next year.

彼らはまた、来年発売予定の新しいチップ「The Arrow Lake」も開発中です。

And although it's a CPU chip and not a GPU chip like what NVIDIA makes, they're basically building it to gain traction against NVIDIA.

それはCPUチップであり、NVIDIAが作っているGPUチップではありませんが、彼らは基本的にNVIDIAに対抗してそれを構築しています。

Intel also announced that it's building a new supercomputer that would be used by stability AI.

Intelは、stability AIが使用する新しいスーパーコンピュータを構築しているとも発表しました。

They're also working on a software called open Veno, which will run its own large language model similar to ChatGPT.

彼らはまた、ChatGPTと同様の大規模な言語モデルを実行するソフトウェア「open Veno」も開発中です。

And essentially talked about a whole bunch of different chips that they're working on, which are going to be getting better and better at running various AI tasks.

基本的に彼らが取り組んでいるさまざまなチップについて話しましたが、これらのチップはAIタスクの実行においてどんどん優れていくことが期待されます。

This week, Tik Tok announced that creators can now label their AI-generated content.

今週、TikTokは、クリエーターがAIで生成されたコンテンツにラベルを付けることができるようになったと発表しました。

And they say it's not exactly optional.

そして、それは完全に任意ではないと彼らは言っています。

Any AI-generated content that contains realistic images, audio, or video must be labeled as such to help viewers contextualize the situation and prevent the potential spread of misleading content.

リアルな画像、オーディオ、またはビデオを含むAIで生成されたコンテンツは、視聴者が状況を文脈化し、誤解を招くコンテンツの拡散を防ぐために、そのようにラベル付けする必要があります。

So it sounds like you basically tell it whether it's AI or not, but it's not optional.

だから、それがAIかどうかを基本的に指示するように聞こえますが、それは任意ではありません。

You really need to do that.

それを行う必要が実際にあります。

But Tik Tok's also working on their own software that automatically detects artificial intelligence.

しかし、TikTokもまた、人工知能を自動的に検出する独自のソフトウェアを開発中です。

It was also announced this week that Speechly is joining Roblox.

今週、SpeechlyがRobloxに参加することも発表されました。

Last week, we talked about Roblox generative game development tools that they're working on.

先週、私たちはRobloxが取り組んでいる生成的なゲーム開発ツールについて話し合いました。

While Speechly is a voice generation tool, which will help creators add realistic human-sounding or robotic or alien-sounding voices directly into their game using generative AI.

Speechlyは音声生成ツールで、生成的AIを使用してゲームに直接リアルな人間のような、またはロボットやエイリアンのような音声を追加するのに役立ちます。

Also, this week, and rather interesting announcement, after relaunching as a studio for creators, LimeWire, yes, that tool that everybody used to use to steal music off the internet, LimeWire, they're now an AI company.

また、今週、注目すべき発表がありました。LimeWireという、以前はインターネットから音楽を盗むためにみんなが使用していたツールが、クリエーター向けのスタジオとしてリローンチした後、現在はAI企業になっています。

And they just acquired Blue Willow, which works very similar to Midjourney, but is using stable diffusion under the hood.

そして、彼らは最近、Midjourneyと非常に似た方法で動作するBlue Willowを買収しました。この中心には安定した拡散が使用されています。

I've done a couple videos about Blue Willow in the past, so check those out if you're not familiar with Blue Willow.

過去にBlue Willowについてのいくつかのビデオを作成しましたので、Blue Willowに詳しくない場合はそれらを確認してください。

I just found it fascinating that LimeWire is even still a company, that now they're in AI, and they're actually a company that has the means to acquire another company like Blue Willow.

LimeWireがまだ会社であり、AIの分野に進出し、Blue Willowのような会社を買収する手段を持っているということが私には驚きでした。

That, to me, was fascinating.

それは私にとって非常に興味深いことでした。

Also, this week, Leia Inc. announced a new update to their Leia converter.

また、今週、Leia Inc.がLeiaコンバーターの新しいアップデートを発表しました。

If you've watched my past videos about how to generate movies and 3D type stuff with AI, you've definitely seen me talk about Leia converter in the past.

AIを使って映画や3Dのものを生成する方法についての私の過去のビデオを見たことがあれば、過去にLeiaコンバーターについて話すのを確実に見ていただけるでしょう。

The new Leia pix converter has an updated user interface, and it's a tool where you can upload a still image and add depth and make it look more 3D and animated.

新しいLeia pixコンバーターは、更新されたユーザーインターフェースを持ち、静止画像をアップロードして深みを追加し、それをもっと3Dでアニメーションのように見せるツールです。

So, for example, if I take this image that's supposed to depict Geralt from The Witcher and toss it right into here, you'll see that it'll turn it into like a 3D animation here where you could see some like depth behind it.

例えば、The WitcherのGeraltを描写するためのこの画像を取り上げてここに投げ入れれば、背後にあるような深みを持つ3Dアニメーションに変わるのを見ることができます。

But we have a bunch of different styles here.

しかし、ここには様々なスタイルがあります。

We could do horizontal where it sort of rocks back and forth, wide circles, regular circles, tall circles, vertical, and a perspective shift.

横に揺れるようなものや、大きな円、普通の円、長い円、縦、そして視点の変化など、様々なものができます。

You can change the length of the animation to real short, which makes it look really fast, or real long, which makes it look much more subtle and slow.

アニメーションの長さを非常に短くすることで、それを非常に速く見せることも、非常に長くすることで、それをもっと繊細でゆっくりとしたものに見せることもできます。

We can change the amount of Animation, less, more.

アニメーションの量を変更することができます、少なく、またはもっと。

You do get a little bit of distortion around some of these edges, but still a pretty cool effect.

これらのエッジの周りに少し歪みが生じることがありますが、それでもかなりクールな効果です。

We could change the focus point to close or far, and it sort of changes where the pivot happens.

焦点を近くにしたり、遠くにしたりして、中心点がどこで変わるかを変更することができます。

We can add more or less Edge Distortion, which has a pretty big impact on how the effect looks.

もっと多くまたは少なくエッジの歪みを追加することができ、その効果の見た目にかなり大きな影響を与えます。

But depending on the style you're going for, something like that might look very cool for what you're shooting for.

しかし、あなたが求めているスタイルに応じて、そのようなものはあなたが撮影しているものに非常にクールに見えるかもしれません。

And then you have an advanced editor down here where you can make all sorts of tweaks on various accesses and amplitudes and phases and all sorts of cool stuff that you can play with to get your 3D animated image to look how you want it.

そして、ここにはアドバンスエディターがあり、あなたが望むように3Dアニメーション画像を見せるために様々な軸や振幅や位相などの様々なものを調整することができます。

Some cool new feature updates from lupix.

lupixからのいくつかの新しい機能アップデート。

They also did start to add a more Premium plan, but it looks like they're giving people credits to start with to play around with it before actually forcing people to pay and use it.

彼らももっとプレミアムなプランを追加し始めましたが、実際に支払いをしてそれを使用する前に、それを試すためのクレジットを人々に提供しているように見えます。

And I like to wrap up lately with what's going on in the world of AI and healthcare because, like I've mentioned in the past, this is where I think we're going to see some of the most world-changing advancements come out of AI.

そして、最近ではAIと医療の世界で何が起こっているかを取り上げることが多くなっています。過去にも述べたように、ここで最も世界を変える進歩がAIから生まれると思っています。

This week, it was announced that Mark Zuckerberg and his wife Priscilla Chan are building an expensive new AI GPU cluster just for medical research.

今週、Mark Zuckerbergと彼の妻Priscilla Chanが医学研究専用の高価な新しいAI GPUクラスタを構築していることが発表されました。

So, the new Computing system is supposed to give researchers access to generative AI so they can model healthy and disease cells over time that could help them develop new ways to treat the disease.

それで、新しい計算システムは、研究者が時間をかけて健康な細胞と病気の細胞をモデル化するための生成的AIへのアクセスを提供することを意図しています。これにより、病気を治療する新しい方法を開発するのに役立ちます。

It's going to be made up of more than 1,000 GPUs, and they're going to be the top-of-the-line NVIDIA H100 GPUs.

これは1,000台以上のGPUで構成される予定で、NVIDIA H100 GPUのトップラインとなるものです。

Once this is completed, the new Computing system is expected to be one of the biggest AI clusters used for nonprofit research.

これが完成すれば、新しい計算システムは非営利の研究のために使用される最大のAIクラスタの1つとなると予想されます。

And jumping over to Google's DeepMind, DeepMind is using AI to pinpoint the causes of genetic diseases.

そして、GoogleのDeepMindに移ると、DeepMindはAIを使用して遺伝的疾患の原因を特定しています。

Now, the new AI system that DeepMind is working on is called Alpha missense, and it looks at a whole bunch of DNA variations and then tries to figure out which variations of DNA are most likely to cause diseases in humans.

今、DeepMindが取り組んでいる新しいAIシステムはAlpha missenseと呼ばれ、多くのDNAの変異を調査して、どのDNAの変異が人間に疾患を引き起こす可能性が最も高いかを判断しようとしています。

Now, it's not foolproof yet, but it's going to help speed up diagnosis on rare genetic diseases.

まだ完全ではありませんが、希少な遺伝性疾患の診断を速めるのに役立ちます。

Now, this was adapted from DeepMind's previous AI model called AlphaFold, which was a protein folding AI.

これは、タンパク質の折り畳みAIであったDeepMindの前のAIモデル、AlphaFoldから適応されました。

But the tool is capable of making predictions based on 71 million DNA variations, which makes it easier and faster to get proper diagnoses.

しかし、このツールは7100万のDNA変異に基づいて予測を行う能力があり、適切な診断を迅速かつ容易に取得するのを容易にします。

And again, this is still a very, very early state of this kind of technology.

そして、これはまだこの種の技術の非常に初期の状態です。

It's only going to get better from here.

これからさらに良くなるだけです。

So, pretty exciting, pretty huge week in the world of AI.

だから、AIの世界でかなりエキサイティングで、非常に大きな週です。

I was so excited to be in the thick of it this week out in New York at the Microsoft Event, talking with other AI creators that are just as excited and just as passionate about all this AI stuff as I am.

私は今週、ニューヨークのMicrosoftイベントで、私と同じくらい興奮して、このAIの話題に同じくらい情熱を持つ他のAIクリエイターたちと話をするのにとても興奮していました。

I'm excited to make some new videos for you around some of the content I created from some of these trips that I've been going on.

私がしてきたこれらの旅行から作成したコンテンツの一部を使って新しい動画を作成するのを楽しみにしています。

Keep an eye out for that stuff.

そのスタッフをチェックしてください。

The pace of AI really feels like it's getting exciting again.

AIのペースは、再びエキサイティングになっているように感じます。

The hype seems like it's starting to come back around again.

興奮が再び高まり始めているようです。

People are getting more and more into what these tools are going to be able to do, how they're going to make their lives easier, how they're going to solve health problems, how they're going to solve education problems, how they're going to take steps out of your daily workflow.

人々は、これらのツールが何をすることができるか、どのように彼らの生活を楽にするか、どのように健康問題を解決するか、どのように教育問題を解決するか、どのようにあなたの日常のワークフローからステップを取り除くかにますます興味を持っています。

There's just so much happening right now that I'm super excited about, and I'm hoping the hype among the general public starts to ramp up again because some of the stuff we're seeing is really going to improve a lot of people's lives.

今、私が非常に興奮していることがたくさん起こっていますし、一般の人々の間でのハイプが再び加速することを望んでいます。なぜなら、私たちが見ているものの一部は、多くの人々の生活を大いに改善するだろうからです。

So, I think more people should be paying attention.

だから、もっと多くの人々が注意を払うべきだと思います。

I'm here for it.

私はそれのためにここにいます。

I'm going to keep on breaking down the news, making tutorials, making fun videos, doing challenges, and just having fun with AI and Tech and sharing it with you.

私はニュースを伝え続け、チュートリアルを作成し、楽しいビデオを作成し、チャレンジを行い、AIやテクノロジーを楽しみながらそれを共有し続けるつもりです。

If you want to see more videos like this and stay in the loop with all the latest news, make sure you like this video, subscribe to this channel.

このような動画をもっと見たい、そして最新のニュースでループに入っていたい場合は、この動画を「いいね!」して、このチャンネルを購読してください。

That'll make sure more of these types of videos show up in your feed.

それにより、このタイプの動画がフィードにもっと表示されるようになります。

And if you haven't already, check out Future Tools, where I curate all of the latest AI news on a daily basis, curate all of the coolest AI tools that I come across on a daily basis, and give you a single location where you can hunt down all of these various videos that I'm making.

まだチェックしていない場合は、私が毎日キュレーションする最新のAIニュースや、私が毎日出会う最もクールなAIツールをキュレーションし、私が作成しているこれらのさまざまなビデオをすべて追いかけることができる1つの場所を提供するFuture Toolsをチェックしてください。

You can find it all over at Future Tools.

Future Toolsで全て見ることができます。

Don't forget to join the free newsletter as well.

無料のニュースレターにも参加してください。

And thanks again for watching, and thanks once again to BetterHelp for sponsoring this video.

そして、視聴していただきありがとうございます。そして、このビデオのスポンサーであるBetterHelpにも再度感謝します。

I really, really appreciate the support because you're allowing me to make more videos like this and help raise awareness and teach people about all the cool stuff that AI is capable of.

私は非常に感謝しています。なぜなら、あなたが私にこのようなビデオをもっと作成することを可能にしてくれるからです。そして、AIができるすべてのクールなものについての人々の意識を高めるのを助けるために。

So, thanks again, and thank you for watching these videos.

だから、改めてありがとう、そしてこれらのビデオを見てくれてありがとうと言いたい。

I really, really appreciate you.

本当に、本当にあなたに感謝しています。

See you in the next one. Bye-bye.

次回を楽しみにしています。さようなら。


この記事が気に入ったらサポートをしてみませんか?