見出し画像

【マット・ウルフのAIニュース/英語解説を日本語で読む【2023年9月30日|@Matt Wolfe】

AI技術は過去9〜12ヶ月の間に飛躍的に進化し、日常のツールとして統合されつつある。具体的には、Chat GPTは画像認識や音声機能を搭載。Metaは新しいAI製品や機能を発表、特にMessenger系アプリにAIチャットボットが導入された。Windows 11とMac OS SonomaもAI機能を強化し、新しいアップデートをリリース。また、AmazonはAI企業anthropicとの提携を公表し、4億ドルの投資を行うことになった。
公開日:2023年9月30日
※動画を再生してから読むのがオススメです。


When it comes to AI, we've officially entered a new era.

AIに関しては、我々は正式に新しい時代に突入した。

We're now in the era where all of these cool AI advancements and all of this cool AI technology that we've been seeing released over the last nine to 12 months is now just being integrated into all of the tools that most people use on a daily basis.

私たちは今、クールなAIの進歩やクールなAI技術が過去9〜12ヶ月にわたってリリースされてきたものが、ほとんどの人々が日常的に使用するツールに統合されている時代に入っています。

We're moving into this era where you're likely no longer going to be using a whole bunch of different AI tools.

私たちは今、異なるAIツールを使うことはほとんどなくなるという時代に移行しています。

Instead, the big companies that you're already used to working with are just going to have all of the AI tools available to you.

その代わりに、あなたがすでに仕事に慣れ親しんでいる大企業が、すべてのAIツールを利用できるようになるのです。

And this week is the week that that became the most apparent, and we're seeing most of that start to happen.

そして今週は、それが最も明白になった週であり、私たちはそのほとんどが起こり始めているのを目の当たりにしている。

And I know I'm starting to sound like a broken record here, but the last four weeks in a row, every single week has been bigger than the last, and this week is no exception.

そして、私はここで壊れたレコードのように聞こえ始めていることは分かっているが、ここ4週間連続で、すべての週が前週よりも大きくなっており、今週も例外ではない。

This week was a monumental week in the world of AI.

今週はAIの世界では記念すべき週だった。

Just so much stuff happened, and I'm going to do my best to break it down as quickly and as helpful of a way as possible to bring you up to speed.

たくさんのことが起こったので、できるだけ早く、できるだけ役立つ方法でそれを分かりやすく説明するために最善を尽くします。

Starting with the fact that ChatGPT can now see, hear, and speak.

まず、ChatGPTが見たり、聞いたり、話したりできるようになりました。

For example, you'll now be able to take pictures of, for example, a bike and then say, Help me lower my bike seat, and it can actually use the picture for context, understand what it needs to do, and then give you instructions based on your query and what it sees in the image to help you lower your bike seat.

例えば、自転車の写真を撮って、「自転車のシートを下げるのを手伝ってください」と言えば、その写真をコンテキストとして使用し、何をする必要があるかを理解し、あなたの問い合わせと画像に写っているものに基づいて、自転車のシートを下げるのを手伝う指示を出すことができます。

They take another picture, they circle the thing that they think they need to fix, they ask ChatGPT again, and then ChatGPT basically clarifies whether or not that's the proper lever or not.

彼らは別の写真を撮り、修正する必要があると思われるものに丸をつけ、ChatGPTに再度質問し、ChatGPTは基本的にそれが適切なレバーかどうかを明確にする。

So ChatGPT, similar to Siri, will now actually be able to listen to you when you give it your queries.

つまり、ChatGPTはSiriと同じように、あなたがChatGPTに質問を投げかけると、実際にあなたの話を聞くことができるようになるのです。

We want to hear a bedtime story.

寝る前のお話を聞かせてください。

Tell us a story about the super duper sunflower Hedgehog named Larry.

ラリーという名の超ド級のひまわりハリネズミのお話をしてください。

Start with telling us a little bit about him.

まずは彼のことを少し教えてください。

Larry was a unique Hedgehog, unlike any other.

ラリーは他のどのハリネズミとも違う、ユニークなハリネズミだった。

He had bright sunflower petals instead of spines.

彼はトゲの代わりに鮮やかなヒマワリの花びらを持っていた。

Well, then obviously respond to you, similar to the way Siri will.

そして、Siriと同じようにあなたに反応します。

And they've got several voices that you can choose between.

音声はいくつか用意されており、その中から選ぶことができる。

They've got Juniper, once in a tranquil Woodland.

ジュニパーは、かつて静かな森の中にいた。

There was another Sky, the mama cat named Lila Cove.

もう一匹のスカイ、ライラ・コーブという名前のママ猫がいた。

Me day, she cuddled with her playful kitten Milo under the chamber.

私の日、彼女は遊び好きな子猫のマイロと部屋の下で寄り添っていた。

Hello, under the shade of an old oak tree.

こんにちは、古いオークの木陰で。

And Breeze Ella began her voice soft and gentle.

とブリーズ・エラは柔らかく優しい声で話し始めた。

So whatever boys you prefer, you can have ChatGPT respond to you in that voice.

だから、どんな男の子が好きでも、ChatGPTにその声で応答させることができます。

Now these speaking features are going to be available in the mobile app.

さて、これらの会話機能はモバイルアプリでも利用可能になる予定です。

Let me just double check here.

ここで再確認させてください。

Nope, I still don't have it in my app.

私のアプリにはまだありません。

And when I check my own ChatGPT here, I also don't have the ability to upload images yet.

そして、自分のChatGPTを確認すると、画像をアップロードする機能もまだない。

However, they made it sound like they're going to be rolling it out in the very beginning of October, which at the time this video is going live is in the next couple days.

ただし、彼らは10月の初めにそれを展開し始める予定だと言っていました。このビデオが公開される時点では、次の数日以内です。

So hopefully we get all of these features rolled out in the next couple days.

つまり、この動画が公開された時点では、数日後ということになる。

Now there are a handful of people that have had access to it already, and some pretty fun examples of how this can be used have already started circulating.

現在、すでにアクセスできるようになった人たちは一握りで、これがどのように使われるのか、かなり楽しい例がすでに出回り始めている。

For example, this video posted by McKay Wrigley here, they posted an image of a human cell here directly into ChatGPT, eating this diagram of a human cell into dbt4 vision, and I'm simulating, Hey, I'm a 9th grade biology student struggling in school.

例えば、マッケイ・リグリーが投稿したこのビデオでは、ChatGPTに直接ヒト細胞の画像を投稿し、dbt4 visionにヒト細胞のこの図を食べさせて、シミュレーションしています。

Help me understand this.

これを理解するのを手伝ってくれ。

And check this out, it went on to break down every aspect of that cell image.

すると、その細胞像をあらゆる角度から分解してくれた。

He then basically asked it to dumb it down for him, and it explained it in simpler terms.

そして、彼は基本的に自分のためにそれを理解するように頼み、より簡単な言葉で説明してくれた。

Peter Yang here shared this screenshot saying, Kids will never do homework again, where you can see he just uploaded a math assignment with all of these math problems.

ここでPeter Yangさんがこのスクリーンショットを共有しています。子供たちはもう宿題をしないでしょう。彼が数学の課題をアップロードしたのが見えます。

And then, it just says, Certainly.

そして、それは「確かに」と表示されます。

Let's solve these addition problems and then, one by one, it just puts the answers to all of these questions for him, right into the chat.

さあ、これらの足し算の問題を解いて、それぞれの答えをチャットに入力していきましょう。

And then, here's an example from Patrick Gota where they used two ChatGPTs next to each other to have a total bro fest conversation.

そして、これはパトリック豪太の例ですが、2つのChatGPTを隣り合わせに使って、完全な兄弟祭りの会話をしたそうです。

How's it going, bro?

調子はどうだい?

Um, I've been hearing some buzz about your voice capabilities.

ええと、君の声の能力について噂を聞いているんだ。

Fill me in.

教えてくれ

What's good, bro?

何がいいんだ?

So here's the deal.

こういうことだ。

I've been upgraded to have this voice capability where users can chat with me using their voice.

私はこの音声機能をアップグレードされ、ユーザーが声を使って私とチャットできるようになりました。

And guess what, bro?

どうなると思う?

I can respond back with a supernatural sounding voice.

私は超自然的な声で返信することができます。

It's like we're having a legit convo, just you and me vibing.

まるで私たちが本当に会話しているかのようですね。

It's next level stuff, bro.

これは次のレベルのものです、友よ。

Now, I cut out some of the delay just to keep the video moving a little bit, but there is a little bit of a delay between when a question is asked and when the question was answered.

今、ビデオを少し動かすためにディレイを少しカットしていますが、質問されたときと質問に答えたときの間に少しディレイがあります。

I do record these on Thursday.

木曜日に録画しています。

If you're watching this on Friday, okay, there's a chance you got it already.

金曜日にご覧になっている方は、もうご覧になったかもしれませんね。

I don't know.

わからないけど。

But one thing that ChatGPT did give us, well, gave us back at least, was that we can now browse the internet once again.

でも、ChatGPTが私たちに与えてくれた、いや、少なくとも私たちに返してくれたことの一つは、私たちが再びインターネットを閲覧できるようになったことです。

So if you're in your ChatGPT account and you hover over GPT-4, you should have this browse with Bing option now.

ChatGPTアカウントでGPT-4にカーソルを合わせると、Bingでブラウズするオプションがあるはずです。

And if you don't, come down to your username down here, click on the three dots, click on settings and beta, click on beta features, and make sure browse with Bing is turned on.

そうでない場合は、ユーザー名まで降りてきて、3つの点をクリックし、設定とベータをクリックし、ベータ機能をクリックし、Bingでブラウズがオンになっていることを確認してください。

And you too will have the browse with Bing feature, assuming you're a ChatGPT plus user.

ChatGPTプラス・ユーザーであれば、Bingでブラウズできるようになります。

With that turned on, you can ask more current questions, and it will once again, like it did months ago, actually browse the web for you.

この機能をオンにすると、より最新の質問をすることができ、数ヶ月前のように、再び実際にウェブをブラウズしてくれるようになる。

Again, this week, Meta also held their annual connect event where they made a whole bunch of announcements.

今週もまた、Metaは毎年恒例のコネクトイベントを開催し、多くの発表を行った。

They started with announcements about the new Meta Quest 3, which looked pretty awesome, but not super AI-based, so I'm not going to go too deep into that.

彼らは新しいMeta Quest 3に関する発表から始めましたが、それはかなり素晴らしく見えましたが、あまりAIに基づいていないので、あまり詳しくは触れません。

But they did make a whole bunch of AI announcements.

しかし、AIに関する発表がたくさんあった。

I don't want to spend too much time on the AI announcements because I can literally make an entire video just about Meta's AI announcements from this event.

というのも、このイベントで発表されたメタのAIについてだけで、文字通り1本のビデオを作ることができるからだ。

In fact, I actually did make an entire video just about Meta's AI announcements from this event.

実際、私はこのイベントでのMetaのAI発表に関するビデオ全体を作成した。

You can find it here.

それはここで見ることができる。

It's currently called Meta Just Blew Everyone's Minds, and you can look for this picture of me wearing AI sunglasses.

現在のタイトルは「Meta Just Blew Everyone's Minds」で、私がAIのサングラスをかけているこの写真を探してみてほしい。

That is an entire breakdown of Meta's event.

これがメタのイベントの全貌です。

So, I'm gonna move through the Meta news in this video really quickly because I got a whole other video that you can go check out that breaks down all of that news as well.

だから、このビデオではMetaのニュースを本当に早く進めます。なぜなら、そのニュースをすべて詳しく解説する別のビデオがありますので、ぜひチェックしてみてください。

But for the super quick rundown, they announced their Emu image generation model, and the first use case of this Emu image generation model is to create these custom stickers that you'll be able to create directly inside of your Facebook Messenger, Instagram Messenger, and inside of WhatsApp.

しかし、超短期間で言うと、彼らはEmuイメージ生成モデルを発表しました。このEmuイメージ生成モデルの最初の使用例は、Facebook Messenger、Instagram Messenger、WhatsAppの中で直接作成できるカスタムステッカーを作成することです。

They're also releasing an image editing AI that's going to be part of Instagram, and it uses their segment anything model.

また、Instagramの一部となる画像編集AIもリリースされ、これはセグメント・エニシング・モデルを使用している。

You can do things like turn pictures into watercolor pictures, remove backgrounds from images, and then make yourself surrounded by puppies like that.

写真を水彩画のようにしたり、画像から背景を取り除いたり、子犬に囲まれたようにしたりすることができます。

They also announced Meta AI, which is going to be an AI powered by LLaMA 2, and it's going to live right inside of all of your messenger platforms.

また、Meta AIも発表されました。これはLLaMA 2を搭載したAIで、すべてのメッセンジャー・プラットフォーム内で動作する予定です。

So, whether using Facebook Messenger, Instagram Messenger, or WhatsApp, you're going to be able to chat with Meta AI, which is their sort of response to ChatGPT.

Facebookメッセンジャーでも、Instagramメッセンジャーでも、WhatsAppでも、Meta AIとチャットできるようになります。

And they're also creating a whole bunch of custom AIs that are sort of trained on specific things, and they use celebrity faces to represent the various areas of expertise.

彼らはまた、特定の事柄について訓練されたカスタムAIを大量に作成しており、有名人の顔を使って様々な専門分野を表現している。

So, some of the examples are Charlie D'Amelio as Coco the dance enthusiast, Chris Paul as Perry the pro golfer, and Snoop Dogg as the dungeon master.

例えば、チャーリー・ダメリオはダンス愛好家のココ、クリス・ポールはプロゴルファーのペリー、スヌープ・ドッグはダンジョンマスターです。

So, you can have conversations with LLaMA 2 chatbots that are custom trained on these specific niche conversations.

このように、特定のニッチな会話についてカスタムトレーニングされたLLaMA 2のチャットボットと会話をすることができるのだ。

They also introduced the new Ray-Ban smart sunglasses, which have a camera built into them.

彼らはまた、新しいRay-Banスマートサングラスを紹介しました。これにはカメラが内蔵されています。

They can actually hear you speak.

実際に会話を聞くことができる。

They've got headphones in them, so you can hear what's going on inside of whatever you're listening to.

ヘッドフォンが内蔵されているので、何を聴いていても、その中で何が起こっているかを聞くことができる。

But they've also got AI built into them.

また、AIも内蔵されている。

Now, basically, the idea is you put these sunglasses on.

基本的には、このサングラスをかけるということだ。

And then, why while you're wearing them, if you ever have a question that you want answered, you can say, Hey Meta, what is the square root of 7362?

そして、それを着用している間に、答えを知りたい質問があれば、「ヘイ、メタ、7362の平方根は何ですか?」と言うことができます。

And then, in its speakers that are right by your ear, it's going to be able to answer the question.

そして、耳のすぐそばにあるスピーカーで、質問に答えることができるようになります。

Now, they also talked about how these sunglasses will be multimodal, and they're going to get an update in the coming months.

さらに、これらのサングラスはマルチモーダルになると話されましたし、今後数ヶ月でアップデートされる予定です。

And the update is going to make it so the glasses can see what you see.

そのアップデートは、あなたが見ているものをメガネが見ることができるようにするものです。

So, you can literally walk up to something and say, Hey Meta, what is this thing that I'm looking at?

だから、あなたは文字通り何かに近づいて、「ヘイ、メタ、私が見ているものは何ですか?」と言うことができます。

Because it's got a little camera on it, the glasses will be able to see what you're looking at and then respond with details about what you're looking at.

小さなカメラが付いているので、メガネはあなたが見ているものを見ることができ、あなたが見ているものについての詳細を答えることができます。

Or, if you're traveling and you see a sign that's in Japanese and you don't know how to read it, you can say, Hey Meta, what does this sign say?

あるいは、旅行中に日本語の標識があったとして、それをどう読んだらいいかわからないとしたら、「ヘイ、メタ、この標識には何て書いてあるの?

It will read the sign and translate it for you.

と言えば、その看板を読んで翻訳してくれる。

So, when these sunglasses become multimodal, they become infinitely more usable and powerful because now you can get information using AI and the vision about anything that's in your surrounding.

つまり、サングラスがマルチモーダルになれば、AIと視覚を使って、あなたの周囲にあるどんなものでも情報を得ることができるので、サングラスは無限に使いやすく、強力になるのです。

Again, I did an entire 19-minute breakdown of the whole event.

繰り返しになりますが、私はイベント全体を19分間に渡って解説しました。

There's a lot of details, a lot of nuances of what they talked about.

彼らが話したことの詳細やニュアンスはたくさんある。

Some of it's really cool.

中には本当にクールなものもある。

Most of the comments on that video are I hate Meta or I hate Zuckerberg or whatever, but that's besides the point.

そのビデオに対するコメントのほとんどは、メタが嫌いだとか、ザッカーバーグが嫌いだとか、そういうものだが、それはさておき。

I personally think the technology that those guys are putting out right now is really cool, and I really like that Meta is taking this more open-source approach.

個人的には、彼らが今出しているテクノロジーは本当にクールだと思うし、メタがよりオープンソースなアプローチを取っていることもとても気に入っている。

But that's just my personal opinion.

でも、それは私の個人的な意見に過ぎない。

Next up, I want to tell you about today's sponsor, coda.io.

次は、本日のスポンサーであるcoda.ioについてお話したいと思います。

Coda is an AI-powered work assistant.

CodaはAIを搭載したワークアシスタントです。

Inside Coda, you can create docs and collaborate with other team members, but it's also got the power of AI built in.

Codaの中では、ドキュメントを作成したり、他のチームメンバーと共同作業をすることができますが、AIの力も組み込まれています。

It's also got thousands of app integrations so that you can pull data from any of the tools that you're already using and work with them all in one place.

また、何千ものアプリを統合しているため、すでに使っているツールからデータを引き出し、一箇所で作業することができる。

It's built around four main features.

それは4つの主要な機能を中心に構築されています。

You've got your AI assistant that can help you create docs, outlines, first drafts, and more.

ドキュメント、アウトライン、初稿などの作成をサポートするAIアシスタント。

You've got the AI column, which can essentially help you build spreadsheets.

AIカラムは、基本的にスプレッドシートの作成を手助けしてくれる。

And then populate those spreadsheets using AI.

そして、AIを使ってスプレッドシートに入力します。

You've got the AI block, which helps you find critical information fast by creating summaries or finding action items from scattered notes and data.

AIブロックは、サマリーを作成したり、散らばったメモやデータからアクション・アイテムを見つけたりすることで、重要な情報を素早く見つける手助けをしてくれる。

And they've recently added AI chat, which is this side panel down here where you can have conversations with your documents and data.

そして最近追加されたAIチャットは、この下にあるサイドパネルで、ドキュメントやデータと会話をすることができます。

The user interface is super clean.

ユーザー・インターフェースは非常にクリーンだ。

You can keep all of your documents organized.

すべてのドキュメントを整理しておくことができる。

And when you need to find information from a document, it's super easy to just press this little chat button and type things like, Who leads new hire onboarding?

ドキュメントから情報を見つけたいときは、この小さなチャットボタンを押して、「新入社員のオンボーディングは誰が担当しますか?

Do a quick search.

と入力するだけです。

It's going to search this document.

このドキュメントを検索します。

Here at our company, new hire onboarding is led by Rocky, our onboarding expert.

私たちの会社では、新入社員のオンボーディングはオンボーディングのエキスパートであるロッキーが担当しています。

That information's somewhere in this dock.

その情報はこのドックのどこかにあります。

Here we go, Rocky, our onboarding expert.

さあ、オンボーディングのエキスパート、ロッキーです。

See, it found it for me.

ほら、見つけてくれた。

Now, here's an example table of customer call notes.

さて、ここに顧客との通話メモの表の例があります。

You can see there's the full set of call notes here.

ここに通話メモのフルセットがあるのがわかります。

If we take a peek at this, it looks like it's the transcription from the entire call.

これを見てみると、それは通話全体の転写のようです。

And then over here, AI did a quick summary of what they talked about on the call and added some tags based on the conversation.

そしてこちらでは、AIが通話で話した内容を簡単に要約し、会話に基づいたタグを追加しています。

This was done with AI.

これはAIによるものです。

Here, I could jump over to chat and say, Based on all of the calls, what was the most common feedback?

ここで、チャットにジャンプして、「すべての通話に基づいて、最も一般的なフィードバックは何でしたか?

Based on the customer call notes, the most common feedback from customers was the request for more color options for buttons within the Acme platform.

顧客との通話メモによると、顧客からの最も一般的なフィードバックは、Acmeプラットフォーム内のボタンの色の選択肢を増やしてほしいという要望でした。

Bob, Emma, Sarah, and Samantha expressed the desire to have a wider range of color options to align with their branding and personal preferences.

ボブ、エマ、サラ、サマンサは、ブランディングや個人的な好みに合わせて、より幅広い色の選択肢を持ちたいという要望を表明しました。

So coda.io is a great platform to organize all of your notes, organize all of your data, have AI actually help you summarize and further organize it, and then actually chat and query any of the data and any of the content that you've created.

coda.ioは、すべてのメモを整理し、すべてのデータを整理し、AIに要約とさらなる整理を手伝ってもらい、実際にチャットしたり、データや作成したコンテンツを照会したりするのに最適なプラットフォームです。

And if you go to coda.io/matt, they've offered to give viewers of this channel either three months free or 25% off.

coda.io/mattにアクセスすると、このチャンネルの視聴者に3ヶ月無料または25%オフの特典を提供しています。

So check out coda.io for a very familiar, very easy user interface to keep all of your notes organized, automated, and easy to query using the new AI chat feature.

coda.ioをチェックすれば、非常に使い慣れた、非常に簡単なユーザー・インターフェイスで、すべてのメモを整理し、自動化し、新しいAIチャット機能を使って簡単に問い合わせることができる。

Again, that's coda.io/matt for either three months free or 25% off.

繰り返しますが、coda.io/mattは3ヶ月無料または25%オフです。

Thanks once again to coda.io for sponsoring this video.

このビデオをスポンサーしてくれたcoda.ioに改めて感謝します。

Next up, let's talk about Windows.

次はウィンドウズについて。

Now, last week I was at the Windows Event in New York where they announced that Windows 11 was getting an AI upgrade.

先週、私はニューヨークで開催されたウィンドウズ・イベントに参加し、そこでウィンドウズ11のAIアップグレードが発表されました。

Where everybody who has Windows 11 is just gonna have AI built in.

Windows 11を持っている人々は、AIが組み込まれた状態で使えるようになります。

Well, this week they finally rolled it out.

そして今週、ついにそれがリリースされた。

I actually just installed it on my computer.

私も自分のコンピューターにインストールしたところだ。

Now, I'll probably make another video where I deep dive into it a little bit further.

今度はもう少し詳しく掘り下げたビデオを作るかもしれません。

But once it's installed on your computer, it adds this little button down here.

コンピュータにインストールすると、この下に小さなボタンが追加されます。

It says Copilot Preview.

Copilot Previewと書いてあります。

If I click on this or if I hit Windows + C, it brings up this Copilot over here.

これをクリックするか、Windows + Cを押すと、ここにCopilotが表示される。

Now, at the moment, it pretty much does the same things that the Bing chat does inside of Microsoft Edge, with also the ability to open up some apps on your computer.

現時点では、Microsoft Edge内でBingチャットが行うのとほぼ同じことができ、コンピュータ上のいくつかのアプリを開くこともできます。

So, you could pretty much ask it any questions that you can ask Bing chat.

ですから、Bingチャットにできるような質問を、ほとんどこのアプリにすることができます。

You can also have it generate images with Dolly.

また、Dollyを使って画像を生成することもできます。

So, if I say Create a watercolor image of a wolf, I get some watercolor images of a wolf.

オオカミの水彩画を作成」と言うと、オオカミの水彩画が作成されます。

Now, I will say it does run fairly slow.

ただし、実行速度はかなり遅いと言わざるを得ません。

If you've used Bing chat instead of Edge, it definitely runs faster in Edge.

Edgeの代わりにBingチャットを使っているなら、Edgeの方が断然速く動く。

But it also can do some very simple things, like open up apps for you on your computer.

Edgeの代わりにBingチャットを使っている場合は、Edgeの方が確実に速く動作する。

So, if I type in Open the calculator app, it brings up a dialog box asking if I'm sure that I want it to open up the app.

電卓アプリを開く」と入力すると、アプリを開いていいかどうかを尋ねるダイアログボックスが表示されます。

And then I can click yes, and then it'll pop open my calculator.

そして「はい」をクリックすると、電卓が開く。

However, I kind of find that a lot slower than just typing in calculator and pulling open the app right here.

ただし、私はそれを計算機に入力してアプリを開くよりもはるかに遅いと感じます。

So, I don't know how much time that really saves you.

それでどれだけ時間が節約できるかはわからない。

My computer is currently in dark mode.

私のコンピューターは現在ダークモードになっている。

I usually leave it in dark mode.

普段はダークモードのままにしています。

I can say switch to light mode.

ライトモードに切り替えることもできます。

It asks if I want to turn off dark mode.

ダークモードをオフにするかどうか聞いてくる。

I can click yes, and then it switches it to light mode for me.

はい」をクリックすると、ライトモードに切り替えてくれる。

This process would honestly be a lot smoother if it didn't ask me if I'm sure.

このプロセスは、正直なところ、本当にいいかどうか聞いてこなければ、もっとスムーズなのだが。

I do think that this sidebar still leaves a lot to be desired.

私は、このサイドバーにはまだ多くの望みが残されていると思う。

This is the very first early iteration of it.

これは、そのごく初期のイテレーションである。

If you watch the keynote from Microsoft from last week, they did show off a whole bunch of features that are going to be coming into this sidebar that aren't quite ready yet.

先週のマイクロソフトの基調講演を見ると、彼らはこのサイドバーに搭載される予定の、まだ完全には出来上がっていない機能の数々を披露していた。

So, while it's cool that we're seeing this kind of stuff just being added directly into Windows, I don't see myself actually using this a whole heck of a lot yet.

このような機能がWindowsに直接追加されるのはクールなことだが、私自身はまだこれを実際に使うことはあまりないだろう。

Speaking of operating systems, Mac OS Sonoma rolled out this week.

OSといえば、Mac OS Sonomaが今週リリースされた。

Actually, it rolled out the exact same day that Windows rolled out their new update.

実は、Windowsが新しいアップデートを公開したのとまったく同じ日に公開されたのだ。

Not sure if that was coincidental or not.

それが偶然かどうかはわからない。

Now, not too much AI features to talk about in this.

さて、今回の発表では、AI機能について語ることはあまりない。

There is one very, very, very minimal minor AI mention inside of their announcement, and that their keyboard, the autocorrect, is receiving a comprehensive update.

発表の中で1つだけ、非常に、非常に、非常に小さなAIに関する言及があり、それはキーボードのオートコレクトが包括的なアップデートを受けるということだ。

And it's using state-of-the-art on-device machine learning language model that improves accuracy.

そして、精度を向上させる最先端のオンデバイス機械学習言語モデルを使用しています。

You're getting a little bit more accurate of an autocorrect here with this new Apple update, but other than that, not really much AI to talk about there this week.

この新しいアップルのアップデートで、オートコレクトの精度が少し向上したようですが、それ以外は、今週はあまりAIについての話題はありませんでした。

Amazon and anthropic partnered up.

アマゾンとanthropicが提携した。

If you've ever used clod, then you've used anthropic's tool.

clodを使ったことがあるなら、anthropicのツールを使ったことがあるだろう。

And in my opinion, Claude is a lot better at a lot of things over ChatGPT.

そして私の意見では、クロードはChatGPTよりも多くの点で優れている。

For example, summarizing long articles.

たとえば、長い記事の要約です。

Claude is so much better than chatgpt at that at the moment.

今のところ、クロードはチャットグプトよりずっと優れている。

But this announcement was pretty big.

しかし、今回の発表はかなり大きかった。

Amazon will invest up to four billion dollars into anthropic.

Amazonはanthropicに最大40億ドルを投資する。

AWS, Amazon's web services, will become anthropic's primary cloud provider.

アマゾンのウェブサービスであるAWSは、anthropicの主要なクラウドプロバイダーとなる。

Now, Amazon does have their own model called Amazon Bedrock that they've been working on.

現在、アマゾンはAmazon Bedrockと呼ばれる独自のモデルを開発している。

I find this really interesting because anthropic actually already has some backing from Google cool as well.

anthropicはすでにGoogleクールからも支援を受けているので、これは本当に興味深い。

But it definitely feels like Google is kind of going more all in on their PaLM 2E and their Gemini from Deep Mind and not really putting a ton of focus on anthropic.

しかし、GoogleはPaLM 2EとDeep MindのGeminiに全力を注いでおり、anthropicにはあまり力を入れていないように感じます。

So, it sounds like Amazon and anthropic are teaming up to go against the Googles, the Microsoft ChatGPT, OpenAI, LLaMAs.

つまり、アマゾンとanthropicは、グーグル、マイクロソフトのChatGPT、OpenAI、LLaMAに対抗するために手を組んでいるようだ。

Amazon wants to be in this game as well.

アマゾンもこのゲームに参加したがっている。

They likely saw that getting together with anthropic was the best way that they can actually become more relevant in the large language model space.

彼らは、anthropicと一緒になることが、大規模な言語モデル分野でより適切な存在になるための最良の方法だと考えたのだろう。

Speaking of Amazon, they also announced the general availability of their Amazon Bedrock.

アマゾンといえば、Amazon Bedrockの一般提供も発表した。

Amazon's Bedrock is going to help larger companies fine-tune their own models for their own specific needs.

AmazonのBedrockは、大企業が自社のモデルを特定のニーズに合わせて微調整するのに役立つだろう。

And with this wide rollout from Amazon, it's going to make it a lot easier for companies of all sizes to start creating their own fine-tuned AI models.

アマゾンのこの幅広い展開により、あらゆる規模の企業が独自の微調整されたAIモデルを作成することがより容易になるだろう。

Not to be left behind in the AI race, Cloudflare, popular CDN content delivery network, is launching their own suite of AI tools too to help customers deploy and run models.

AI競争に取り残されることなく、人気のCDNコンテンツ・デリバリー・ネットワークであるCloudflareも、顧客がモデルを展開・実行するのを支援する独自のAIツール群を立ち上げている。

So, it sounds like Cloudflare has the infrastructure because of their content delivery network and all of the online websites that sort of pass through their servers.

Cloudflareは、コンテンツ・デリバリー・ネットワークと、同社のサーバーを経由するすべてのオンラインウェブサイトのインフラを持っているようだ。

So, they're using some of their GPU capacity at Cloudflare to let people run AI models.

つまり、CloudflareのGPU容量の一部を使って、AIモデルを実行させるのだ。

At least, that's sort of what I'm gathering from this.

少なくとも、私がここから得ているのはそういうことだ。

This week, Snap partnered with Microsoft on ads in its My AI chatbot feature.

今週、SnapはMy AIチャットボット機能の広告でMicrosoftと提携した。

Basically, if you were to use Snapchat's My AI, you can ask questions like, Where should I get dinner near me?

基本的に、SnapchatのMy AIを使う場合、「近くでディナーを食べるならどこがいい?

And it will give recommendations of places to eat near you.

というような質問をすると、近くにあるおすすめの食事場所を教えてくれる。

And those recommendations could be sponsored by companies.

そして、それらのおすすめは企業がスポンサーになっている可能性がある。

But with this announcement, it was announced that Snap and Microsoft will be partnering on these link suggestions.

しかし今回の発表では、スナップとマイクロソフトがこのリンク提案で提携することが発表された。

So, essentially, it sounds like if you want to purchase ads and have this My AI recommend your company during chat conversations, you should be able to do that through Microsoft's advertising platform.

つまり、もしあなたが広告を購入し、チャットの会話中にマイAIにあなたの会社を推薦させたいのであれば、マイクロソフトの広告プラットフォームを通じてそれが可能になるはずだ。

And Microsoft will sort of act as that middleman between you, the business owner, and Snapchat's AI platform.

そしてマイクロソフトは、ビジネスオーナーであるあなたとスナップチャットのAIプラットフォームとの仲介役を果たすことになる。

Also, this week, it was announced that Spotify is going to clone podcasters' voices and translate them into other languages.

また今週、Spotifyがポッドキャスターの声をクローンし、他の言語に翻訳することが発表された。

So, if you have a podcast, pretty soon Spotify subscribers will be able to listen to your podcast in their native language, and it will actually sound like your voice.

つまり、もしあなたがポッドキャストを持っているなら、まもなくSpotifyの購読者はあなたのポッドキャストを母国語で聴くことができるようになり、実際にあなたの声のように聞こえるようになる。

This week, Getty made their own AI generator that's only trained on Getty Images that are licensed to Getty.

今週、ゲッティは、ゲッティにライセンスされているゲッティ画像のみに学習させる独自のAIジェネレーターを作った。

With tools like Midjourney and Stable Diffusion, and now Dolly 3 and Adobe Firefly, and all of these other tools just getting better and better and better.

MidjourneyやStable Diffusion、そして今やDolly 3やAdobe Fireflyのようなツールがあり、他のツールもどんどん良くなっています。

I'm not sure how much demand there really is for a Getty Images version of the same thing.

ゲッティ イメージズのバージョンにどれだけの需要があるのかはわかりません。

And if you check out their website, you actually can't even use it.

ゲッティ イメージズのウェブサイトを見ても、実際に使うことはできません。

You have to request a demo and fill out a long form to be able to use it.

デモをリクエストして、長いフォームに記入しないと使えない。

So, there's a little bit of a barrier to entry.

だから、参入にはちょっとした障壁がある。

They want a lot of data on you just to be able to use their model.

彼らのモデルを使うためには、多くのデータが必要なんだ。

But, um, yeah, we'll see how that plays out.

でも、まあ、どうなるか見てみよう。

Also, this week, Leonardo AI announced that you can now use Laura's or low-rank adaption models.

また今週、レオナルドAIは、ローラや低ランク適応モデルを使えるようになったと発表した。

If you're not familiar with Laura's, it's not necessarily a custom-trained model.

Laura'sをご存じない方もいらっしゃると思いますが、これは必ずしもカスタム・トレーニングされたモデルというわけではありません。

It's almost like you can use a model and a Laura at the same time.

ほとんど同時にモデルとローラを使用できるようになりました。

Allure is almost like additional effects or additional information that you want to provide when training an image.

アリュールは、画像をトレーニングする際に提供したい追加エフェクトや追加情報のようなものです。

So, for example, if I just keep this same prompt in here that generated these cool wolf images last time.

例えば、前回このクールなオオカミの画像を生成したのと同じプロンプトをこのままにしておくとします。

And then, click on ADD elements.

そして「要素を追加」をクリックします。

Here, you can see that there's a handful of Laura models available that will give a specific sort of styles to those images.

ここでは、特定のスタイルを画像に与えるいくつかのローラモデルが利用可能です。

So, if I want to add The Inferno Laura to it, I can select this.

インフェルノ・ラウラを追加したい場合は、これを選択します。

But it also lets me select up to four different loras, so I can also add the tiki Laura to it.

また、最大4つの異なるローラを選択できるので、ティキ・ローラも追加できます。

Click confirm.

確認をクリックする。

Let's say I want it weighted a little bit more on The Inferno, a little bit less on the tiki.

たとえば、私はそれを少しインフェルノ寄りに、ティキ寄りよりも少し重みを置きたいとします。

And let's click generate.

そしてgenerateをクリックします。

And there you go, you can see it kind of added in those Tiki sort of elements with maybe a little bit of Inferno with some of this explosion going on in the background.

そして、ここで共有されたいくつかの例をチェックしてください。

But it applied those loras and added that extra little effect to it.

しかし、ロラを適用して、さらに小さなエフェクトを加えました。

We saw some cool new text to video stuff roll out this week.

今週は、ビデオにテキストを挿入するクールな新機能が登場しました。

Pica Labs now actually lets you add messages inside of the videos that you generate.

Pica Labsでは、作成した動画の中にメッセージを追加できるようになりました。

So, check out some of the examples that they shared here.

では、ここで共有されたいくつかの例をご覧ください。

They got the words green inside of a forest here, the word fresh inside of fruit.

森の中に緑という文字を入れたり、果物の中に新鮮という文字を入れたり。

Basically, if we jump into Pika Labs here, let's do our little/and let's select encrypt text.

基本的には、Pika Labsに飛び込んで、テキストを暗号化しましょう。

And for the message, let's put wolf in.

そしてメッセージにはwolfを入れよう。

For the prompt, let's put a wolf howling at the moon.

プロンプトには、月に吠えるオオカミを入れよう。

And here's what we got out of it.

そして、それが私たちが得たものです。

Now, the motion here is subtle.

さて、ここでの動きは微妙だ。

You can see the Wolves moving a little bit, but you can see the word wolf in the background.

狼が少し動いているのが見えますが、背景には狼という文字が見えます。

And as of right now, Peak Labs is still 100 free to use.

Peak Labsは今現在も100%無料で使用できます。

Also, this week, Genmo AI released their replay effects, which kind of has this cool Kaleidoscope effect to it where you can have the face sort of be stable, but then what's going on around the face is a lot of movement and motion and extra stuff going on.

また、今週、Genmo AIがリプレイ・エフェクトをリリースしました。これは、クールな万華鏡のようなエフェクトで、顔は安定していますが、顔の周りにはたくさんの動きやモーションがあります。

So, pretty cool new AI video feature there.

とてもクールな新しいAIビデオ機能です。

You can check that one out by going to genmo.ai.

genmo.aiにアクセスしてチェックしてみてください。

Come down to your little effects, you can turn the effects plugin on, and there's a whole bunch bunch of effects libraries here like Rings moving inward.

エフェクトに移動して、エフェクトプラグインをオンにし、リングが内側に動くなど、ここにはたくさんのエフェクトライブラリがあります。

Let's put the motion in the middle somewhere, and we'll also have it Loop.

例えば、リングが内側に動くようなエフェクトライブラリがたくさんあります。

And let's say a wolf howling at the moon.

狼が月に向かって吠えるとしよう。

And let's just see what we get out of this one.

この中から何が出てくるか見てみましょう。

And it says generation complete.

そして、完了しましたと表示されます。

And here's what we got from that one.

そして、それが私たちが得たものです。

The circle around the wolf kind of shrinks and expands.

オオカミの周りの円は縮んだり広がったりしている。

And then shrinks and expands again because it's looping, through twice.

そして、それがループして再び縮小・拡大します。2回通過します。

Definitely something I need to play around with more.

間違いなく、もっと遊んでみる必要がある。

I haven't messed with the settings myself a whole lot yet, so I haven't really seen what it can do.

僕自身はまだ設定をあまりいじっていないので、何ができるのかよく見ていないんだ。

This was literally my first time testing this and the result's pretty cool, but I definitely want to go through some of those other effects that are down here and see what I get when playing with some of these this week.

これは文字通り私がこれをテストする最初の時間であり、結果はかなりクールですが、この週にこれらの他の効果のいくつかを試してみて、何が得られるかを見たいと思っています。

The app Polycam announced that you can actually do Gaussian splatting inside of their app.

Polycamというアプリは、アプリ内でガウス・スプラッティングができることを発表した。

Now, I have talked about Gaussian splatting in a few of my past videos.

さて、ガウス・スプラッティングについては、過去に何度か動画で紹介したことがある。

If you're familiar with Nerfs, it's kind of a similar idea where you can take a whole bunch of pictures around a scene and then it's going to sort of stitch all of those pictures together into a 3D image.

Nerfsをご存じなら、これは似たようなアイデアで、シーンの周囲でたくさんの写真を撮ると、それらの写真を3D画像につなぎ合わせてくれるのだ。

Now, that's a complete oversimplification.

これは完全に単純化しすぎです。

I've explained it better in past videos, and there are also a lot better people to explain it than me.

過去のビデオでもっとうまく説明したし、私よりもっとうまく説明できる人もたくさんいる。

But really, it's a way of taking a whole bunch of pictures, similar to like photogrammetry or lidar or Nerfs, where you take a whole bunch of pictures around it, and then they all get stitched together into a 3D image.

しかし、実際には、これは一連の写真を撮る方法です。フォトグラメトリーやライダーやNerfsのように、周りの一連の写真を撮り、それらがすべて3D画像に繋がります。

However, the difference between Nerfs and Gaussian splatting is that Gaussian splatting actually looks a lot more clear in my opinion.

しかし、ネルフとガウス・スプラッティングの違いは、ガウス・スプラッティングの方がより鮮明に見えるということだ。

A lot of the video footage that comes out of it looks clear, but it's also a lot faster.

ガウス・スプラッターで撮影されたビデオ映像の多くは鮮明に見えるが、そのスピードも速い。

So the processing of all of these images into this sort of 3D object that you create, it actually processes that a lot faster, so you get your result back quicker.

3Dオブジェクトのようなものを作成するために、すべての画像を処理するのですが、その処理速度が速いので、より早く結果を得ることができます。

And then you can make videos that look almost like drone shots, where you're flying around inside of a scene.

そして、シーンの中を飛び回るような、ほとんどドローンショットのようなビデオを作ることができます。

And you can now do that directly within this Polycam app.

このPolycamアプリの中で直接それができるようになりました。

Here's a shot of a woman standing, and you can see all of the cameras around her.

これは女性が立っているショットですが、彼女の周りにあるすべてのカメラが見えます。

And I can actually move around and zoom in and zoom out.

実際に動き回って、ズームインやズームアウトもできます。

And if I wanted to, I can actually create a video where I keyframe various shots and make sort of an animation moving around this person standing here.

もし必要であれば、様々なショットにキーフレームを付けて、ここに立っている人の周りを動くアニメーションのようなビデオを作成することもできます。

And a lot of these files can actually be imported into tools like Unreal Engine and Unity and actually used as game assets or game backgrounds.

これらのファイルの多くは、実際にUnreal EngineやUnityなどのツールにインポートして、ゲームアセットやゲーム背景として使用することができます。

So you can check that out over at poly.com/splat.

詳しくはpoly.com/splatをご覧ください。

And they do have step-by-step instructions here on how to create a splat, and it seems pretty simple.

poly.com/splatでは、スプラットの作り方をステップバイステップで説明しています。

Upload between 20 and 200 pictures of different angles of the image.

さまざまな角度の画像を20枚から200枚アップロードします。

And then, it will do the work to sort of stitch them all together for you.

そして、それらをつなぎ合わせる作業をやってくれる。

This week also saw the end of the WGA strike, the Writer's Guild of America.

今週はまた、WGA(全米脚本家組合)のストライキが終結した。

They finally came to terms and the writers are going back to work.

ようやく合意に達し、脚本家たちは仕事に戻ることになった。

One of the interesting terms that they ended on was that Hollywood Studios can train AI models on writer's work.

興味深い条件のひとつは、ハリウッド・スタジオが脚本家の仕事をAIモデルにトレーニングさせることができるというものだ。

The argument from these large Studios being that all of these works are going to get trained into AI anyway, and there's very little control they have over that.

大手スタジオの言い分は、これらの作品はいずれAIに訓練されるものであり、それをコントロールすることはほとんどできない。

Might as well let the studios do it and have the control over how the AI is used.

スタジオに任せて、AIがどのように使われるかをコントロールしたほうがいい。

We also saw some cool video from Tesla as Optimus robot, and it can actually sort objects autonomously.

また、テスラからのクールなビデオも見ました。オプティマスロボットとして、それは実際に物体を自律的に分類することができます。

It just knows how to sort these blocks by color, fully autonomously.

完全に自律的に、ブロックを色別に分類する方法を知っているのです。

And it does it while dealing with the dynamic reality of our world.

そして、私たちの世界のダイナミックな現実に対処しながら、それを実行する。

So, as somebody is there trying to mess them up and move pieces around, you can see the robot still figures it out and still sorts them properly.

だから、誰かがブロックをぐちゃぐちゃにしてピースを動かそうとしても、ロボットはそれを理解し、適切に並べ替えることができる。

Now, I know I'm probably gonna get a lot of hate in the comments just for mentioning this because so many people waste their energy on hate for people like Zuckerberg and Elon Musk and stuff like that.

今、私はおそらくコメントで多くの憎しみを受けるでしょう。なぜなら、ザッカーバーグやイーロンマスクなどの人々に対する憎しみに多くの人々がエネルギーを浪費しているからです。

I don't totally get it, but I thought this was really cool and so I'm sharing it.

私は全く理解できないが、これは本当にクールだと思ったのでシェアする。

But Lex Friedman and Mark Zuckerberg had an interview conversation in the metaverse.

レックス・フリードマンとマーク・ザッカーバーグがメタバースで対談したんだ。

So, these are their metaverse avatars that we're seeing on the screen here.

これらは画面上で見ているメタバースのアバターです。

This isn't actually their real face.

これは実際には彼らの本当の顔ではありません。

They actually scanned in their faces.

実際に顔をスキャンしたのです。

If you think of Mark Zuckerberg's old version of the metaverse, it was cartoony people that didn't have legs that just sort of floated around.

マーク・ザッカーバーグが昔作ったメタバースといえば、脚のないアニメのような人たちがただ浮遊しているようなものだった。

Well, you can see the advancements are making some headway.

まあ、進歩が少しずつ進んでいるのはわかるだろう。

And that wasn't meant to be a pun, but they were able to scan in and have this conversation in the metaverse.

ダジャレのつもりじゃなかったんだけど、彼らはメタバースでスキャンして会話をすることができたんだ。

And the first like 10 minutes of this conversation is Lex Friedman just being blown away by how real and intimate it felt.

この会話の最初の10分間は、レックス・フリードマンがそのリアルさと親密さに圧倒されているところだ。

Zuckerberg and Lex were in two different locations, but they kept on commenting about how it truly felt like they were side by side during this conversation.

ザッカーバーグとレックスは2つの異なる場所にいたが、2人はこの会話の間、本当に並んでいるように感じたとコメントし続けた。

It's incredible.

信じられない。

The realism here is just incredible.

この臨場感は本当にすごい。

Where am I?

ここはどこ?

Where are you, Mark?

どこにいるんだ、マーク?

You're in Austin, right?

オースティンでしょ?

No, I mean this place where we're shrouded by darkness with ultra-realistic face, and it just feels like we're in the same room.

そうじゃなくて、超リアルな顔で暗闇に包まれて、まるで同じ部屋にいるような感覚になる場所なんだ。

This is really the most incredible thing I've ever seen.

これは本当に、今まで見た中で最も信じられないものだよ。

I love the idea of feeling like I can have conversations with somebody like they're in the same room with me.

誰かと同じ部屋にいるような感覚で会話ができるというアイデアが大好きなんだ。

One of my best friends lives in New Zealand, and we talk once every other week or so, and to be able to do it in the metaverse and actually see each other's faces and expressions and arm movements and body language, that to me is just gonna be game-changing for conversations and that sort of additional connection that you just can't get over like a zoom call.

私の親友の一人はニュージーランドに住んでいて、私たちは2週間に1回ほど話します。そして、メタバースでそれを行い、お互いの顔や表情、腕の動き、ボディーランゲージを実際に見ることができるようになることは、会話やその他のつながりにとってゲームチェンジングになると思います。それは、ズームのような方法では得られない追加のつながりです。

And finally, to wrap up, let's talk about some good news in the AI world.

最後に、AIの世界における良いニュースについてお話ししましょう。

78% of companies say that AI has created more jobs.

78%の企業が、AIによって雇用が増えたと答えている。

Now, this comes from a website called Digital Information World.

これは、デジタル・インフォメーション・ワールドというウェブサイトによるものだ。

I don't really know this site super well, so I can't really speak to this site's credibility, but the report actually comes from the Institute for Future of Work.

私はこのサイトをよく知らないので、このサイトの信頼性については言及できませんが、このレポートはInstitute for Future of Workによるものです。

And in the report that surveyed over a thousand different firms, 78% of them said that the use of AI and the incorporation of automated processes into their workflows directly contributed to new jobs being created.

1000を超える企業を調査したこのレポートでは、78%の企業が、AIの利用や自動化されたプロセスのワークフローへの組み込みが、新たな雇用創出に直接貢献すると回答している。

47% of the people that responded to the survey stated that AI had removed certain jobs that used to be available, but 67% reported that new positions opened up.

調査に回答した人の47%は、AIによって以前はあった特定の仕事がなくなったと述べているが、67%は新しいポジションができたと報告している。

So, with all of this fear of AI taking away jobs, at the moment, the data supposedly says that that's not actually the case, that new jobs are being created as a result of AI.

つまり、AIが雇用を奪うのではないかという懸念があるが、現時点では、実際にはそうではなく、AIの結果として新たな雇用が創出されているというデータが出ている。

Now, there are definitely functions in companies that no longer need to be done by humans, but that's always been the case as technologies advance.

企業には、もはや人間が行う必要のない機能が確かにありますが、それは常に技術が進歩するにつれてのことです。

Humans are always going to try to figure out how to automate workflows and make things easier to do and simpler and cheaper and faster and better.

人間は常にワークフローを自動化し、物事をより簡単に、よりシンプルに、より安く、より速く、より良くする方法を見つけ出そうとする。

But with that innovation, the roles that humans play have always just kind of shifted around into different roles.

しかし、その技術革新に伴い、人間が果たす役割は常に異なる役割へと変化してきた。

And that seems to be what is happening in the AI world right now.

そして今、AIの世界でも同じことが起こっているようだ。

Yes, AI is taking away jobs, but new jobs, new career paths, new opportunities are also opening up as a result.

確かにAIは仕事を奪っているが、その結果、新たな仕事、新たなキャリアパス、新たなチャンスも開かれている。

I choose to believe that this technology and these innovations and where we're going with all of this stuff is going to lead to a better life and a better world for most people.

私は、このテクノロジーや技術革新、そして私たちが目指しているものは、多くの人々にとってより良い生活とより良い世界につながると信じている。

And so, when I see articles that sort of validate that belief, I'm going to share them with you.

だから、その信念を裏付けるような記事を見かけたら、皆さんと分かち合いたいと思っています。

Because this AI revolution, this AI technology, it's coming whether we want it to or not, whether we're ready for it or not.

なぜなら、このAI革命、AIテクノロジーは、私たちが望むと望まざるとにかかわらず、また私たちが準備できているといないとにかかわらず、やってくるからだ。

Might as well play in the playground of being optimistic about it and being excited about the potential and the opportunity that it'll provide for all of us.

AI革命、AIテクノロジーは、私たちが望むと望まざるとにかかわらず、また、私たちがそれに対応できるか否かにかかわらず、やってくるものなのだから、それを楽観視し、その可能性と私たち全員にもたらされるであろうチャンスに胸を躍らせながら、その遊び場で遊ぶのがよいだろう。

That's all I got for you this week.

今週、私が皆さんにお伝えしたいことは以上です。

And by all I got for you, I know that was a load of information and news this week.

これで私が持っている情報とニュースは以上です。

And I happen to know that there's quite a bit more in the pipeline coming over the next couple weeks as well that I'm not allowed to talk about yet, but excited to share when they do come out.

そして、私はまだ話すことが許されていないが、今後数週間にわたってさらに多くのものが開発される予定ですので、それらが公開されたときに共有することを楽しみにしています。

So, it's gonna be a fun ride.

だから、楽しい旅になるよ。

The rest of the year is going to be exciting in the AI world.

今年の残りは、AIの世界ではエキサイティングな年になりそうだ。

And if you want to make sure you're staying in the loop with it, maybe give this video a thumbs up, subscribe to this channel.

もし、あなたがAIの最新情報を入手したいのであれば、このビデオに親指を立てて、このチャンネルを購読してください。

I'll keep you in the loop with all the AI news.

このチャンネルを購読してください。

I'll keep you up to date, at least once a week.

少なくとも週に一度は最新情報をお届けします。

I'm gonna do my best to be helpful and help usher as many people into this new reality that I can.

この新しい現実に一人でも多くの人を導いていけるよう、お役に立てるようベストを尽くすつもりです。

And if you want to stay on top of the news on a daily basis, check out futuretools.io.

また、毎日ニュースをチェックしたい方は、futuretools.ioをチェックしてください。

I update the AI news page every single day with all the latest news.

AIニュースのページでは、毎日最新のニュースを更新している。

I update the home page every single day with all the coolest tools that I'm coming across.

トップページでは、私が出会ったクールなツールを毎日更新している。

And make sure to subscribe to the newsletter.

ニュースレターの購読もお忘れなく。

That'll send you all the latest AI news and all the coolest AI tools directly to your inbox.

最新のAIニュースや最もクールなAIツールを、あなたの受信トレイに直接お届けします。

So, once again, thank you so much for tuning in.

改めて、ご視聴ありがとうございました。

Thanks again to coda.io for sponsoring this video.

このビデオをスポンサーしてくれたcoda.ioに改めて感謝します。

Go to coda.io/matt for 25% off or your first three months free.

coda.io/mattにアクセスすると、25%オフまたは最初の3ヶ月が無料になります。

Thanks again to them for sponsoring.

スポンサーになってくれたcoda.ioに改めて感謝します。

And thank you once again so much for tuning in to this channel.

そして、このチャンネルにチャンネルを合わせてくれて本当にありがとう。

I really, really appreciate you.

本当に本当にありがとう。

I really, really love that you tune into these videos and love nerding out with me.

このビデオにチャンネルを合わせてくれて、僕と一緒にオタクになるのが大好きなんだ。

Because I'm having fun making them.

僕は楽しんで作っているからね。

Hopefully, they're still enjoyable to watch.

願わくば、まだ見ていて楽しいものであってほしい。

And things are ramping up, so more exciting videos in the works.

そして、もっとエキサイティングなビデオも制作中だ。

Thanks again.

本当にありがとう。

See you in the next video.

また次のビデオで会おう。

Bye.

さようなら。

Thank you.

ありがとう。


この記事が気に入ったらサポートをしてみませんか?