見出し画像

【AIニュース】英語解説を日本語で読む【2023年5月13日|@Matt Wolfe】

GoogleのI/Oイベントをはじめ、新しいAIのニュースが目白押しです。
公開日:2023年5月13日
※動画を再生してから読むのがオススメです。


So, this week was one of those weeks in AI where it was just announcement after announcement, and we've got a lot to cover in this one.

本日は、AI に関する発表が続いた週のひとつで、多くの内容をお届けします。

Google had their annual i/o event where they make all of their big announcements about all the cool stuff that they're rolling out.

Googleは毎年恒例のi/oイベントを開催し、彼らが展開するクールなものすべてについて大きな発表を行いました。

Here's a super quick recap from The Verge: Ai, aiki AI, generative AI, generative AI, generative AI, Aisa.

ここでは、The Vergeによる超簡単なレポをお届けします: Ai、aiki AI、generative AI、generative AI、Aisa。

It uses AI to bring ai, ai, ai, and AI, or Ai.

AIを使ってai、ai、ai、ai、AI、つまりAiを実現する。

That pretty much sums up what they talked about at the event.

これがイベントで話されたことをほぼ要約しています。

But besides the Google event, there was still a ton of other AI announcements, and I'm gonna break them all down for you, including the stuff that I found the most interesting from the Google event.

しかし、Googleのイベント以外にも、まだまだたくさんのAIの発表があり、Googleのイベントから私が一番面白いと思ったものを含め、それらをすべて分解して紹介します。

So, technically, this one rolled out last week on Friday.

これは先週、金曜日に発表されたものです。

But because I record these videos on Thursday, it didn't make last week's video.

しかし、私はこのビデオを木曜日に録画しているので、先週のビデオにはなりませんでした。

But on Friday of last week, OpenAI rolled out their new text to 3D model called Shape E. And as of right now, there's a Hugging Face space available where you can play around with it yourself.

しかし、先週の金曜日に、OpenAIは「Shape E」という新しいテキストから3Dモデルまでをロールアウトしました。

I'll make sure the link is below in the description, but you can come to the face page, type in a prompt, and it'll make a 3D image of whatever you prompt it with.

リンクは下の説明で確認しますが、顔のページに来て、プロンプトを入力すると、プロンプトに応じた3D画像が作成されます。

So, I can type a rainbow wolf, and I get something that kinda sort of looks like a rainbow wolf.

虹色の狼と入力すると、虹色の狼のようなものが出てきます。

I can click this download button, and it downloads it as a glb file, which I believe I can open in something like Blender.

このダウンロードボタンをクリックすると、glbファイルとしてダウンロードされ、Blenderなどで開くことができるようになります。

Some other examples: a spaceship, a green boot, and a chair that looks like an avocado.

他にも、宇宙船、緑のブーツ、アボカドみたいな椅子などがあります。

They also have Image to 3D, where you can upload an image, and it'll try to make it into a 3D image.

また、Image to 3Dもあり、画像をアップロードすると、それを3D画像にしようとします。

Their example here is this little Corgi image.

例えば、この小さなコーギーの画像です。

I tried uploading my own images, and none of them looked anywhere near like the image I uploaded.

自分の画像をアップロードしてみましたが、どれもアップロードした画像と同じようには見えませんでした。

So, I don't know how to get this to work, but you could play around with it.

だから、どうやったらうまくいくのかわからないけど、遊んでみるのもいいかも。

It's free over on Hugging Face right now.

今ならHugging Faceで無料配布しています。

It's not the most amazing 3D assets I've ever seen, but it's the best-looking text to 3D we've seen so far.

今まで見た中で最も素晴らしい3Dアセットではありませんが、今まで見た中で最も見栄えのするテキストから3Dへの変換です。

Alright, now moving into this week, we started off the week with Warren Buffett comparing AI to the creation of the atom bomb, and Jeffrey Hinton saying that the threat of AI is more urgent to humanity than climate change.

さて、今週は、ウォーレン・バフェット氏がAIを原子爆弾の製造に例えたり、ジェフリー・ヒントン氏がAIの脅威は気候変動よりも人類にとって切実であると言ったところから始まりましたね。

But, I don't want to get all doom and gloom in this video.

しかし、このビデオでは、悲観的な話ばかりをしたいわけではありません。

I want to talk about some of the really cool and fun advancements that happened in AI, so let's just move right along.

AIで起こった本当にクールで楽しい進歩についてお話したいと思いますので、さっそく進めていきましょう。

Also on Monday, we got this demo from Loveless Studio where they show off their tool to create text to metaverse.

また、月曜日には、Loveless Studioから、メタバースへのテキストを作成するツールを紹介するデモがありました。

Essentially, we could see that this was an alien snowy world that they created.

基本的に、これは彼らが作った雪の降る異世界であることがわかります。

Great Lost City of Atlantis, this is what it created: got procedural terrain generation, dynamic landscapes, dynamic geologies, dynamic lighting, dynamic post-processing, all sorts of cool features that take us one step closer to being able to just build video games using prompting.

プロシージャルな地形生成、ダイナミックな景観、ダイナミックな地質、ダイナミックな照明、ダイナミックなポストプロセスなど、あらゆる種類のクールな機能を備えており、プロンプトを使ってビデオゲームを作ることができるように一歩近づいたと言えます。

And this all works inside of Unreal Engine.

そして、これらはすべてUnreal Engineの中で動作します。

We don't know when we're actually going to have access to this.

実際にいつアクセスできるようになるかはわかりません。

This was just kind of a teaser video of what's to come, but this looks like a really, really fun tool that is going to further democratize game creation.

これは、今後の展開を示すティーザー映像のようなものですが、ゲーム制作の民主化をさらに進める、本当に楽しいツールになりそうです。

Also on Monday, we got this demo from Loveless Studio.

また、月曜日には、Loveless Studioのデモが公開されました。

They showed off their tool to create text to metaverse.

メタバースへのテキストを作成するためのツールを披露してくれました。

Essentially, we could see that this was an alien, snowy world that they created.

基本的に、これは彼らが作った雪の降る異世界であることがわかります。

Great Lost City of Atlantis, this is what it created.

アトランティスの失われた大都会」、これは彼らが作ったものです。

It's got procedural terrain generation, dynamic landscapes, dynamic geologies, dynamic lighting, and dynamic post-processing.

プロシージャル地形生成、ダイナミックランドスケープ、ダイナミックジオロジー、ダイナミックライティング、ダイナミックポストプロセッシングを備えています。

All sorts of cool features that take us one step closer to being able to just build video games using prompting.

プロシージャルな地形生成、ダイナミックな地形、ダイナミックなライティング、ダイナミックなポストプロセスなど、プロンプトを使ってビデオゲームを作れるようになる一歩手前の、あらゆる種類のクールな機能が備わっています。

This all works inside of Unreal Engine.

これらはすべて、Unreal Engine の内部で動作します。

We don't know when we're actually going to have access to this.

実際にいつアクセスできるようになるかはわかりません。

This was just kind of a teaser video of what's to come, but this looks like a really, really fun tool that is going to further democratize game creation.

これは、今後の展開を示すティーザー映像のようなものですが、ゲーム制作の民主化をさらに進める、本当に楽しいツールになりそうです。

Also on Monday, we got the announcement that Meta was open sourcing their image bind research.

また、月曜日には、Metaが画像結合の研究をオープンソース化したことが発表されました。

This has image to audio, audio to image, text to image, and audio.

これは、画像から音声、音声から画像、テキストから画像、そして音声があります。

Audio and image to image, audio to generated image...

オーディオとイメージ、オーディオと生成されたイメージ...。

so, for example, if we select an image, it will try to make an audio out of one of these images.

というように、例えば画像を選択すると、その中から音声を作ろうとします。

So, if I click on this dog, you can see it generated two audios from this dog.

そこで、この犬をクリックすると、この犬から2つの音声が生成されたのがわかると思います。

That's AI-generated audio from the dog.

これはAIが生成した犬からの音声です。

If I click on this tiger here, this is what it sounds like.

この虎をクリックすると、このような音声が出ます。

Their audio to image is the other way around.

音声から画像への変換は、その逆なのです。

So, if you give it a sound of birds singing, it generates these images off of that audio, or a train running.

つまり、鳥の鳴き声を聞かせれば、その音声からこのような画像を生成しますし、電車が走れば、その音声から画像を生成します。

Based on that audio, we get these images.

その音声をもとに、このような画像を得ることができるのです。

Text image and audio, if you give it the text drums, you get this image and this audio, or this image with this audio.

テキスト画像と音声、テキストのドラムを与えると、この画像とこの音声、あるいはこの画像とこの音声が得られます。

And then we have audio and image to a new image.

そして、音声と画像を新しい画像にするのです。

So we have a dog barking with a picture of a beach.

つまり、ビーチの写真と犬の吠え声です。

So here's the dog barking.

つまり、ここに犬の吠える声がある。

If I combine the two, we've got a picture of a dog on a beach.

この2つを組み合わせると、ビーチにいる犬の絵ができあがります。

We've got the sound of pouring, with this picture of apples, and it generated this picture of apples under a sink.

注ぐ音とリンゴの絵を組み合わせると、シンクの下にあるリンゴの絵が生成されました。

And finally, audio to generated image: this engine sound gives us this picture of a boat or something.

そして最後に、音声から生成された画像です。このエンジン音は、ボートか何かの画像を生成しました。

Dog barking, we get this picture of a dog.

犬の吠え声、この犬の絵が出来上がる。

And this is what image binding does, and you can read more about this over on Meta's blog at this URL, which will be in the description.

これがイメージバインディングです。この詳細については、MetaのブログのこのURLで読むことができます。

And like I mentioned, it is open sourced, so you can actually find it over on Facebook Research's GitHub page and use this code in your own projects if you want.

また、先ほど述べたように、これはオープンソースなので、Facebook ResearchのGitHubページでこのコードを見つけることができ、自分のプロジェクトでこのコードを使用することができます。

This week, TED also uploaded the TED Talk from Imran Chaudhry here, where he showed off some of his wearable AI augmented reality tech, and it's pretty dang cool.

今週、TEDはImran ChaudhryのTED Talkをアップロードしました。彼はウェアラブルAI拡張現実技術を披露しましたが、かなりクールです。

And we agree.

そして、私たちも同感です。

Sorry, this is my wife, I'm going to have to get this.

すみません、これは私の妻です。

Hello?

もしもし?

Hey, Bethany, how's it going?

やあ ベサニー 調子はどうだい?

Yeah, I'm on the red circle right now.

ええ、私は今、赤い丸の上にいます。

Actually, let me show you something.

実は、あなたに見せたいものがあるんだ。

Invisible devices should feel so natural to use that you almost forget about their existence.

目に見えないデバイスは、その存在を忘れさせるほど自然に使えるものでなければならない。

You'll note that's me and my voice speaking fluent French using an AI speech model.

これは私と、AIの音声モデルを使って流暢なフランス語を話す私の声です。

That's part of my own AI.

これは私自身のAIの一部です。

This is not a deep fake.

これは、深い偽物ではありません。

In fact, it's deeply profound.

実際、深い深みがあります。

This is my AI giving me the ability to speak any language.

これは私のAIが、どんな言語でも話せる能力を与えてくれているのです。

Imagine this: you've been in meetings all day, and you just want a summary of what you've missed.

一日中ミーティングをしていて、聞き逃した内容を要約してほしいとき、こう想像してみてください。

Catch me up.

キャッチアップしてください。

Coming to tomorrow's design meeting, Bethany wants to move next week's dinner, and Oliver is asking about soccer this weekend.

明日のデザインミーティングに来ること、ベサニーが来週のディナーを移動したいこと、オリバーが今週末のサッカーについて尋ねていること。

These are emails, calendar invites, and messages all surfaced up to the top.

これらは、メール、カレンダーの招待状、メッセージのすべてが上部に浮上したものです。

I've added punctuation to your text to make it more readable.

読みやすくするために、句読点をつけています。

Please note that due to the length of the text, the sentence structure might still seem a bit convoluted.

テキストの長さの関係で、文の構成がまだ少し複雑に感じられるかもしれませんが、ご了承ください。

Picked up one of these chocolates.

このチョコレートを1つ手に取った。

Used to eat a ton of these when I was a kid.

子供の頃、これを大量に食べたものだ。

Can I eat this?

これ、食べてもいいですか?

So, I can't eat these anymore.

だから、もうこれは食べられないんだ。

I'm gonna eat it anyway.

とにかく食べてみるよ。

Which is a really, really awesome Ted Talk.

これは本当に、本当に素晴らしいTed Talkです。

One of my favorite TED talks in a long time.

長い間、私のお気に入りのTEDトークの1つです。

It's less than 14 minutes and I highly recommend everybody check it out.

14分弱なので、ぜひ皆さんご覧になってください。

I'll make sure the link's in the description, but what I can't say about this is that AI and wearable technology is going to get really, really interesting.

リンクは説明文に記載しますが、AIとウェアラブル技術は本当に、本当に面白くなりそうだということです。

And this Ted Talk, with actual working technology, shows sort of where things might be heading.

このTed Talkは、実際に動作する技術で、物事がどこに向かっているのかを示しています。

This week, IBM also announced that they're going much deeper into the AI space with their Watson X AI.

今週、IBMはWatson X AIでAI分野にさらに深く踏み込むことを発表しました。

They actually partnered up with Hugging Face so you can experiment with the open source models that are available on Hugging Face.

実際にHugging Faceと提携し、Hugging Faceで公開されているオープンソースモデルを試すことができます。

This appears to be their own version of like a GPT4 or PaLM 2, like what Google has, and they're expecting availability for Watson X in July.

これは、Googleが持っているようなGPT4やPaLM 2の独自バージョンのようで、Watson Xは7月に発売される予定だそうです。

So, as more access for this one rolls out, we'll probably be talking about this one a little bit more in the future.

7月にはWatson Xも利用できるようになる予定です。

The interesting thing about something like this, Watson X, is it's starting to feel a little late in the game.

このようなWatson Xの興味深い点は、ゲームとしては少し遅れているように感じられることです。

If everybody's already starting to build out apps on top of OpenAI, or starting to build out apps on top of Google's new PaLM 2.

すでにみんながOpenAIの上にアプリを作り始めていたり、Googleの新しいPaLM 2の上にアプリを作り始めているのであれば、7月頃には、ほとんどの人がWatson Xの上にアプリを作り始めているように感じます。

By July, it almost feels like most businesses will already have sort of picked their platform of choice to build on top of.

7月までに、ほとんどの企業が、その上に構築するプラットフォームをすでに選んでいるような気がします。

It'll just be interesting to see how it plays out and what IBM can bring to the table that's actually unique.

それがどのように展開され、IBMが実際にユニークなものをテーブルにもたらすことができるのか、興味深いところです。

It's also announced this week that Wendy's is going to test AI chat Bots that take your drive through order, and it appears to be built on top of Google's PaLM 2 technology.

また今週、Wendy'sがドライブスルーの注文を受けるAIチャットボットをテストすることが発表されましたが、これはGoogleのPaLM 2テクノロジーに基づいて構築されているようです。

When McDonald's tested it out, it didn't go so well.Can I please have vanilla ice cream?

マクドナルドがテストしたときは、あまりうまくいかなかった。Can I please have vanilla ice cream?

Can I get you anything else?

何か他のものを用意しましょうか?

No, caramel, would you like...

いや、キャラメル、いかがでしょう...。

No, cream packet...

いいえ、クリームパケットを...。

No, I didn't.

いや、そうじゃなくて。

I just want a large water and a cup of ice cream.

大きな水とアイスクリームが欲しいだけなんです。

Now to catch it back.

今、それを取り戻します。

Oh my God, I literally can't wait.

ああ、神様、文字通り待ちきれません。

Where did the butter come from?

バターはどこから出てきたんだ?

I was just like a large water and a cup of ice cream.

私はちょうど大きな水とアイスクリームのカップのようだった。

We're still saving this.

これはまだ取ってあるんだ。

We need to just go and tell them, McDonald's.

マクドナルドに言いに行くしかない。

I'm done for the Sunday.

日曜日はもういいや。

None, plain, zero, zata, nothing.

なし、プレーン、ゼロ、ザタ、何もない。

Just vanilla ice cream for the Sunday.

日曜日はバニラアイスだけでいい。

Oh my God, I'm done.

なんてことだ、もういいんだ。

I'm done.

もうダメだ。

We're done.

もうおしまいだ。

Jesus.' So yeah, hopefully Wendy's take on the automated ordering bot fares a little bit better than McDonald's.

イエス』。そう、ウェンディが自動注文ボットに挑戦することで、マクドナルドよりも少しはマシになることを願っています。

Airtable also announced that they're adding AI functionality into their platform, which kind of felt inevitable.

Airtableはまた、自社のプラットフォームにAI機能を追加すると発表しましたが、これはある意味必然的なことでした。

I'm pretty sure everybody saw this coming anyway.

いずれにせよ、誰もがこうなることを予想していたのは間違いない。

It looks to do the same kinds of things that you might get out of something like Notions AI.

Notions AIのようなものから得られるかもしれないのと同じ種類のことをするように見えます。

Airtable AI will be an optional paid feature, with details on pricing and availability coming soon.

Airtable AIはオプションの有料機能で、価格や利用方法についての詳細は近日中に発表される予定です。

Also this week, Hugging Face announced Transformer agents.

また今週、Hugging FaceはTransformer agentを発表しました。

You can control a hundred thousand plus Hugging Face models by talking to Transformers and diffusers.

トランスフォーマーやディフューザーと会話することで、10万以上のハギング・フェイスのモデルをコントロールすることができます。

It's going to be fully multimodal, meaning you can use text, images, video, audio, docs, etc.

テキスト、画像、ビデオ、オーディオ、ドキュメントなどを使用できる、完全なマルチモーダルになる予定です。

In their Twitter thread, they say you can create an agent using large language models like Open Assistant, Star coder, and OpenAI, and start talking to Transformers and diffusers.

Twitterのスレッドでは、Open Assistant、Star coder、OpenAIのような大規模な言語モデルを使用してエージェントを作成し、Transformersやdiffusersと会話を始めることができるとしています。

It responds to complex queries and offers a chat mode, creates images using your words, has the agent read the summary of websites out loud, read through a PDF, and comes with built-in tools like speech to text, text-to-speech, text classification, summarization, translation, image generation, transformations, captioning, segmentation, upscaling, and text to video.

複雑な問い合わせに対応し、チャットモードを提供し、あなたの言葉を使って画像を作成し、エージェントにウェブサイトの要約を読み上げさせ、PDFを読み上げさせ、スピーチからテキスト、テキストからスピーチ、テキストの分類、要約、翻訳、画像生成、変換、キャプション、セグメント化、アップスケール、テキストからビデオなどのツールが組み込まれています。

Now this is the part that I found really interesting.

ここが、私が本当に面白いと思ったところです。

So, designing a tool and pushing it to the hub can be done in a few lines of code.

つまり、ツールを設計し、それをハブにプッシュすることは、数行のコードで行うことができるのです。

The toolkit of the agent serves as a base.

エージェントのツールキットは、ベースとなるものです。

Extend it with your tools or with other community contributed tools.

自分のツールや、コミュニティが提供する他のツールで拡張することができます。

So, what this means to me is that you can use all of the tool sets available inside of Hugging Face to build a brand new tool.

つまり、Hugging Faceの中で利用可能なすべてのツールセットを使って、まったく新しいツールを作ることができる、ということです。

Once you build that new tool that does whatever you make it do, you can then add that tool to Hugging Faces set of tools.

そして、その新しいツールを作ったら、そのツールをHugging Faceのツールセットに追加することができます。

Now that tool becomes available for others to use and iterate off of, and becomes a new tool in the toolset that developers can then use to build off of.

これで、そのツールは他の人が使って反復することができるようになり、開発者が使って構築することができるツールセットの新しいツールになるのです。

So, the more these Transformer agents get used to build tools, the more tools people have available to build new tools.

つまり、Transformerエージェントがツールを作るために使われれば使われるほど、新しいツールを作るために利用できるツールが増えるのです。

So, with each new tool built inside of this, it just improves and improves and improves, giving people the ability to continually make better tools.

つまり、この内部で新しいツールが作られるたびに、どんどん改善され、より良いツールを作り続けることができるようになるのです。

The last few weeks we also talked a lot about AI generated music and a lot of that music was ending up on Spotify.

ここ数週間、私たちはAIが生成した音楽について多くの話をしましたが、その音楽の多くがSpotifyにアップされるようになりました。

Well, apparently, Spotify has flushed all of that music off the platform.

しかし、どうやらSpotifyは、そのような音楽をすべてプラットフォームから削除したようです。

With Spotify saying, Artificial streaming is a long-standing industry-wide issue that Spotify is working to stamp out across our service.

Spotifyは、「人工的なストリーミングは業界全体の長年の問題であり、Spotifyは当社のサービス全体でこれを根絶するために取り組んでいます」と述べています。

So, although Spotify is now allowing AI generated playlists, Spotify seems to be very anti-AI generated music.

つまり、SpotifyはAIが生成したプレイリストを許可するようになったものの、SpotifyはAIが生成した音楽に対して非常に反感を持っているようです。

When we identify or are alerted to potential cases of stream manipulation, we mitigate their impacts by taking action that may include the removal of streaming numbers and the withholding of royalties.

私たちは、ストリーム操作の潜在的なケースを特定したり、警告を受けたりした場合、ストリーミング番号の削除やロイヤリティの差し止めを含む措置をとることで、その影響を緩和しています。

This allows us to protect royalty payouts for honest, hard-working artists.

これにより、誠実で勤勉なアーティストに支払われるロイヤリティを守ることができます。

Now, anybody that's actually generated AI music will probably be slightly offended by this because it's not as easy to create as most people think.

AI音楽は、多くの人が思っているほど簡単に作れるものではないので、実際にAI音楽を作ったことがある人は、この話を聞いて少し気分を害されるかもしれませんね。

It actually does require some talent and some skill, and quite a bit of time to put into it, to create something really good still.

本当に良いものを作るには、ある程度の才能と技術、そしてかなりの時間が必要だからです。

But Spotify, at least for the moment, seems to be drawing a line in the sand against people making AI generated music.

しかし、Spotifyは、少なくとも今のところ、AIが生成した音楽を作ることに対して一線を引いているようです。

At least with the voices of existing artists.

少なくとも、既存のアーティストの声については。

It's going to be interesting to see how this plays out because this feels like a very gray area to me.

私にとっては非常にグレーな領域なので、これがどうなるかは興味深いところです。

Like, what if I had a voice that sounded exactly like Kanye's, and I sang in a way that sounded like Kanye, but I'm not Kanye, but I did actually sing it?

例えば、私がカニエにそっくりな声を持っていて、カニエに聞こえるように歌ったとしても、私はカニエではないけれど、実際に歌ったのだとしたらどうでしょう?

Does that mean that my song would get booted off of Spotify because it sounds too much like his voice?

それは、私の歌が彼の声に似すぎているという理由で、Spotifyからブーイングされるということでしょうか?

Just because a voice sounds like Kanye but wasn't actually generated by Kanye, does that make it Kanye's voice?

カニエのように聞こえるが、実際にはカニエによって生み出された声ではないという理由で、それがカニエの声になるのだろうか?

I don't know.

どうでしょう。

It was definitely trained on his voice's data, so there is that element to it.

彼の声のデータでトレーニングされたのは間違いないので、そういう要素はあります。

But in the future, I don't think we're going to be able to differentiate what was generated on somebody else's data versus somebody that just sounds like somebody else.

しかし、将来的には、他人のデータから生成されたものと、他人の声に似ているだけのものを区別することはできなくなると思います。

It's gonna get real slippery.

本当に厄介なことになりそうです。

I'm not really making a lot of AI music myself, so I don't really have a dog in this fight.

私自身はAI音楽をたくさん作っているわけではないので、この戦いにはあまり関心がありません。

I just think it's going to be interesting to see how this one plays out.

ただ、この件がどうなるかは興味深いですね。

Speaking of AI generated music, with all of Google's big announcements at Google I/O this year, this is one that flew under the radar because it didn't get announced at their event.

AIが生み出す音楽といえば、今年のGoogle I/Oでは、Googleの大きな発表がありましたが、これはGoogleのイベントで発表されなかったので、注目されませんでした。

But they just opened up their Music LLM model where you can generate AI music.

しかし、Googleは、AIが音楽を生成するMusic LLMモデルを公開しました。

Now, it doesn't generate vocals, but if I go to the AI Test Kitchen, I can actually play with this right now and generate some music with it.

AIテストキッチンに行くと、実際にこれで遊んで音楽を生成することができます。

You can see it gives us some examples: songs that would play in a poolside party with a light summer vibe.

例として、プールサイドのパーティーで流れるような、夏の軽やかな雰囲気の曲が紹介されているのがわかると思います。

I could see what this sounds like, and this is totally AI-generated.

これは完全にAIが作ったものですが、どのような音がするのかがわかりました。

A pop-punk anthem from the early 2000s, I can actually download this song right here.

2000年代前半のポップパンクアンセムで、この曲は実際にここでダウンロードできます。

But I'm very unclear at the moment whether or not you can actually use this music commercially or not.

しかし、この音楽を実際に商業的に使用できるかどうか、今のところ非常に不明です。

My guess is that you probably still can't, but I'm not sure.

私の予想では、おそらくまだできないのではないかと思うのですが、よくわかりません。

It doesn't specifically say anywhere that I can find, even in their terms of service, there's nothing about how we can use this or if we can use it commercially.

利用規約にも、この音楽をどう使うか、商業的に使えるかどうかについては、特にどこにも書いていないんです。

Alright, so now we're getting into the meat of what happened this week, and that is Google's I/O event where they just had announcement after announcement about all of the AI stuff they're doing.

さて、それでは今週起こったことの本題に入りますが、それはGoogleのI/Oイベントで、彼らが行っているすべてのAIに関する発表が次々と行われました。

Now, I did make a sort of TL;DR version of the entire Google I/O event.

さて、私はGoogle I/Oイベント全体のTL;DRバージョンのようなものを作りました。

The entire event was almost four hours long, and I condensed all the stuff that I found interesting down to about 15 minutes.

イベント全体は4時間近くあったのですが、私が面白いと思ったものを15分程度に凝縮しました。

You can find that over at my Twitter.

それは私のTwitterで見ることができます。

I'll link to this exact Twitter post in the description below if you want to watch the 15-minute recap that I created.

私が作成した15分の要約を見たい方は、下の説明でこの正確なTwitterの投稿にリンクしておきます。

Let's go over some of the quick highlights here.

では、そのハイライトをいくつかご紹介しましょう。

So, they started by showing an example of how it can help you in email.

まず、電子メールでの活用例を紹介しました。

Where somebody got an email about a flight that was canceled, they gave it a prompt to ask for a full refund for this canceled flight.

フライトがキャンセルされたというメールを受け取った人が、キャンセルされたフライトの全額払い戻しを求めるプロンプトを出したとします。

The AI wrote a short email.

AIは短いメールを書きました。

They asked the AI to elaborate, and then it wrote a more detailed email asking for a refund for the flight.

AIは短いメールを書き、AIに詳しく説明するように指示すると、AIはより詳細なメールを書いて、フライトの払い戻しを求めました。

Now, while I think it's really cool that this is going to be built directly in the email, it's nothing really new, right?

このように、電子メールの中に直接組み込まれるのはとてもクールだと思いますが、特に新しいことではありませんよね?

We've been able to do this with ChatGPT.

これまでもChatGPTでこのようなことができました。

There's probably a hundred Chrome extensions that do this for us right now.

Chromeの拡張機能でこれを実現しているものは、今までに100個はあるでしょう。

It doesn't feel like anything super novel or exciting yet.

超新奇なことでも、エキサイティングなことでもないんです。

It just kind of saves us one step of having to use a third-party tool and instead, we are going to have it just built straight into Gmail.

ただ、サードパーティーのツールを使う手間を省き、代わりにGmailに直接組み込んでもらうだけです。

They also announced that Google photos is going to have what they call Magic editor.

また、Googleフォトにマジックエディターと呼ばれるものが搭載されることも発表されました。

They rebranded their magic eraser to Magic editor.

これまでのマジックイレイサーをマジックエディターに改名しました。

It can do stuff like erase unwanted items in an image, adjust the brightness, make it look like a more clear day, and then even move things around in the image to get it closer to what you were originally looking to create in the first place.

画像内の不要なものを消したり、明るさを調整したり、より晴れた日に見えるようにしたり、さらには画像内のものを動かして、最初に作ろうと思っていたものに近づけることもできます。

While I think it's cool that it's going to be built directly into Google photos, this isn't super novel technology.

Googleフォトに直接組み込まれるのはクールだと思いますが、これは超斬新な技術ではありません。

This is the type of stuff we've been getting from tools like Clip drop and Runway ml already.

これは、Clip dropやRunway mlのようなツールから既に得られているタイプのものです。

Now, they also announced PaLM 2, which is their sort of Next Generation large language model that tools like Bard are being built on top of.

また、PaLM 2も発表されました。これは、Bardのようなツールがその上に構築されている、次世代大規模言語モデルのようなものです。

It's much better at coding and can even do things like add comments in Korean.

これは、Bardのようなツールの上に構築される、次世代の大規模言語モデルです。コーディングがよりうまくなり、韓国語でコメントを追加するようなこともできます。

They also talked about fine-tuning PaLM 2 and fine-tuning it on medical knowledge in their Med PaLM 2, which was quite impressive in the fact that it was the first large language model to reach expert performance when it comes to clinical knowledge.

また、「Med PaLM 2」では、PaLM 2を微調整し、医療知識で微調整することを話していました。このモデルは、臨床知識に関してエキスパート性能に達した最初の大規模言語モデルであるという事実が非常に印象的でした。

I think it's operating behind the scenes on Bard, so if you have access to Bard, you're kind of seeing PaLM 2's capability.

Bardの裏側で動作しているので、Bardにアクセスすれば、PaLM 2の能力を見ることができるような気がします。

They also talked about their next-gen model called Gemini, which will be coming out later.

また、この後発売されるGeminiという次世代モデルについても語られました。

It is trained on even more.

これは、さらに多くのことを訓練しています。

I mean, I guess this is kind of like their GPT 5, I suppose.

つまり、これは彼らのGPT 5のようなものだと思うんだ。

I don't know how to compare it, but this is their next even larger large language model that they're in production on right now.

どう比較したらいいのかわかりませんが、これは次のさらに大きな大規模言語モデルで、現在生産中です。

It's still being trained.

まだトレーニング中です。

They talked about how Bard is much better at coding now, now trained on all of these programming languages that you see on the screen.

Bardはコーディングが得意で、スクリーンに映し出されるプログラミング言語をすべて学習するようになったと話していました。

They also announce Barred tools, which is really interesting because if you're familiar with what ChatGPT is doing with ChatGPT plugins, it sounds like that's what they're doing with Bard.

ChatGPT プラグインで ChatGPT が行っていることに精通している場合、Barred ツールは非常に興味深いものです。これは、Bard で行っていることだそうです。

Bard will directly connect with tools like TripAdvisor, Wolfram, Redfin, Instacart, Spotify, YouTube, and Khan Academy, and a lot of the tools that we've seen are getting plugins on ChatGPT.

Bardは、TripAdvisor、Wolfram、Redfin、Instacart、Spotify、YouTube、Khan Academyといったツールと直接接続することができ、これまで見てきた多くのツールがChatGPTでプラグインを取得していることがわかります。

This is really cool, and I think this is a great feature, but it also feels a little bit like they saw ChatGPT do it, and now they're doing it too.

これはとてもクールで、素晴らしい機能だと思いますが、ChatGPTがやっているのを見て、自分たちもやっているような感じもします。

Now, Google may have totally had this idea before ChatGPT.

GoogleはChatGPTの前にこのアイデアを持っていたかもしれません。

I can't say for sure, but just the timing of events, it kind of feels like they got the idea from ChatGPT and when we need to add that to Bard 2 if we want to compete.

でも、このタイミングは、ChatGPTからアイデアを得て、Bard 2に追加することで対抗しているように感じられますね。

One of the other big announcements is that they are partnering with Adobe Firefly inside of Bard.

他にも大きな発表として、Bardの内部でAdobe Fireflyと提携することになりました。

And if you've ever used Bing chat and had it generate images with their next-gen version of Dolly, then it sounds like Bard is kind of doing the same thing, just with Adobe Firefly.

Bingのチャットで、次世代バージョンのDollyを使って画像を生成したことがあると思いますが、BardもAdobe Fireflyを使って同じようなことをやっているようです。

So you can go inside of Bard, for example, and say, Generate an image of a unicorn in front of a birthday cake for me.

例えば、Bardの中に入って、「バースデーケーキの前にいるユニコーンの画像を生成してくれ」と言うことができます。

And using Adobe Firefly, it will generate that image for you.

すると、Adobe Fireflyを使って、その画像を生成してくれるのです。

Again, it kind of feels a little bit like being one step behind what Microsoft and OpenAI are doing with their current version of Bing chat.

マイクロソフトとOpenAIが現在のBingチャットで行っていることに、一歩遅れをとっているような気がします。

They also announced at their event that Bard is now open to everybody in 180 different countries.

また、Bardが180カ国の人々に開放されたことも発表されました。

It's available in English, Japanese, and Korean.

英語、日本語、韓国語に対応しています。

And on the screen right now, you can see all of the countries that it is available in.

今、画面に表示されているのは、利用可能なすべての国です。

I'm going to go ahead and scroll slowly so that you can, you know, take a screenshot or pause this video and see where you can get access.

スクリーンショットを撮ったり、ビデオを一時停止したりして、どこでアクセスできるかを確認できるように、ゆっくりスクロールしていきますね。

But I'm also going to link up to this page in the description so you can check it out for yourself.

また、説明文の中にこのページへのリンクを貼っておきますので、ご自身で確認してみてください。

Now, there are some noticeable omissions from the list.

さて、このリストには、いくつか目立った抜けがあります。

One thing I noticed is Canada still doesn't have access up here, which seemed very surprising to me.

ひとつは、カナダがまだここにアクセスしていないことで、これは私にとって非常に意外なことでした。

And also I've noticed that a lot of people in places like Sweden and Switzerland don't have access either, which is a little bit surprising.

また、スウェーデンやスイスなどでも、多くの人がアクセスできないことに気づきましたが、これもちょっと驚きです。

And the other reason I pinpoint those countries in particular is because I have friends in those countries who actually reached out and said, I still don't have access to it.

特にこれらの国を選んだ理由は、これらの国に友人がいて、実際に連絡を取って「まだアクセスできない」と言ったからです。

I thought they were rolling it out to all of the countries.

すべての国で展開されていると思っていたのに。

Well, they enrolled it to 180 countries, and Canada, Switzerland, and Sweden aren't three of them.

カナダ、スイス、スウェーデンは、そのうちの3カ国ではありませんが、180カ国に登録されました。

They also announced Google Duet AI, which is essentially them putting AI in all of their Google Workspace suite of tools.

また、Google Duet AIも発表されましたが、これはGoogle WorkspaceのすべてのツールにAIを搭載するというものです。

So you'll have AI directly inside of Google Docs, directly inside of Google Sheets, directly inside of Google Slides.

つまり、Googleドキュメント、Googleシート、Googleスライドに直接AIを導入することができるのです。

And they all kind of tie together with each other.

そして、これらはすべて互いに連携しているのです。

So if you need information on your slides from one of your Google Sheets, it can reference and access what's in your sheets for your Google Slides.

つまり、Googleシートからスライドに情報が必要な場合は、シート内の情報を参照し、Googleスライドにアクセスすることができます。

If you need access to something that's in sheets in one of your documents, they all sort of cross-talk to each other.

また、あるドキュメントのシートにある情報にアクセスする必要がある場合、これらはすべて互いにクロストークすることになります。

And that's called Google Duet.

これがGoogle Duetと呼ばれるものです。

Here's one of the examples of them using it that I found interesting.

私が面白いと思った使用例のひとつを紹介します。

Something like a client and pet roster for a dog walking business with rates, and hit create.

犬の散歩ビジネスの顧客とペットの名簿のようなものを料金とともに作成し、作成をクリックします。

She sends this input to a fine-tuned model that we've been training with all sorts of sheet-specific use cases.

彼女はこの入力を、私たちがあらゆる種類のシート固有のユースケースでトレーニングしてきた、微調整されたモデルに送ります。

The model figured out what you might need.

このモデルは、あなたが必要とするかもしれないものを考え出したのです。

The generator table has things like the dog's name, client info, notes, etc.

ジェネレーターテーブルには、犬の名前、クライアント情報、メモなどが入っています。

This is a good start for you to tinker with.

これは、あなたがいじるための良いスタートです。

They also gave another example of it being used in slides where they generated a whole slide presentation, forgot to create notes for the slides, and then had AI generate all of the speaker notes for them automatically based on the content of the slides.

また、スライドでの使用例として、スライド全体のプレゼンテーションを生成し、スライド用のメモを作成するのを忘れ、スライドの内容からAIにすべての講演者のメモを自動生成させた例も紹介されました。

They also showed off what Google's new conversational search is going to look like.

また、Googleの新しい会話型検索がどのようなものになるのかも披露されました。

It looks very similar to what Bing has planned for their search engine.

Bingが検索エンジンで計画しているものと非常によく似ています。

You can see they asked a question, What's better for a family with kids under three and a dog, Bryce Canyon or Arches National Park?

3歳以下の子供と犬を連れた家族にとって、ブライスキャニオンとアーチーズ国立公園のどちらが良いですか?"という質問をしているのがわかります。

It actually generated a response with AI, gave some potential follow-up questions, gave some sources, and then below that gave the search results.

という質問に対して、AIで回答を生成し、その後に続く質問候補や情報源を提示し、その下に検索結果を表示するというものです。

They also showed off some features for shopping on Google which will help you compare various products using AI on Google.

また、Googleでのショッピングのための機能も披露され、Google上でAIを使って様々な商品を比較することができるようになる。

For example, showing e-bikes in red for five-mile commutes with hills, and it was able to find stores near their location that had red bikes that were good for working on hills.

例えば、坂道のある5マイルの通勤に適した赤色のE-BIKEを表示すると、坂道での作業に適した赤色の自転車が置いてある店舗を、現在地から近い場所で見つけることができたという。

They also showed off their new Vertex AI, which to me feels very, very similar to NVIDIA's Foundation platform or Amazon's Bedrock platform where companies can build their own custom large language models on top of their GPU resources.

これは、NVIDIAのFoundationプラットフォームやAmazonのBedrockプラットフォームに非常によく似ていて、企業がGPUリソースの上に独自の大規模言語モデルを構築することができるように感じます。

Now, of all the things that they showed off, their project Tailwind was probably the single thing that excited me the most because what it is is basically you create your own internal chatbot based on files that are inside of your Google Drive.

彼らが披露したすべてのものの中で、最も私の興味を引いたのは、Tailwind プロジェクトです。これは、Google ドライブ内のファイルに基づいて独自の内部チャットボットを作成することです。

So, if you have a whole bunch of documents inside of Google Drive, you can essentially query those documents with a chat, and it will use those documents as the sources to answer your questions and then cite the source from your database of documents.

Googleドライブの中に大量のドキュメントがあれば、チャットでそのドキュメントに問い合わせることができ、そのドキュメントをソースとして質問に答え、ドキュメントのデータベースからソースを引用してくれます。

It's basically creating a chatbot by embedding the content of your Google Drive for you and then making all of that content of your Google Drive chattable.

Googleドライブのコンテンツを埋め込んでチャットボットを作成し、Googleドライブのコンテンツをすべてチャットにできるようにするのです。

That to me seems super valuable because you can create folders on your Google Drive for specific topics that you're interested in and add various documents that you find around the web, write your own content in there, save transcripts from interviews and videos, and whatever you can imagine, and then create your own custom-tailored chatbot to query all of those documents that you saved in there.

Googleドライブに自分の興味のある特定のトピックのフォルダを作り、ウェブ上で見つけた様々なドキュメントを追加し、そこに自分のコンテンツを書き、インタビューやビデオの記録を保存し、想像できるものすべてを保存し、そこに保存したすべてのドキュメントを照会するために、自分自身のカスタムメイドのチャットボットを作成することができるからです。

That concept to me is really exciting.

このコンセプトは、私にとって本当にエキサイティングなものです。

So this Project Tailwind is something that out of everything they showed throughout this entire keynote is probably the thing I'm most excited to get my hands on.

このProject Tailwindは、今回の基調講演で披露されたすべてのものの中で、おそらく私が最も手に入れるのを楽しみにしているものです。

They also showed off a universal translator where they took a video of somebody speaking, translated that video into a different language, and then the person's mouth and voice actually followed along as they were speaking in that other language.

また、ユニバーサル・トランスレーターも披露されました。これは、誰かが話しているビデオを撮影し、そのビデオを別の言語に翻訳すると、その人の口や声が実際にその言語で話しているように追従するというものです。

So, here's the example: What many college students don't realize is that knowing when to ask for help and then following through on using helpful resources is actually a hallmark of becoming a productive adult.

つまり、これがその例です: 多くの大学生が気づいていないことですが、助けを求めるタイミングを知り、役立つリソースを利用してフォローすることが、実は生産的な大人になるための特徴なのです。

So that's pretty cool.

これはとても素晴らしいことです。

But they also mentioned during this keynote that they're not going to make that available for everybody because they're too afraid of it being used for deepfakes and things like that.

しかし、この基調講演では、ディープフェイクなどに使われることを恐れて、誰でも利用できるようにするつもりはないとも言っていました。

So when the general public will have access to this from Google, who knows?

というのも、ディープフェイクなどに使われるのを恐れているからだそうです。では、一般の人がいつGoogleからアクセスできるようになるかというと、それは誰にもわかりません。

During the event, they also presented a few new phones.

このイベントでは、いくつかの新しい携帯電話も発表されました。

They have a new Pixel folding phone and a Pixel 7A.

新しいPixelの折りたたみ式携帯電話とPixel 7Aだそうです。

I wasn't too interested in that.

私はそれにはあまり興味がありませんでした。

I was more interested in the AI features.

それよりもAI機能の方に興味がありました。

You're going to be able to use AI to help you with your text messages, where if you've ever seen that South Park episode where they talked about ChatGPT, this feels straight out of that episode.

もしあなたが、サウスパークのエピソードでChatGPTについて話しているのを見たことがあるなら、これはそのエピソードからそのまま出てきたような気がします。

They're also going to let you use generative AI to generate AI backgrounds, which I mean, cool.

また、ジェネレーティブAIを使ってAIの背景を生成することもできるようになるそうです。

And then they moved on to the developer keynote.

そして、開発者向けの基調講演に移りました。

So there was two main keynotes during this I/O event.

今回のI/Oイベントでは、2つの基調講演がありました。

You had the main Google keynote, and then you had the developer keynote, where they focused a lot more on the APIs and the various development software that was available for programmers and things like that.

Googleのメイン基調講演と、開発者向け基調講演です。ここでは、APIやプログラマー向けに提供されるさまざまな開発ソフトウェアに焦点が当てられました。

They did mention that there's a whole bunch of APIs that developers are going to get access to and a whole bunch of code helpers similar to like a code whisperer or GitHub Copilot.

開発者がアクセスできるようになるAPIや、コードウィスパラーやGitHub Copilotのようなコードヘルパーが多数用意されていることが紹介されたよ。

Google is going to have their own version of that.

Googleは、その独自バージョンを提供する予定です。

They also announced their own Android AI development platform and a whole bunch of cool tools for builders, but most of what they talked about in that portion was over my head.

また、独自のAndroid AI開発プラットフォームや、ビルダー向けのクールなツールの数々も発表されましたが、この部分で語られたことのほとんどは、私の頭には入ってきませんでした。

They used a lot of coder speak and industry jargon that I couldn't really translate other than the fact that it was tools to make coding a lot faster and a lot easier if you're going to code with Google's platforms for tools like Android.

AndroidのようなGoogleのプラットフォームでコーディングする場合、コーディングをより速く、より簡単にするためのツールであるという事実以外は、コーダー用語や業界用語をたくさん使っていて、私にはうまく訳せませんでした。

And finally, they wrapped up the event with something really fun, which was showing off their Space Invaders World Defense augmented reality game, which actually uses Google Earth plus augmented reality technology to add Space Invaders directly into the real world.

そして最後に、彼らは本当に楽しいものでイベントを締めくくりました。それは、Google Earth と拡張現実技術を使用して、スペースインベーダーを直接現実世界に追加する拡張現実ゲーム、Space Invaders World Defense を披露したものです。

So you can see this is a Google Maps street view here, and then they added Space Invaders right over the top in reality, and they call this game Space Invaders World Defense.

これはGoogleマップのストリートビューですが、その上にスペースインベーダーを配置したもので、「スペースインベーダー・ワールドディフェンス」というゲームです。

And this was how they wrapped up the entire Google event.

そして、これがGoogleのイベント全体を締めくくることになったのです。

So this is something that I found really cool, really fun.

このゲームは、私が本当にクールで楽しいと感じたものです。

I'm excited to see this play out, but they also talked about how this augmented reality technology is available for developers to develop on.

また、このAR(拡張現実)技術は、開発者が開発できるものであることも説明されました。

So you can use the Google Maps tools and their augmented reality tools to build games like that yourself.

Googleマップのツールと拡張現実のツールを使って、自分でこのようなゲームを作ることができるわけです。

They call it the AI Core geospatial API, and developers will have access to that API to build similar stuff to this augmented reality Space Invaders game.

AIコア地理空間APIと呼ばれるもので、開発者はこのAPIにアクセスし、拡張現実のスペースインベーダーゲームと同じようなものを作ることができるようになります。

That's pretty much my recap of everything that they talked about during Google I/O. I do have a 15-minute recap on Twitter again that will be linked below.

以上、Google I/Oで語られたことをほぼすべてまとめてみました。またTwitterで15分程度にまとめたものがあるので、そちらを下にリンクしておきます。

It really is a super edit of four hours down into just 15 minutes, and if you want to know about all of the various AI stuff they talked about, that's the place to go and watch it.

4時間をたった15分にまとめた超編集版で、彼らが話した様々なAIについて知りたい方は、ぜひご覧になってください。

Alright, so wrapping up the week.

さて、今週はこの辺で。

Stability AI announced the stable animation SDK, which means that developers can now build animation tools using Stability AI's animation program.

Stability AIは、stable animation SDKを発表しました。これは、開発者がStability AIのアニメーション・プログラムを使ってアニメーション・ツールを構築できるようになったことを意味します。

This looks very similar to D4M plus ControlNet, which I've talked about in previous videos.

これは、以前のビデオでお話したD4M plus ControlNetと非常によく似ています。

However, Stability AI's version is not open source.

しかし、Stability AIのバージョンはオープンソースではありません。

From what I can tell, they actually charge to use this API in your software.

私が知る限りでは、彼らは実際にあなたのソフトウェアでこのAPIを使用するために課金しています。

But it looks to be some sort of newer version of D4M technology.

しかし、D4M技術の新しいバージョンのようなものだと思われます。

Moving on, Anthropic announced a 100,000 context window for AI.

続いて、Anthropicは、AIの10万コンテキストウィンドウを発表しました。

When you're using something like ChatGPT, GPT-3, or GPT-4, and you put a big chunk of text in there, like let's say you're trying to read an online document and it says that you're out of tokens, there's not enough tokens to read this whole thing.

ChatGPT、GPT-3、GPT-4のようなものを使っていて、そこに大きなテキストの塊を入れたとき、例えばオンラインドキュメントを読もうとしているときに、「トークンが足りません」と表示されると、この全体を読むには十分なトークンがありませんよね。

That's because GPT-4 only lets you use 8,000 tokens at a time.

GPT-4では、一度に8,000トークンしか使えないからです。

The higher limit of GPT-4 gives you a 32,000 limit, but most people don't have access to that.

GPT-4の上限を上げれば32,000の制限がありますが、ほとんどの人はそれにアクセスできません。

I don't have access to that.

私もそうです。

Well, Anthropic gives us a 100,000 token limit, which gets us roughly 75,000 words.

Anthropicでは100,000トークンの制限があり、およそ75,000ワードになります。

So between your input text and the text that it outputs, you can have a combined 75,000ish words.

つまり、入力されたテキストと出力されたテキストを合わせると、75,000語程度になります。

In Anthropic's demo video, they actually upload a 240-page document and then ask questions of that giant document and get information back out of it.

Anthropicのデモビデオでは、実際に240ページのドキュメントをアップロードし、その巨大なドキュメントに質問をして情報を返しています。

You couldn't even come close to doing that with GPT-4 right now with their 8,000 token limit, which gets you roughly 6,000 words.

GPT-4の8,000トークンの制限では、6,000ワード程度では到底無理でしょう。

Although you can use a lot more words when using Anthropic, it's not yet available to everybody.

Anthropicを使えば、もっと多くの単語を使うことができますが、まだ誰でも使えるわけではありません。

You have to request access to get it.

Anthropicを使うことで、より多くの単語を使うことができますが、まだ誰でも使えるわけではありません。

And in my opinion, it's not quite as good as the output that you can get from something like GPT-4 right now.

また、私見ですが、GPT-4などの出力と比べると、今ひとつです。

If you really want to see the difference between something like GPT-4 and Claude, you can come over to nat.dev/compare, enter a prompt here, and actually see the output that you'd get out of Anthropic's Claude and OpenAI's GPT-4 and compare the differences.

GPT-4とClaudeの違いを本当に確かめたいなら、nat.dev/compareにアクセスしてプロンプトを入力し、AnthropicのClaudeとOpenAIのGPT-4の出力を実際に見て違いを比較することができます。

While Claude is much faster, GPT-4 just seems to be a lot more detailed.

Claudeの方がはるかに高速ですが、GPT-4の方がより詳細であるように見えます。

And there you have it.

以上です。

That's my wrap-up of all of the news that happened this week.

以上が、今週起こったニュースのまとめです。

I'm recording this on Thursday, so there might be more news on Friday that I didn't get to in this video.

このビデオは木曜日に録画しているので、金曜日にはこのビデオで紹介しきれなかったニュースがあるかもしれません。

But I'll try to cover it in next week's video if there was.

でも、もしあれば来週のビデオでカバーしようと思っています。

And if you like nerding out about all of this news and all of this cool tech and all of these cool tools, check out futuretools.io.

このようなニュースやクールな技術、クールなツールについてオタクになるのが好きなら、futuretools.ioをチェックしてみてください。

This is where I curate all of the coolest tools that I come across.

ここでは、私が出会った最もクールなツールをすべてキュレーションしています。

I add new tools every single day.

毎日、新しいツールを追加しています。

I also keep you in the loop with all of the latest AI news.

また、最新のAIに関するニュースもお届けしています。

It's probably the most up-to-date resource on AI news on the entire internet.

おそらく、インターネット上で最も最新のAIニュースに関する情報源でしょう。

I'm a little biased, but I'm pretty sure it is.

私は少し偏見を持っていますが、間違いなくそうです。

And if all of this is just too much for you, you just want a once-a-week TLDR of everything that's happening in the AI space, join the free newsletter.

もし、このような情報が多すぎて、AIの分野で起こっていることを週1回、TLDRで知りたいだけなら、無料のニュースレターに参加してください。

And I will cut it down to just the five coolest tools that I come across, just a handful of the most important news that came out from the week, a few YouTube videos, and one cool way to make money with AI.

私が出会った最もクールな5つのツール、その週に発表された最も重要なニュースのほんの一握り、いくつかのYouTube動画、そしてAIでお金を稼ぐためのクールな1つの方法に切り分けます。

It's the TLDR of the world of AI.

これは、AIの世界のTLDRです。

It goes out every Friday.

毎週金曜日に配信されます。

I won't send you any other emails throughout the week, and you can find it at futuretools.io by clicking on the Join the free newsletter button.

一週間を通して他のメールは送りません。Futuretools.ioの「Join the free newsletter」ボタンをクリックすると、ご覧いただけます。

So once again, the pace of this AI news really seems to be picking up, and I really really appreciate you tuning in to this channel to keep in the loop.

このように、AIのニュースは本当にペースが上がっているようです。このチャンネルにチャンネルを合わせていただき、常に情報をキャッチしていただけると本当にありがたいです。

If you like this video and you want to see more like it, make sure you give it a thumbs up.

この動画が気に入ったら、そしてこのような動画をもっと見たいなら、必ず親指を立ててください。

And if you're not subscribed already, subscribe to this channel because I make videos like this news video every Friday, and I make cool challenges and tutorials and various breakdowns of research and other cool AI info throughout the rest of the week.

毎週金曜日にはこのニュースビデオのようなビデオを作り、それ以外の週にはクールなチャレンジやチュートリアル、研究の様々な分解やその他のクールなAI情報を作っています。

So make sure you're subscribed if you aren't already.

まだ登録されていない方は、ぜひ登録しておいてください。

Thanks again for tuning in.

ご視聴ありがとうございました。

I do really really appreciate you.

本当にありがとうございました。

I'll see you guys in the next video.

では、次のビデオでお会いしましょう。

Bye.

それでは。

Thank you.

ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?