見出し画像

【マット・ウルフのAIニュース:GPT-4oとGemini 1.5 Flashの衝撃 】英語解説を日本語で読む【2024年5月18日|@Matt Wolfe】

OpenAIは新モデルGPT-4oを発表しました。GPT-4oはマルチモーダルで、音声、テキスト、画像、動画など様々な形式のデータを処理できます。また、無料版のChatGPTユーザーにも提供され、利用しやすくなりました。一方、OpenAIの共同創設者イリヤ・サツキヴァーが退社を発表し、AIの倫理や安全性を担当するチームのメンバーも辞職しました。Googleは年次イベント「Google I/O」で、100以上のAI関連の発表を行いました。新言語モデルGemini 1.5やプロジェクトAstraなど、革新的な技術が披露されました。Gemini 1.5は高速性と高精度を両立し、プロジェクトAstraではスマートフォンのカメラを使ってリアルタイムで物体を認識・分析できます。また、Gmail、Google Meet、Google検索などの主要サービスにもAIが導入され、利便性が大幅に向上しました。その他にも、Anthropic社がInstagramの共同創設者を採用し、AI対話ツール「Claude」の開発を加速させています。Hume.aiは感情を認識できるインタラクティブなポッドキャストアプリ「Chatter」をリリースしました。MicrosoftのBuildイベントやAppleのWWDCなど、今後も重要なAIイベントが続く見通しです。
公開日:2024年5月18日
※動画を再生してから読むのがオススメです。


This week kicked off a series of insane weeks where we're about to just get bombarded with AI news.

今週は、AIのニュースが次々と押し寄せる狂気の週の始まりとなりました。

This week, there was a ton.

今週は、たくさんのニュースがありました。

If we're looking closely here, most of it came out of either Google or OpenAI seeing as how OpenAI had their spring event on Monday and Google had their annual IO event on Tuesday.

ここでよく見てみると、ほとんどはGoogleかOpenAIから出てきたもので、OpenAIは月曜日に春のイベントを開催し、Googleは火曜日に年次のIOイベントを開催しました。

It's pretty much been a week that I can't really describe as anything else, but a giant announcement fest.

この週は、巨大な発表祭としか言いようがありません。

The week kicked off on Monday with OpenAI's spring update.

この週は、月曜日にOpenAIの春のアップデートで始まりました。

I actually did a full breakdown video of that spring update on the channel.

実際、その春のアップデートについての詳細な解説動画をチャンネルで公開しました。

You can find it.

それを見つけることができます。

It's called ChatGPT's amazing new models, feel human and it's free.

それはChatGPTの素晴らしい新しいモデル、人間らしく感じる、そして無料というタイトルです。

However, I do know a lot of people watch just this one end of the week video on this channel to get totally caught up with all the AI news.

ただし、このチャンネルの週末のビデオだけを見る人も多いことを知っています。そこで、すべてのAIニュースを完全に把握するためにこの1本のビデオを見る人もいます。

I will give you a quick recap.

簡単な要約をお伝えします。

Plus I'll share a few other things that they didn't talk about in that keynote that are pretty cool.

さらに、その基調講演で話されなかった他のいくつかのことも共有します。それらはかなりクールです。

The event kicked off with the announcement of GPT-4.

そのイベントは、GPT-4の発表で幕を開けました。

The O stands for Omni because it's a multimodal model that can handle audio and video and images and kind of everything you can throw at it.

Oはオムニの略で、音声やビデオ、画像など、あらゆるものを扱えるマルチモーダルモデルです。

Last week when we were all talking about this mysterious GPT two chat bot that was on the limsis.org website and we were all speculating that it was a new OpenAI model.

先週、limsis.orgのウェブサイトにあった謎のGPT twoチャットボットについて話していたとき、私たちは皆、それが新しいOpenAIモデルであると推測していました。

Well, we were right.

実際、私たちは正しかったのです。

This is what GPT-4o, was now this new GPT-4.

これが、今新しいGPT-4である、GPT-4oというものです。

Model is much faster.

このモデルははるかに高速です。

It's multimodal.

マルチモーダルです。

It understands audio, text, images, video and just generally seems a lot better of a model than what we were getting out of the previous GPT-4 model.

音声、テキスト、画像、ビデオを理解し、以前のGPT-4モデルよりもはるかに優れたモデルのように思えます。

But one of the big announcements that they made at this event was that it's going to be made available for all the free ChatGPT users.

しかし、このイベントでの大きな発表の1つは、すべての無料ChatGPTユーザーに利用可能になるということでした。

You don't even need to have a paid plan of ChatGPT to get access to the GPT store, the vision models, the browsing, the internet models, the memory, the advanced data analytics, AKA Code Interpreter.

ChatGPTの有料プランを持っていなくても、GPTストア、ビジョンモデル、ブラウジング、インターネットモデル、メモリ、高度なデータ分析、いわゆるコードインタプリタにアクセスする必要さえありません。

All of this is now available inside of the free ChatGPT model.

これらすべてが無料のChatGPTモデルの中で利用可能です。

If you are a ChatGPT Plus member, you're still going to get features a little bit earlier than the free members.

ChatGPT Plus会員であれば、無料会員よりも少し早く機能を利用できます。

You get, I think five times more outputs from ChatGPT.

ChatGPTからの出力は、たぶん5倍多いと思います。

You can use it a lot more, but free users now get access to all of the cool features that paid members have gotten for those developers out there.

それをより多く使用できますが、今では無料ユーザーも有料会員が利用してきたすべてのクールな機能にアクセスできます。

The GPT-4o API is actually two times faster than the last model.

GPT-4o APIは、前のモデルよりも2倍速いです。

It's 50% cheaper and has a five times higher rate limit.

それは50%安く、5倍の高いレート制限があります。

All those developers out there building with OpenAI is GPT-4 API.

OpenAIのGPT-4 APIで構築しているすべての開発者は、そこにいます。

You just got a lot better model for less expensive, but it was the conversational aspect of this new model that I think really had people talking.

より安価でより良いモデルを手に入れたばかりですが、この新しいモデルの会話の側面が本当に人々の話題になっていると思います。

It's very reminiscent of that movie, her, and even the voice sounds a little bit like Scarlett Johansson's voice from her.

その映画「her」を思い起こさせる非常に、そして声も少しスカーレット・ヨハンソンの声に似ています。

Here's a few examples of what they showed off.

こちらは彼らが披露した例のいくつかです。

A live demo right now.

今すぐライブデモを行います。

That's awesome.

それは素晴らしいですね。

Just take a deep breath and remember you're the expert.

深呼吸をして、あなたが専門家であることを思い出してください。

I like that suggestion.

その提案は気に入りました。

Let me try a couple of deep breaths.

深呼吸を数回試してみましょう。

Can you give me feedback on my breaths?

私の呼吸についてフィードバックをいただけますか?

Here I go.

では始めます。

Slowed you a bit there, Mark.

ちょっとペースを落としましたね、マーク。

You're not a vacuum cleaner.

あなたは掃除機ではありません。

They also showed off a demo where they had a math problem.

彼らは数学の問題を持ってデモを披露しました。

They use the camera to look at the math problem.

彼らはカメラを使って数学の問題を見ました。

It helped them solve the math problem step by step.

それは彼らが数学の問題を段階的に解決するのを助けました。

It didn't just give them the answer.

それは単に答えを与えるだけではありませんでした。

They asked for help to solve it.

彼らはそれを解決するための助けを求めました。

It actually walked them through how to solve it instead of just giving them the answer.

それは、答えをただ与えるのではなく、どのように解決すればいいかを実際に案内してくれました。

You can see it eventually helped them get to the correct answer.

最終的に正しい答えにたどり着くのを手助けしてくれたのが見えます。

They also showed off their new desktop app, which apparently is going to be available on Mac first at PC sometimes in the future.

しかし、将来的にはPCでも利用可能になる予定です。

But it works in the same way that you use the mobile app where you talk to the app.

しかし、モバイルアプリを使うのと同じように、アプリと会話をする形で機能します。

However, one huge difference is that it can actually see what's going on in your screen.

ただし、大きな違いは、実際に画面上で何が起こっているかを見ることができるということです。

You can see there's a little screen button here and you can allow it access to see what's going on in your screen to help you with code or debug, whatever you're working on.

ここに少し画面ボタンがあるのが見えますね。そして、コードやデバッグを手伝うために画面の中身を見る許可を与えることができます。

They showed it interpreting some data on a graph here and then they showed the capabilities of actually changing how it speaks, which is really cool.

ここでグラフ上のデータを解釈しているのを見せてくれました。そして、実際に話し方を変える能力を示しました。本当にクールですね。

It's so cool that I think you actually need to see the clip, but they're definitely trying to make it much more emotive.

本当にクールなので、実際にそのクリップを見る必要があると思いますが、彼らは確かにそれをより感情豊かにしようとしています。

I want you to tell them a bedtime story about robots and love.

彼らにロボットと愛についての就寝前のお話をしてほしいのです。

A bedtime story about robots and love.

ロボットと愛についての就寝前のお話。

I got you covered.

任せて。

Gather round, Barrett.

集まれ、バレット。

Once upon a time, in a world not too different from ours, there was a robot named bite.

昔々、私たちの世界とあまり変わらない世界に、バイトという名前のロボットがいました。

Bite was a curious robot, always explore the story, but I want a little bit more emotion in your voice, a little bit more drama.

バイトは好奇心旺盛なロボットで、常に物語を探求していましたが、声にもう少し感情を込めて、もう少しドラマを加えてほしいです。

Got it.

了解。

Let's add some drama.

Let's add some drama.

Once upon a time, in a world not too different from ours, there was a robot named bite.

Once upon a time, in a world not too different from ours, there was a robot named bite.

I really want maximal emotion, like maximal expressiveness, much more than you were doing before.

I really want maximal emotion, like maximal expressiveness, much more than you were doing before.

Understood.

Understood.

Let's amplify the drama.

Let's amplify the drama.

Once upon a time, in a world not too different from ours, there was a robot named bite.

Once upon a time, in a world not too different from ours, there was a robot named bite.

Bite was...

Bite was...

Can you do this in a robotic voice now?

Can you do this in a robotic voice now?

Initiating dramatic robotic voice.

Initiating dramatic robotic voice.

Once upon a time in a world not too different from ours, there was a robot named bite.

Once upon a time in a world not too different from ours, there was a robot named bite.

They also show that it can recognize your face and guess the sort of emotions you're going through based on your facial expressions.

お顔を認識し、表情から感情を推測することができることも示しています。

It looks like you're feeling pretty happy and cheerful with a big smile and maybe even a touch of excitement.

大きな笑顔で、おそらく幸せそうで陽気な気分のようですね。

Whatever's going on, it seems like you're in a great mood.

何があっても、とてもいい気分のようですね。

Care to share the source of those good vibes?

その良い気分の源を教えていただけますか?

Those were really the main things that they shared during this keynote presentation.

これらは、基調講演中に彼らが共有した主な内容でした。

It's worth the watch.

見る価値があります。

It's only 26 minutes to see the whole presentation and everything they showed off.

全体のプレゼンテーションを見るにはわずか26分ですし、彼らが披露したすべてを見ることができます。

However, there were some things that they didn't show in the presentation that they talked about in their blog post here.

ただし、プレゼンテーションでは紹介されなかったこともあり、彼らがブログ記事で話した内容があります。

They completely left out the fact that GPT-4o is actually an image generator as well.

GPT-4oが実際に画像生成器でもあるという事実は完全に省かれていました。

Here's an image that they generated of somebody writing on a whiteboard and the text is actually legible.

こちらは、白板に書いている人物の画像で、実際にテキストが読めるものです。

It's a lot of text too, which is not something we've seen really yet.

まだ本当に見たことのないものです。

But if you check out the blog post, which will be linked below the video called hello GPT-4o, they actually have a whole bunch of demo videos of it doing different stuff that they didn't show in their main keynote.

しかし、ビデオの下にリンクされるブログ投稿をチェックすれば、実際には、彼らがメインの基調講演で見せなかったさまざまなことをするデモビデオがたくさんあります。

You can watch some of these videos to see things like the two phones singing back and forth to each other and helping somebody prep for an interview and playing rock paper scissors and seeing how good it is at sarcasm and more math examples.

これらのビデオのいくつかを見ると、2台の電話がお互いに歌ったり、面接の準備を手伝ったり、じゃんけんをしたり、皮肉を言ったり、さらに数学の例を見たりすることができます。

There's a whole bunch of really cool demo videos that show off similar stuff to what they showed in the demo video there.

そこでデモビデオで見せたものに似た本当に素敵なデモビデオがたくさんあります。

But if you scroll down a little bit further, you've got this section called explorations of capabilities.

しかし、少しスクロールすると、能力の探求というセクションがあります。

It's got a dropdown of all of these other capabilities that it's got.

それには、持っている他の能力のドロップダウンがあります。

That they did not show off in the keynote, like poster creation for the movie detective input.

彼らが基調講演で見せなかった、映画探偵入力のためのポスター作成などの能力が含まれています。

Let's design another poster with two new characters.

新しい2つのキャラクターで別のポスターをデザインしましょう。

This is a picture of Alex nickel and a casual picture of Gabriel go.

これはアレックス・ニッケルの写真とガブリエル・ゴーのカジュアルな写真です。

They gave a description of what they're looking for in the poster and it, and it generated this picture here.

彼らはポスターで求めているものの説明をし、それに基づいてこの写真を生成しました。

It botched their names but managed to get both of their faces into the poster and write the word detective on it.

それらの名前を台無しにしたが、両方の顔をポスターに入れ、その上に探偵と書いた。

They asked it to do some cleanup and it got even closer.

彼らはそれに清掃をしてもらうよう頼んだら、さらに近づいた。

Look at that.

あれを見て。

Pretty cool poster.

かなりかっこいいポスターだ。

This was done with GPT-4o.

これはGPT-4oで行われました。

Here's another example that shows character consistency.

ここにはキャラクターの一貫性を示す別の例があります。

They created Gary the robot here and then prompted that same robot into different scenes.

彼らはここでロボットのゲイリーを作成し、その同じロボットを異なるシーンに促しました。

They uploaded the original image that it generated and then asked it to generate an image of him playing frisbee and it created the same character, but playing frisbee or he likes to program computers, same character at a computer, riding a bike, cooking, playing violin.

彼らは生成された元の画像をアップロードし、それからフリスビーを遊んでいる彼の画像を生成するように頼んだら、同じキャラクターを作成しましたが、フリスビーを遊んでいるか、コンピューターをプログラムするのが好きか、同じキャラクターがコンピューターで、自転車に乗って、料理をして、バイオリンを弾いています。

It all started with generating a character and then uploading the character.

すべてはキャラクターを生成してから、そのキャラクターをアップロードすることから始まりました。

It was able to consistently use that same character again.

それは常に同じキャラクターを再利用することができました。

This is really impressive stuff.

これは本当に印象的なものです。

Like why wasn't this stuff in the keynote?

なぜこれらの内容が基調講演に含まれていなかったのか、という感じですか?

Here's a comMira Murative coin that they made for GPT-4o and then they actually had it generate the sounds of coins clanging on metal.

GPT-4oのために作成されたコミュニケーションコインがあります。そして、実際にそれを使ってコインが金属にぶつかる音を生成しました。

They have this photo to caricature ability where they upload an image like this and then it makes a caricature version of that image or here's another one where it turned that into this sort of cartoony caricature image.

彼らは写真を風刺画に変換する機能を持っています。このような画像をアップロードすると、その画像の風刺画バージョンを作成します。また、これをカートゥーン風の風刺画画像に変換した例もあります。

Here's another example and another example and another example.

もう1つの例がこちら、そしてもう1つの例がこちら、そしてもう1つの例がこちらです。

This looks like it's pretty impressive.

これはかなり印象的に見えます。

They were able to do this with one single input image.

彼らは1つの入力画像でこれを行うことができました。

They have text to font where you can describe a font and it will actually generate entire fonts for you.

フォントを記述すると、実際にフォント全体を生成してくれるテキストからフォントへの機能があります。

3D object synthesis. What?

3Dオブジェクト合成。何?

How was this not in the main keynote, a realistic looking 3d rendering of the OpenAI logo with OpenAI shown below.

メインの基調講演にこれが含まれていなかったのはなぜですか、OpenAIのロゴのリアルな見た目の3DレンダリングがOpenAIの下に表示されています。

It created this.

これを作り出しました。

It then created, it looks like five more images of it at different angles and then animated it into this 3d logo here.

それから、異なる角度でそれを見たような5つの画像を作成し、それをこの3Dロゴにアニメーション化しました。

Here's another one of a sea lion where it basically generated the image at multiple angles.

こちらは、アシカのもので、基本的に画像を複数の角度で生成しました。

Once it had all of the angles, it was able to create a 3d reconstruction with all of the images.

すべての角度を持っていると、すべての画像で3D再構築を作成できました。

They have examples of brand placement here where they uploaded the OpenAI logo and this coaster here.

ここには、OpenAIロゴとこのコースターをアップロードしたブランド配置の例があります。

It actually transferred that logo onto the coaster.

実際にそのロゴをコースターに転送しました。

After you watch that OpenAI video where they show off the speaking and it's sounds like her and they're talking back and forth and having conversations and helping with math, definitely come check out the OpenAI blog post, watch some of these other demos, but then click through the exploration of capabilities of some of the other stuff they did with it because this is so much more powerful than what they actually led on in their keynote on Monday.

OpenAIのビデオを見た後、話しているように聞こえるし、お互いに話して数学の手伝いをしているようなものを見せているOpenAIのビデオを見た後、OpenAIのブログ投稿をチェックして、他のデモをいくつか見てから、それをクリックして、月曜日の基調講演で実際にリードしたものよりもはるかに強力であることをいくつかの他のもので行った機能の探索を進めてください。

Like they could have done what Google did and just made announcement after announcement after announcement and showed off all this stuff one by one, but they kind of pared it down and just showed you a few of the features, which is crazy because some of the stuff here to me is actually more impressive than what they showed in their demo on Monday.

Googleがやったように、アナウンスメントを次々に行い、一つずつすべてのものを披露することができたかもしれませんが、それを簡素化して、実際にはいくつかの機能を示しているだけなのは狂っています。ここにあるいくつかのものは、実際には月曜日のデモで示されたものよりも印象的だと思います。

The day after their presentation Sam Altman was interviewed on the Logan Bartlett show.

プレゼンテーションの翌日、サム・アルトマンはローガン・バートレット・ショーでインタビューを受けました。

One of the questions he was asked was what use cases have you found for this new tech that you just put out that has been really helpful for you?

新しいテクノロジーを導入したばかりで、それがあなたにとって本当に役立つと思われるユースケースは何ですか?

One surprising one is putting my phone on the table while I'm really in the zone of working and then without having to change windows or change what I'm doing, using it as another channel.

驚くべきことの1つは、本当に集中して作業しているときに、テーブルに電話を置いて、ウィンドウを変更したり、やっていることを変更せずに、別のチャンネルとして使用することです。

I'm working on something I would normally stop what I'm doing, switch to another tab, Google something, click around or whatever.

普段なら何をしていることを止めて、別のタブに切り替えて、何かをGoogleで検索して、クリックしているところです。

But while I'm still doing it to just ask and get an instant response without changing from what I was looking at on my computer, that's been a surprisingly cool thing.

しかし、私がまだそれをしている間に、コンピューターで見ていたものを変えることなく、ただ尋ねて即座の応答を得ることができるのは、驚くほどクールなことでした。

GPT-4o and all of the capabilities we just saw weren't the only news to come out of OpenAI this week.

GPT-4oと私たちが見たすべての機能がOpenAIから出た唯一のニュースではありませんでした。

In fact, on Tuesday, during the big Google IO event, we got word that Ilya Sutskever, one of the original founders over at OpenAI who started the company up with Sam Altman decided to step away.

実際、火曜日に、大きなGoogle IOイベント中に、OpenAIの元共同創設者であり、サム・アルトマンと会社を立ち上げたイリヤ・サツキヴァーが退くことを決めたという情報を得ました。

If you remember back in November of 2023 Sam Altman was fired and then brought back in.

2023年11月にサム・アルトマンが解雇され、後に復帰したことを覚えていますか。

Well, Ilya was one of the people that was on the board at the time that made the decision to fire Sam.

さて、イリヤは当時サムを解雇する決定を下した取締役会の一員でした。

He then regretted his decision, just made a public apology on X said it was a mistake to get rid of Sam, but then nobody really heard from Ilya since until this week when we got word that Ilya was stepping away.

その後、彼は自分の決定を後悔し、Xで公の謝罪をし、サムを解雇するのは間違いだったと述べましたが、その後、イリヤからはこの週まで誰も聞いていませんでした。

I can only speculate at this point, but my guess is that he wasn't really a fan of the direction that OpenAI is heading in.

この時点では推測するしかありませんが、彼はおそらくOpenAIが進む方向に本当に賛成できなかったのだと思います。

Ilya himself is a researcher.

イリヤ自身は研究者です。

He's an academic.

彼は学者です。

I believe he loves the science and the technology behind it.

私は彼がその背後にある科学と技術を愛していると信じています。

He's less of a fan of the monetization, capitalization of the technology.

彼は技術の商品化や資本化にはあまり賛成ではありません。

I think he sees the direction that's all headed and deciding that that's not really where he wants to go.

私は彼が全体の方向性を見て、本当にそこに進みたくないと決めていると思います。

Again, just speculation.

再び、単なる推測です。

I have no conversations with anybody at OpenAI, so I don't know for sure, but that's kind of the vibe that's going around about it.

OpenAIの誰とも会話をしていないので、確かではありませんが、それが周囲で流れている雰囲気だということです。

It seems like Ilya left on good terms.

イリヤは良好な条件で去ったようです。

He said, after almost a decade, I've made the decision to leave OpenAI.

彼は、ほぼ10年間の後、OpenAIを去る決断をしたと述べました。

The company's trajectory has been nothing short of miraculous.

その会社の軌跡は奇跡的と言っても過言ではありません。

I'm confident that OpenAI will build AGI that is both safe and beneficial under the leadership of Sam, Greg, and Mira.

田中、山田、そして鈴木のリーダーシップのもと、OpenAIが安全で有益なAGIを構築すると確信しています。

It was an honor and a privilege to have worked together and I will miss everyone dearly so long.

一緒に働けたことは光栄であり、皆さんが大切な存在であることを心から感じています。

Thanks for everything.

すべてに感謝します。

I'm excited for what's to come next project that is very personally meaningful to me about which I will share details in due time.

私は次のプロジェクトにワクワクしています。それは私にとって非常に意義深いものであり、適切な時期に詳細を共有します。

He is moving on to some other project.

彼は他のプロジェクトに移ることになりました。

He's just being kind of hush hush about it right now.

彼は今は少し口ごもっているだけです。

Sam also took to Twitter to say nice things about Ilya.

サムもTwitterでイリヤについて素敵なことを言いました。

Ilya and OpenAI are going to part ways.

イリヤとOpenAIは別れることになります。

It's very sad to me.

私にとってとても悲しいです。

Ilya is easily one of the greatest minds of our generation, a guiding light of our field and a dear friend.

イリヤは間違いなく私たちの世代で最も優れた頭脳の一つであり、私たちの分野の指針であり、そして大切な友人です。

OpenAI would not be what it is without him.

OpenAIは、彼なしでは存在しないでしょう。

He has something personally meaningful that he's going to go work on.

彼は個人的に意味のあることがあって、それに取り組むつもりです。

They have a new chief scientist.

彼らには新しい最高科学者がいます。

His name is Jakub Pachocki.

その名前はヤクブ・パホツキです。

But again, it seems like he left on good terms.

しかし、再び、彼は良好な条件で去ったようです。

Who knows what's really going on behind the scenes.

裏で実際に何が起こっているかは誰にもわかりません。

But after Ilya made the announcement that he was stepping away, we got word that more people at OpenAI were also leaving, including key members of the super alignment team, the people that are there to make sure that AI doesn't go rogue and try to kill us all.

しかし、イリヤが彼が離れると発表した後、OpenAIの他の人々も辞職するという情報が入ってきました。その中には、AIが暴走して私たち全員を殺そうとしないようにするためのスーパーアライメントチームの主要メンバーも含まれています。

Essentially, according to this article, Jan Leek, Leopold Aschenbrenner and William Saunders all quit.

本質的には、この記事によると、ジャン・リーク、レオポルド・アッシェンブレナー、ウィリアム・サンダースの全員が辞職しました。

I'm sure I butchered some of those names, but that's besides the point.

名前のいくつかは間違っているかもしれませんが、それは重要ではありません。

These are all people that actually didn't sign the memo early on when everybody was trying to get Sam Altman back.

これらは、実際にはサム・アルトマンを取り戻そうとしていたときに、メモに署名しなかった人々です。

These people that left, according to this article on Gizmodo here, were some of the holdouts that weren't signing notes to get Sam Altman back into the company.

社員たちが去った人たちは、こちらのGizmodoの記事によると、サム・アルトマンを会社に戻すための署名をしていなかった抵抗勢力の一部だったそうです。

These are the same people that left right when Ilya left.

これらは、イリヤが去ったときに同じ人たちです。

If I had to guess, I think Ilya made the decision to leave quite a while ago and they sort of timed the decision with the GPT-4o announcement and Google build event and all that stuff that was going on to sort of bury it a little bit.

推測すると、イリヤはかなり前から去る決定をしたと思います。そして、GPT-4oの発表やGoogleのイベントなどと時期を合わせて、それを少し埋めるために決定をしたのだと思います。

They didn't want this news of Ilya leaving to be the main hype in the news cycle right now.

彼らは、イリヤが去るニュースが今、ニュースサイクルの中心になることを望んでいませんでした。

They sort of just squeezed in the news among everything else that was happening.

彼らは、起こっているすべてのことの中にニュースをちょっとだけ挟み込んだだけでした。

That's kind of my feeling on what's going on here.

これが私の今起こっていることに対する感じ方です。

The very next day after the OpenAI event was Google IO Google's annual event where they make a ton of announcements.

OpenAIのイベントの翌日は、Googleの年次イベントであるGoogle IOでした。そこではたくさんの発表が行われます。

This year, again, the announcements were all about AI.

今年も、発表はすべてAIに関するものでした。

It's pretty clear at this point that OpenAI is strategically planning their announcements to happen right around the time Google does their announcements because they always seem to be trying to overshadow Google.

この時点でかなり明らかですが、OpenAIは戦略的に自分たちの発表をGoogleの発表のちょうどその時期に行うよう計画しているようです。常にGoogleを上回ろうとしているようです。

While OpenAI sort of had one big announcement, they were really sort of showing off GPT-4o and the voice capability and how to use it like a voice assistant, Google took a different approach and just bombarded us with AI announcements.

OpenAIは一つの大きな発表を行った一方、実際にはGPT-4oや音声機能を披露し、音声アシスタントのように使用する方法を示していましたが、Googleは異なるアプローチを取り、AIに関する発表を連発しました。

In fact, Google themselves put out a blog post called 100 things we announced at IO 2024.

実際、Google自体が「IO 2024で発表した100のこと」というブログ投稿を出しています。

If you want to listen to this article, it's 21 minutes long.

この記事を聞きたい場合、21分の長さです。

But again, I also did my own breakdown of this.

しかし、私自身もこれについて独自の解説をしました。

You can find it here on YouTube called Google just took over the AI world, a full breakdown.

YouTubeで見つけることができます。GoogleがAIの世界を完全に支配した、完全な解説というタイトルです。

In that video, I walked through all of my thoughts from Google IO and all of the various announcements.

そのビデオでは、Google IOからの私の考えと様々な発表をすべて紹介しました。

But for those of you who this is the one video per week that you tune into from me, I'll give you the quick highlights of what I thought was the most interesting.

私のビデオを毎週1本だけ見ている方々のために、最も興味深いと思われるポイントを簡単に紹介します。

They introduced Gemini 1.5 Flash, a new Large Language Model that's faster, but maybe not always the most intelligent.

彼らはGemini 1.5 Flashという新しい大規模言語モデルを導入しました。これはより速いですが、常に最も知的とは限りません。

If you need it to respond fast, you use this model.

迅速な応答が必要な場合は、このモデルを使用します。

If you need it to have the best possible output, you use the Gemini 1.5 Pro model, both 1.5 pro and 1.5 flash have a 1 million token context window with plans to jump it to a 2 million token context window.

最高の出力を必要とする場合は、Gemini 1.5 Proモデルを使用します。1.5 Proと1.5 Flashの両方には、100万トークンのコンテキストウィンドウがあり、それを200万トークンのコンテキストウィンドウに拡張する計画があります。

If you don't know what that means, one token is about 75% of one word.

それが何を意味するかわからない場合、1つのトークンは約1語の75%です。

1 million tokens means between the amount of text you input for the Large Language Model and the text you get back in the response combined can be about 750,000 words.

100万トークンとは、大規模言語モデルに入力するテキストの量と、応答で返ってくるテキストを合わせると約75万語になることを意味します。

When it jumps to a 2 million token context window, you can now input and output about 1.5 million words.

200万トークンのコンテキストウィンドウに移ると、約150万語の入力と出力が可能になります。

The biggest showstopper from the event in my opinion was when they showed off project Astra with project Astra, they were able to take a mobile phone and it was able to see what the phone was looking at.

私の意見では、そのイベントで最も注目すべき点は、プロジェクトAstraを披露したときで、プロジェクトAstraを使って、携帯電話を取り、その携帯電話が何を見ているかを見ることができました。

You could ask questions about what it was looking at and even draw on your phone and get more details.

その携帯電話が何を見ているかについて質問することができ、さらに携帯電話に描画して詳細を得ることができました。

Here's an example of what that looked like.

それがどのように見えたかの例を示します。

Tell me when you see something that makes sound.

音を出すものを見たら教えてください。

I see a speaker which makes sound.

音を出すスピーカーが見えます。

What is that part of the speaker called?

そのスピーカーの部分は何と呼ばれますか?

That is the tweeter.

それはツィーターです。

It produces high frequency sounds.

それは高周波数の音を出します。

The phone was actually watching everything that the camera can see, but it also remembered everything that it saw during this whole process.

お電話は実際にカメラが見ているすべてを見ていましたが、このプロセス全体で見たすべても記憶していました。

Let me fast forward this a little bit because there was one really interesting part here.

ここに非常に興味深い部分があったので、少し早送りさせてください。

Notice how she casually moves past the glasses there.

彼女が眼鏡のそばをさりげなく通り過ぎるのに気づいてください。

Well, let me zoom ahead a little bit further and check this out.

さて、もう少し先に進んでこれをチェックしてみましょう。

Do you remember where you saw my glasses?

私の眼鏡を見た場所を覚えていますか?

Yes, I do.

はい、覚えています。

Your glasses were on the desk near a red apple.

あなたの眼鏡は、赤いリンゴのそばの机の上にありました。

You can see it remembered where those glasses are.

それがどこに眼鏡があるかを覚えているのがわかります。

Here's a little Easter egg that most people probably didn't catch.

ほとんどの人が気づかなかったかもしれない、ちょっとしたイースターエッグがここにあります。

If you watch what happens next, this might be a sneak preview of what Google's working on next, because she grabs the glasses here, puts them on, and then you no longer actually see her doing this with her phone.

次に起こることを見ていると、これはおそらくGoogleが次に取り組んでいるものの予告編かもしれません。なぜなら、彼女はここでメガネを取り、かけて、その後、実際にはもう彼女が電話を使っている様子は見られません。

It appears from that point on, she's doing it with glasses.

その時点から、彼女はメガネを使っているようです。

They didn't specifically talk about this in the keynote, but if you watch the video, that's clearly what happened.

基調講演で具体的には話されませんでしたが、ビデオを見ると、それが明らかに起こったことがわかります。

Just watch the rest here.

ここで残りを見てください。

She puts her phone down, puts on the glasses.

彼女は電話を置き、メガネをかけます。

You see her wearing glasses.

彼女がメガネをかけているのが見えます。

What can I add here to make this system faster?

このシステムをより速くするためにここに何を追加できますか?

Adding a cache between the server and database could improve speed.

サーバーとデータベースの間にキャッシュを追加すると、速度が向上するかもしれません。

Notice how there's some text on the screen there.

画面にテキストがあるのに気づきますか。

I'm assuming that's what she's seeing in her glasses as she's talking.

彼女が話している間に、彼女がメガネで見ているのがそれだと仮定しています。

It might have like a little bit of a heads up display in the glasses, a little bit of an augmented reality element to them.

メガネには、ヘッドアップディスプレイのようなものがあり、それには少し拡張現実の要素があるかもしれません。

But they haven't actually confirmed this.

しかし、彼らは実際にはこれを確認していません。

I'm just reading into this from seeing this in the video.

私はただ、このビデオでこれを見て推測しているだけです。

Let's take a peek down here in the corner.

ここの隅をちょっと覗いてみましょう。

We can see her wearing these glasses here.

ここで彼女がこれらのメガネを着用しているのが見えます。

This might be the next iteration of Google Glass.

これは、次のGoogle Glassの進化かもしれません。

I mean, Google Glass was ahead of its time because now we're seeing stuff like the Meta Ray Bans actually become popular.

おっしゃる通り、Google Glassは時代を先取りしていました。なぜなら今、Meta Ray Bansのようなものが実際に人気を博しているからです。

This was one of the things that I actually got to demo in person.

これは実際に私が直接デモを体験したものの1つでした。

You can see they had a little camera up top looking down at these objects here.

上部に小さなカメラがあり、ここで物体を見下ろしているのが見えます。

You were able to ask questions about the objects.

物体について質問することができました。

It would tell you stories about a T-Rex and a duck.

T-Rexやアヒルに関する物語を教えてくれました。

You can see he just added this donut here.

ここに彼がこのドーナツを追加したのが見えます。

It would add the donut into this story and all of this stuff worked in real time.

そのドーナツを物語に追加し、すべてがリアルタイムで機能していました。

This was me shooting from my 360 camera.

これは私が360度カメラで撮影したものです。

You can see me watching here.

ここで私が見ているのが見えます。

But I actually did get to demo this and it seemed to work as they showed it off in their demos on stage, they also showed off this feature in Notebook LLM where you can throw a whole bunch of data in there, throw in docs.

しかし、実際にこれをデモしてみたところ、ステージで披露されたデモで示されたように機能するようでした。また、Notebook 大規模言語モデルでこの機能も披露されました。データをたくさん投入し、文書を投入することができます。

Spreadsheets and your own audio messages and all sorts of stuff into this Notebook LLM and then it would actually create this interactive podcast for you where it would explain whatever information you dumped into it.

スプレッドシートや独自の音声メッセージなどをこのノートブック大規模言語モデルに入れると、実際には、そこに入れた情報を説明するインタラクティブなポッドキャストを作成します。

You can kind of cut it off and ask questions of it.

それを切り取って質問することができます。

It was really, really cool.

それは本当にとてもクールでした。

They showed off Imagine 3, which is their new text to image model that's getting really, really impressive.

彼らはImagine 3を披露しました。これは彼らの新しいテキストから画像へのモデルで、非常に印象的です。

These images are looking much more realistic than the previous generations of Imagine.

これらの画像は、Imagineの以前の世代よりもはるかにリアルに見えます。

Here's some more examples.

ここにさらなる例があります。

These are really approaching Midjourney level of realism, in my opinion.

これらは、私の意見ではMidjourneyレベルのリアリティに本当に近づいています。

But what was even cooler than Imagine 3 was when they showed off Veo, their new video generation model, which looks like it wants to compete with Sora.

しかし、Imagine 3よりもさらにクールだったのは、彼らがVeoを披露したときでした。これは、Soraと競合したいと思っている新しいビデオ生成モデルです。

I don't feel like the quality of the demos they showed are quite up to the same par as what we see out of Sora.

私は、彼らが示したデモの品質が、私たちがSoraから見ているものとはかなり異なると感じています。

But this is like the second best video generation model we've seen so far behind Sora.

しかし、これは、Soraに続くこれまでに見た中で2番目に優れたビデオ生成モデルのようです。

It creates videos in 1080p.

それは1080pのビデオを作成します。

From my understanding, it can actually generate videos over one minute long.

私の理解では、実際に1分以上のビデオを生成することができます。

They even managed to tap Donald Glover to make videos using this new Veo video model.

彼らは新しいVeoビデオモデルを使用してビデオを作成するためにドナルド・グローバーを起用することさえ成功しました。

We'll get to see the film that he produced using this sometime soon.

彼がこれを使って制作した映画を近々見ることができるでしょう。

While Sora, we have absolutely no clue when they're going to make it available.

Sora、彼らがそれをいつ利用可能にするか全くわかりません。

Veo is actually going to start letting people use it.

Veoは実際に人々にそれを使わせ始める予定です。

They actually have a waiting list over on the AI Test Kitchen website and apparently are going to start letting people actually use this one.

彼らは実際にAIテストキッチンのウェブサイトで待ちリストを持っており、明らかに人々にこれを実際に使わせ始める予定です。

Sora, who knows, we may not even see it this year in our own hands.

Sora、誰が知っているでしょう、私たち自身の手で今年これを見ることさえできないかもしれません。

The Google Search got some upgrades as well using AI, where now they claim that Google will do the Googling for you to give this example of multi-step reasoning capabilities where they were able to ask a question to Google, like find the best yoga or Pilates studios in Boston and show details on their intro offers and walking time from Beacon Hill, and it would take in that entire question/prompt into Google, do a search and answer all of that for you.

Google検索もAIを使用してアップグレードされ、今ではGoogleがあなたのためにGoogle検索を行うと主張しています。これは、Googleに質問をし、ボストンの最高のヨガやピラティススタジオを見つけ、それらの紹介オファーやビーコンヒルからの徒歩時間を表示するよう求めることができ、その質問/プロンプト全体をGoogleに取り込み、検索を行い、それらすべてをあなたのために回答するという多段階の推論能力の例を示しています。

Another really cool thing they showed off was in Gmail.

ジーメイルで披露されたもう1つの本当にクールな機能は、

You'll be able to have this little chat box and ask questions like catch me up on emails from Maywood Park Elementary School.

この小さなチャットボックスを持って、例えば「Maywood Park Elementary Schoolからのメールを教えて」といった質問ができます。

It will look through all of your emails related to school and give you a nice recap so you don't have to skim through tons of emails.

学校に関連するすべてのメールを検索し、たくさんのメールをざっと見る必要がないように、素敵な要約を提供します。

You get it all in one place.

すべてを1か所で受け取れます。

They're also going to have that in Google Meet and pretty much the entire Google suite of tools are going to get this little sidebar here.

それはGoogle Meetでも利用できるようになり、Googleのツール全体がこの小さなサイドバーを取得する予定です。

They even said later this year in labs, you can ask Gemini to automatically organize email attachments in Drive, generate a sheet with the data and then analyze it for you.

彼らはさらに、今年後半にはラボで、GeminiにDrive内のメール添付ファイルを自動的に整理し、データを含むシートを生成し、それを分析してくれるように頼むことができると述べました。

They also showed off Ask Photos, which was a really cool feature where it knows the context of all the photos and you can say when did my daughter learn to swim?

彼らはまた、Ask Photosを披露しました。これは、すべての写真のコンテキストを知っている本当にクールな機能で、例えば「娘が泳ぎを覚えたのはいつですか?」と言うことができます。

It would look through all your photos and find times where she was swimming and tell you when she learned to swim or remind me what themes we've had for Lena's birthday parties.

すべての写真を検索し、彼女が泳いでいた時期を見つけ、彼女が泳ぐことを覚えた時期を教えてくれたり、「レナの誕生日パーティーでどんなテーマをやったかを思い出させて」と言うことができます。

Here are the themes for Lena's last four birthdays, third a princess celebration, fourth under the sea, fifth and sixth magical unicorn parties.

ここには、レナの過去4回の誕生日のテーマがあります。3回目はプリンセスのお祝い、4回目は海の中、5回目と6回目は魔法のユニコーンパーティーです。

It found all that information by just looking at the photos.

それは、ただ写真を見るだけで、その情報をすべて見つけました。

One really, really interesting moment that the crowd kind of went crazy for was when they showed this feature where when somebody's trying to scam you on a phone call, not a text message on an actual phone call, it will try to detect that and warn you that you might be getting scammed right now.

人々が熱狂したのは、実際の電話で詐欺をしようとしている人がいる場合、テキストメッセージではなく実際の電話で、それを検出してあなたに詐欺を受けている可能性があることを警告しようとするこの機能を紹介したときでした。

Check this out.

これを見てください。

Let's say I get rudely interrupted by a unknown caller right in the middle of my presentation.

仮にプレゼンの最中に知らない電話が失礼な形で割り込んできたとしましょう。

Hello.

もしもし。

I am calling from Safe More Bank Security Department.

セーフモア銀行セキュリティ部からお電話しています。

Am I speaking to Dave?

デイブさんですか?

This is Dave kind of in the middle of something.

ちょっと忙しいんですが、デイブです。

We've detected some suspicious activity on your account.

あなたのアカウントで怪しい活動を検出しました。

It appears someone is trying to make unauthorized charges.

誰かが不正な請求をしようとしているようです。

What kind of charges?

どんな請求ですか?

We can't give you specifics over the phone, but to protect your account, I'm going to help you transfer your money to a secure account we've set up for you. And look at this.

お電話で詳細をお伝えすることはできませんが、アカウントを保護するために、お手伝いして安全な口座にお金を移動することになります。そして、これをご覧ください。

My phone gives me a warning that this call might be a scam.

私の携帯電話が、この電話が詐欺かもしれないと警告しています。

Gemini Nano alerts me the second it detects suspicious activity, like a bank asking me to move my money to keep it safe.

Gemini Nanoは、銀行がお金を移動して安全に保つように求めるような疑わしい活動を検出するとすぐに私に警告を出します。

Everything happens right on my phone.

すべては私の携帯電話で行われます。

The audio processing stays completely private to me and on my device.

オーディオ処理は完全に私にプライベートであり、私のデバイス上で行われます。

We're currently testing this feature and we'll have more updates to share later this summer.

現在、この機能をテスト中であり、今夏後半にさらなるアップデートを共有する予定です。

There were a ton more announcements.

他にもたくさんの発表がありました。

Again, I shared an article that had a hundred different announcements.

再び、100以上の異なる発表が含まれた記事を共有しました。

It was just announcement overload.

単に発表が過多だったのです。

Again, I also made a whole dedicated video just talking about the announcements and my feelings around those announcements.

もう一つ、私はアナウンスについて話す専用のビデオも作りました。

If you do want to go deeper and learn even more about what happened at Google, I definitely check out that video as well.

もしGoogleで起きたことをもっと深く知りたいと思うなら、そのビデオもぜひチェックしてみてください。

I think Joshua Scigala here sort of summed up the two events.

ここでのジョシュア・シガラは、その2つのイベントを要約したと思います。

The difference between Google and OpenAI.

GoogleとOpenAIの違いです。

OpenAI demos cool stuff and I know where to go try it.

OpenAIは素敵なものをデモしていて、どこで試すかはわかっています。

Google demos 50 things with all sorts of names, random places to go use them, vague release dates and random permission walls I need to pay, apply or move country for.

Googleはさまざまな名前の50のものをデモし、ランダムな場所に行ってそれらを使う方法、曖昧なリリース日、支払う必要のあるランダムな許可壁があります。

I'm totally lost and thus disinterested.

私は完全に迷子になってしまい、それゆえに興味を持てません。

I don't totally agree with that.

私はそれに完全に同意していません。

I am super interested in what Google's releasing.

私はGoogleがリリースするものに非常に興味を持っています。

I think they showed off some really, really cool stuff.

彼らは本当に素晴らしいものを披露したと思います。

I also met a lot of the people that were developing these products.

私はこれらの製品を開発している多くの人々にも会いました。

I met a lot of the product managers and the leads on some of these things.

私は多くのプロダクトマネージャーや、これらの製品のリーダーにも会いました。

The people building this stuff were really excited about it.

この製品を作っている人々は本当にそれに興奮していました。

They were really passionate about what they were building.

彼らは自分たちが作っているものに本当に情熱を持っていました。

When you go to events like this, and I did mention this in my other video, when you go to events like this, you get a better concept of the humanity underneath it all.

このようなイベントに行くと、他のビデオでも言及しましたが、このようなイベントに行くと、それを支える人間性の概念をより良く理解できます。

Google is a big sort of faceless corporation.

Googleは大きな無表情な企業です。

But you go to an event like this and you meet all the people building this stuff.

しかし、このようなイベントに行くと、この製品を作っているすべての人々に会うことができます。

They're just as interested in AI and progressing this stuff forward and just as nerdy and passionate and really excited about the work they're putting in.

彼らもAIに興味を持ち、この分野を前進させることに熱心で、同じようにオタクで情熱的で、自分たちが取り組んでいる仕事に本当に興奮しています。

I know a lot of people are rooting against Google.

多くの人々がGoogleに反対していますが、

But then when you meet the people that are building this stuff and are excited, you don't want to root against them.

しかし、この製品を作っている人々に会って、彼らが興奮しているのを見ると、彼らに反対したくなくなります。

They're building this stuff that's really cool that they're passionate about.

おそらく彼らが情熱を持って取り組んでいる本当にクールなものを作っています。

Google gives them a place to go and try this out and build it.

Googleは彼らに試してみる場所を提供し、それを構築する機会を与えています。

But I do agree that Google has some issues with the naming conventions.

しかし、私はGoogleが命名規則に関する問題を抱えていることに同意します。

I haven't talked to one person at Google who admitted that it's sort of an inside joke at Google that the naming of all this stuff is confusing and hard to keep track of.

Googleで誰か一人として、このすべての命名が混乱し、追跡が難しいということを認めた人には会っていません。

They also do have a tendency to make big announcements and say it's coming soon and then take forever to release it.

彼らはまた、大々的な発表をする傾向があり、すぐにリリースすると言ってから実際には長い時間を要することがあります。

I mean, that's just the reality.

つまり、それが現実です。

But that does not diminish what they're showing.

しかし、それが示していることを減じるものではありません。

The tech that they showed off is really cool.

彼らが披露したテクノロジーは本当にクールです。

We just want to get our hands on it.

私たちはそれに触れたいと思っています。

All right, let's move on past the OpenAI and Google News, because, again, I've talked about it a lot in this video already.

さて、この動画で既に多く話しているOpenAIとGoogle Newsを超えて進みましょう。

I made two other videos about those two events already.

私はすでにそれら2つのイベントについて他の2つのビデオを作成しました。

But there was some other albeit more minor updates from some other companies.

しかし、他のいくつかの企業からは、より小規模な更新がありました。

I'll just quickly run through those for you now as well, starting with Anthropic.

私はそれらをすぐにお伝えしますが、まずAnthropicから始めます。

Anthropic hired Instagram's co-founder as its head of product.

AnthropicはInstagramの共同創業者をプロダクトの責任者として雇いました。

Mike Krieger, who was one of the co-founders at Instagram and also co-founder of the Artifact app, a news app that used AI to help surface relevant news for you, joined Anthropic as the company's chief product officer.

Instagramの共同創業者の1人であり、またArtifactアプリの共同創業者でもあるマイク・クリーガーが、Anthropicの最高プロダクト責任者として入社しました。

It sounds like his role at the company is to engineer good user interfaces and user experiences to get more people excited and talking about and using Anthropic's tools like Claude.

彼の役割は、会社で良いユーザーインターフェースとユーザーエクスペリエンスを設計し、より多くの人々がAnthropicのツールであるClaudeに興奮し、話し合い、使用するようにすることのようです。

While we're on the topic of Anthropic, they just released a new prompt generator.

Anthropicについて話している最中ですが、彼らは新しいプロンプトジェネレーターをリリースしました。

You can now generate production ready prompts in Anthropic console.

今では、Anthropicコンソールで本番用のプロンプトを生成することができます。

Describe what you want to achieve.

何を達成したいかを説明してください。

Claude will use prompt engineering techniques like chain of thought reasoning to create more effective, precise and reliable prompts.

Claudeは、プロンプトエンジニアリングの技術を使用して、より効果的で正確かつ信頼性の高いプロンプトを作成します。

If you go to console.Anthropic.com, you can see a little menu here, including one that says generate a prompt.

console.Anthropic.comに行くと、ここに少しメニューが表示されますが、その中にプロンプトを生成すると書かれたものがあります。

If we click generate a prompt, we can give it some minor information about what we want the prompt to achieve.

プロンプトを生成をクリックすると、プロンプトが達成したい内容について少しの情報を入力することができます。

Let's say come up with several ideas for a YouTube title, for a video recapping a lot of news in the AI world for the past week.

例えば、過去1週間のAI世界のニュースをまとめたビデオのYouTubeタイトルのいくつかのアイデアを考えてみましょう。

Let's generate the prompt and see what it comes up with.

プロンプトを生成して、どのようなものが出てくるか見てみましょう。

You can see it generated a pretty in-depth prompt here.

こちらでかなり詳細なプロンプトが生成されているのがわかります。

Your task is to come up with several engaging YouTube video title ideas for a video recapping recent developments in the world of artificial intelligence.

人工知能の世界の最近の動向をまとめたYouTube動画のタイトルアイデアをいくつか考えることです。

I'll provide you with a summary of the recent AI news, and you will use that to brainstorm title ideas.

最近のAIニュースの要約を提供しますので、それを使ってタイトルのアイデアを考えてください。

Here's the summary gives me a little area to plug in a summary here.

こちらが要約で、ここに要約を挿入するスペースが少しあります。

First brainstorm after brainstorming, select three top titles.

最初にブレインストーミングを行った後、トップ3のタイトルを選択します。

Remember the goals to come up with titles that will entice people to click, et cetera.

クリックを誘うタイトルを考えることが目標です。

It took my short one sentence prompt and built it into a really dialed in prompt, engineering, optimized prompt to use inside of Claude.

私の短い一文のプロンプトを取り、本当に調整されたプロンプト、エンジニアリングされた最適化されたプロンプトにして、Claudeの中で使用することができました。

A few weeks ago, I talked about a new AI company called Hume.ai, a company that actually can detect the emotion and feelings in your voice when you speak.

数週間前、私はHume.aiという新しいAI企業について話しました。実際には、話すときの声から感情や気持ちを検出できる企業です。

Like whether or not you're happy or angry or excited, things like that.

あなたが幸せか怒っているか興奮しているかなど、そのようなことを検出できます。

Well, Hume just released a new tool called Chatter, an interactive podcast experience, and basically this is a podcast that you can sort of steer the direction of.

フュームは最近、Chatterというインタラクティブなポッドキャスト体験を提供しました。基本的に、このポッドキャストはあなたが方向を少し変えることができるものです。

It's hard to explain.

説明するのは難しいです。

I'll just show you.

実際に見せてあげます。

If I click start here, it will just kind of start telling me the news.

ここをクリックすると、ニュースが始まります。

Hello, welcome to Chatter, an interactive news podcast.

こんにちは、Chatterへようこそ。インタラクティブなニュースポッドキャストです。

The date is May 16th, 2024.

今日は2024年5月16日です。

Today's top headlines are absolutely riveting.

今日のトップニュースは非常に魅力的です。

Hey, I'm going to stop you real quick.

ちょっと待って、話を中断します。

Instead of talking about overall news, can you share just the interesting news from the AI world?

全体的なニュースの代わりに、AIの世界から興味深いニュースを共有してもらえますか?

All right, let's dive into the fascinating world of AI.

わかりました、AIの魅力的な世界に飛び込んでみましょう。

Today, there's some thrilling news from this ever evolving field.

今日は、この絶えず進化する分野からスリリングなニュースがあります。

First up, NVIDIA continues to dominate the AI scene.

ますますAIシーンを席巻し続けるNVIDIAがまず挙げられます。

Their processors are in high demand for cloud computing, driving significant AI growth.

彼らのプロセッサーはクラウドコンピューティングで高い需要があり、重要なAI成長を牽引しています。

What were the big announcements that came out from Google and OpenAI this week?

今週、GoogleとOpenAIから出た大きな発表は何でしたか?

Let's dive into the latest from Google and OpenAI.

GoogleとOpenAIの最新情報を見てみましょう。

Starting with Google, they've made some rouge waves at their recent Google I/O event.

Googleから始めると、最近のGoogle I/Oイベントで彼らはいくつかの波紋を起こしました。

They introduced the Gemini AI models, which are set to revolutionize how we interact with AI.

彼らはGeminiAIモデルを導入しました。これは私たちがAIとどのようにやり取りするかを革新する予定です。

These models are designed to be more intuitive and efficient.

これらのモデルはより直感的で効率的に設計されています。

Well, I think you get the idea.

まあ、あなたはアイデアをつかんでいると思います。

You can sit there and have a conversation with it and it's like listening to the radio, but you can sort of inject your own questions.

あなたはそこに座って会話をして、ラジオを聞いているような感覚になりますが、自分の質問を挿入することができます。

It will stop talking and then respond to basically what you were asking it to respond to.

それは話を止めて、基本的にあなたがそれに対して返答するように求めたことに応じて返答します。

It's pretty cool.

それはかなりクールです。

Again, that's called chatter and you can find it over at chatter.hume.ai.

再び、それはチャッターと呼ばれ、chatter.hume.aiで見つけることができます。

At the end of last week, this clip kind of went viral from Whitney Wolfe Herd, who is the founder of Bumble.

先週末の終わりに、Bumbleの創設者であるホイットニー・ウルフ・ハードからこのクリップがバイラルになりました。

She talked about what the future of dating could look like.

彼女はデートの未来がどのように見えるかについて話しました。

Specifically, what was interesting was the part where she talked about how you'll have like an AI dating concierge and your dating concierge will go and date other people's AI concierge and the AIs dating each other will decide if the two real people are compatible.

具体的に興味深かったのは、AIデートコンシェルジュがいるところで、あなたのデートコンシェルジュが他の人のAIコンシェルジュとデートし、お互いにデートするAIが2人の実際の人が互換性があるかどうかを決定するところでした。

Check this out.

これをチェックしてください。

If you want to get really out there, there is a world where you're dating concierge could go and date for you with other dating concierge.

本当に遠くまで行きたい場合、あなたのデートコンシェルジュが他のデートコンシェルジュとデートする世界があります。

No, no, truly.

いいえ、本当に。

You don't have to talk to 600 people.

お話をする必要はありません。

It will just scan all of San Francisco for you and say, these are the three people you really ought to...

サンフランシスコ全体をスキャンして、本当に話すべき3人を教えてくれます。

Interesting.

興味深いですね。

I'm not in the dating pool, so I will probably not ever experience this.

私は出会いの場にいないので、おそらくこれを経験することはないでしょう。

But I'm pretty dang sure that is an episode of Black Mirror.

でも、かなり確信していますが、それはブラックミラーのエピソードです。

I think I saw that one.

それを見た気がします。

This week, we learned that Metta is exploring AI assisted earphones with cameras.

今週、Mettaがカメラ付きのAIアシストイヤホンを開発していることがわかりました。

There's not a lot of news about this.

これに関するニュースはあまりありません。

This seems to be kind of early speculation, but it sounds like they're exploring making like air pod type earbuds that have cameras on the little tip of the earbuds so that they can see what's going on and imagine like the or the AI pen or even the Metta Ray-Ban glasses that you wear.

これは初期段階の推測のようですが、エアポッドタイプのイヤーバッドにカメラを搭載し、周囲の状況を見ることができるようにしているようです。

Well, this sounds like it could potentially do the same thing where you can hear everything it's telling you, but it can also see what's going on around you.

おそらく、これはあなたに何が起こっているかを聞くことができるだけでなく、周りで何が起こっているかも見ることができる可能性があります。

Maybe it'll record video.

おそらくビデオを記録するかもしれません。

Maybe the camera is just to see what's going on, to give context to the LLM.

おそらくカメラは、何が起こっているかを見るために、大規模言語モデルに文脈を与えるためのものです。

I don't know.

わかりません。

There's not a lot of details about this yet.

これについてはまだ詳細があまりありません。

This seems to be kind of a rumored thing, but seemed interesting.

これは噂のようなもののようですが、興味深いと思いました。

I thought I'd share.

共有したいと思いました。

Finally, this is just the beginning of event season.

最後に、これはイベントシーズンの始まりに過ぎません。

Next week is Microsoft's build event, which is sort of the equivalent of Google IO, but Microsoft's version and Microsoft tends to do similar to Google where they do these events instead of a 30 minute keynote, like OpenAI, they do a two hour keynote and just bombard you with announcements.

来週はMicrosoftのビルドイベントがあります。これはGoogle IOの相当物ですが、Microsoftのバージョンであり、MicrosoftはGoogleと同様に、30分の基調講演ではなく、OpenAIのように2時間の基調講演を行い、アナウンスメントを連発します。

That's kind of what I'm expecting from Microsoft.

それが私がMicrosoftから期待していることです。

Also, now that we have GPT-4o, we also know that Microsoft works really closely with OpenAI.

また、GPT-4oを持っている今、MicrosoftがOpenAIと非常に密接に連携していることもわかっています。

Microsoft is OpenAI's biggest investor.

MicrosoftはOpenAIの最大の投資家です。

I also kind of have a feeling a lot of the announcements are going to be this product now has GPT-4o in it.

私も、多くの発表がこの製品には今GPT-4oが搭載されているという内容になると感じています。

This product now has GPT-4o in it.

この製品には今、GPT-4oが搭載されています。

It's probably going to be a lot of copilot now works with GPT-4o.

おそらく、Copilotが今はGPT-4oと連携して動作することが多くなるでしょう。

Copilot now has a voice where you can just chat directly with it.

Copilotには今、直接チャットできる音声が搭載されています。

I think we'll probably see some of what we heard from OpenAI being rolled into a lot of Microsoft products.

OpenAIから聞いた内容の一部が、多くのMicrosoft製品に取り入れられるのではないかと思います。

This is another event that I'm going to be at, so I'm going to be doing my best to keep you informed on what I learn at this event.

これは私が参加する別のイベントで、このイベントで学んだことをできるだけお知らせするように努めます。

You'll probably see more videos of me recording from a hotel room, but I want to learn as much as I can, meet as many people as I can at these events and turn around and share what I'm seeing and what I'm learning and what I think is really cool that's in the pipeline.

おそらく、ホテルの部屋から録画した私のビデオがもっと見られるでしょうが、これらのイベントでできるだけ多くのことを学び、多くの人と出会い、見て学んだことや、パイプラインにあると思う本当にクールなものを共有したいと思います。

That's happening next week.

それは来週起こります。

Next week's news will probably be mostly dominated by Microsoft.

次週のニュースはおそらく主にMicrosoftによって支配されるでしょう。

In June, we have a Cisco event where they're going to be talking about AI and cybersecurity.

6月には、Ciscoのイベントがあり、AIやサイバーセキュリティについて話す予定です。

We have a Qualcomm event where they're probably going to be talking a lot about their Snapdragon chips and doing more AI processing on mobile devices.

私たちには、Qualcommのイベントもあり、彼らはおそらくSnapdragonチップについてたくさん話し、モバイルデバイスでのAI処理をさらに行うでしょう。

We also have an Apple event in June, their worldwide developer conference, where they're expected to be unveiling a whole bunch of AI features.

6月には、Appleのイベントもあり、彼らのワールドワイド開発者会議で、たくさんのAI機能が発表されることが期待されています。

There's a lot of events coming up.

たくさんのイベントが控えています。

I'm going to be at most of them.

私はほとんどのイベントに参加する予定です。

I'm not going to be at the Apple event, but I'll be at the Cisco event.

私はAppleのイベントには参加しませんが、Ciscoのイベントには参加します。

I'll be at the Microsoft event and I will be at the Qualcomm event sharing whatever I learned from all of those events in their own respective videos.

私はMicrosoftのイベントに参加し、Qualcommのイベントにも参加します。それぞれのイベントで学んだことをそれぞれのビデオで共有します。

Super excited.

とてもワクワクしています。

We're just getting started.

まだ始まったばかりです。

The AI sort of hype time of the year is ramping up and this is, this is what I'm here for.

今年のAIブームの時期が加速しており、それが私がここにいる理由です。

I love this time of year.

この時期が大好きです。

I love it when all of these announcements are coming out and I get to try new tools and make videos and tell you about what's coming out.

新しいツールを試してビデオを作り、新着情報をお伝えできる時期が大好きです。

There is so much, you're probably going to see a lot of more videos from me over the next couple of weeks, because there's going to be a lot to talk about, but that's what I got for you this week.

たくさんの情報がありますので、今後数週間で私からたくさんのビデオが出るかもしれません。話題がたくさんあるので、今週はこれだけです。

Again, it was mostly Google and OpenAI with a few other little bits and bobs sprinkled in there next week.

再び、ほとんどがGoogleとOpenAIで、他にも少しの情報が来週には出るでしょう。

It's probably going to be mostly Microsoft.

おそらくほとんどがMicrosoftになるでしょう。

I'm here for it.

私はそれを楽しみにしています。

It's going to be exciting.

それはワクワクすることになります。

If you want to stay in the loop with all the latest AI news on a daily basis, make sure you check out futuretools.io.

もし最新のAIニュースを毎日追いかけたいなら、必ずfuturetools.ioをチェックしてください。

I do keep the news up to date on mostly a daily basis.

私はほとんど毎日ニュースを最新の状態に保っています。

When I am traveling, it updates a little bit slower because I am still approving every piece of news that goes on here because I want it to stay really high signal, not a lot of noise on this news page.

旅行中は更新が少し遅くなりますが、ここに掲載されるすべてのニュースをまだ承認しているので、信号が非常に高く、ノイズが少ないニュースページにしたいからです。

I also curate all of the coolest AI tools that I come across with some really easy filtering to just get down to the tools that you need for whatever it is you're trying to do.

私は出会った一番クールなAIツールをすべて厳選し、本当に必要なツールに絞り込むための簡単なフィルタリングも行っています。

We've got a free newsletter.

無料のニュースレターがあります。

You join the free newsletter and I will loop you in every week with just the coolest AI tools that I come across and just the most important news that I think you need to know.

無料のニュースレターに参加していただくと、毎週、私が見つけた一番クールなAIツールと、あなたが知っておく必要があると思う最も重要なニュースをお知らせします。

Like we're talking three to five news articles tops per week.

週に3〜5本のニュース記事を取り上げています。

You're not getting bombarded with everything.

すべてが押し寄せてくるわけではありません。

It's just the most impactful, most important stuff.

最も影響力のある、最も重要な情報だけです。

Check that out.

それをチェックしてください。

Also, I am giving away in brand new Insta360 X4.

また、私は新しいInsta360 X4を無料で提供しています。

This thing just came out.

このものはちょうど出たばかりです。

This is like a week old camera, brand new from Insta360.

これは1週間前のカメラで、Insta360から全く新しいものです。

You can be entered to win one totally for free.

完全に無料で1つを手に入れることができます。

All you have to do is make sure you're subscribed to this YouTube channel and you join our free newsletter.

やるべきことは、このYouTubeチャンネルに登録していることを確認し、無料のニュースレターに参加することだけです。

As long as you're subscribed in both of those places, you are entered to win this camera and I'm going to be doing giveaways like this every single month.

両方の場所に登録している限り、このカメラを手に入れるチャンスがあります。そして、私は毎月このようなプレゼントを行います。

I'm in a lucky position where a lot of these companies send me these gadgets to play around with and try and make videos with, and I thought it would be fun to turn around and turn some of this stuff into competitions and give aways and raffles and things like that.

私は幸運な立場にいて、これらの企業からこれらのガジェットを送ってもらい、それらを使ってビデオを作ってみたりすることができるのですが、それを競技やプレゼント、抽選などに変えて楽しいと思いました。

Make sure you're on the newsletter and make sure you're subscribed to this channel, you'll be entered to win.

ニュースレターに登録していることを確認し、このチャンネルに登録していることを確認してください。そうすれば、当選の対象になります。

You'll also be one of the most looped in people on what's going on in the world of AI, because I'll keep you looped in.

また、AIの世界で何が起こっているかについて最も情報を得られる人の1人になります。なぜなら、私があなたを最新情報で常に更新しておくからです。

Thank you so much for tuning in.

いつもお聞きいただきありがとうございます。

Really, really appreciate you spending the time with me today, nerding out on everything AI, and I will see you in the next video.

本当に本当に、今日は私と一緒にAIについて熱く語っていただき、ありがとうございます。次の動画でお会いしましょう。

Really appreciate you.

本当に感謝しています。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?