見出し画像

【マット・ウルフのAIニュース:OpenAIの内紛とAI画像生成の驚異的進化】英語解説を日本語で読む【2024年8月10日|@Matt Wolfe】

AI業界では、特にOpenAIを中心に様々な出来事が起きています。OpenAIのサム・アルトマンCEOが「Strawberry」と呼ばれる新しいAIモデルを示唆するツイートを投稿し、話題を呼んでいます。このモデルは以前「Q*」として知られていたもので、高度な推論能力を持つとされています。一方で、OpenAI内部では人材の流出が起きています。共同創設者のジョン・シュルマンがAnthropicに移籍し、グレッグ・ブロックマンが長期休暇を取得。これらの動きはOpenAIの今後の方向性に影響を与える可能性があります。AIの法的側面でも動きがあります。イーロン・マスクがOpenAIを再び訴訟、YouTuberがOpenAIに対してクラスアクションを起こすなど、AI企業の行動に対する法的挑戦が増えています。AI画像生成技術も急速に進化しています。FluxというAIモデルが生成した人物画像は、細部まで驚くほどリアルで、人間が生成したものとの区別が困難になっています。AI動画生成の分野では、ByteDanceが「Jemang AI」を発表し、RunwayはGen-3 Alphaに新機能を追加しました。その他、AmazonやRedditなどの大手テック企業もAI機能を自社サービスに統合し始めています。GoogleはAI搭載のTVストリーマーを発表し、WendyはAIドライブスルーを導入するなど、AIの実用化が進んでいます。ロボティクスの分野では、GoogleのDeepMindがアマチュアレベルの卓球ができるロボットを開発し、Figureは新型ヒューマノイドロボット「Figure 02」を発表しました。
公開日:2024年8月10日
※動画を再生してから読むのがオススメです。


There's been some really interesting storylines and developments in the world of AI this week.

今週のAIの世界では、非常に興味深いストーリーラインや展開がありました。

In this video, I'm going to break them all down and loop you in.

このビデオでは、それらをすべて解説し、皆さんにお伝えします。

Before I really get into it, I want to take a moment to really appreciate how far AI generated images have come.

実際に入っていく前に、AIによる画像生成がどれだけ進化したかを本当に感謝したいと思います。

This image that we're looking at on the screen right now, this was generated with Flux, which is an AI image generation model that I made a video about earlier this week.

今画面で見ているこの画像は、私が今週初めにビデオを作ったAI画像生成モデルであるFluxによって生成されました。

But the way it can make humans is just mind blowing.

しかし、それが人間を作る方法はただ驚異的です。

The only really obvious giveaways in this one is if you look at his lanyard here, the text just looks like gibberish.

この写真で本当に明らかな特徴は、ここにある彼の首から下げているものを見ると、テキストがただの意味不明に見えることです。

I think this is supposed to be a microphone right here, but it looks a little off.

ここにあるのはマイクだと思いますが、少し違和感があります。

But if you're just looking at the guy's face and you're looking at the hands and you're looking at the shirt, it looks really, really good.

しかし、もし男性の顔を見て、手を見て、シャツを見ているだけなら、本当にとても良く見えます。

Here's another image from the same Reddit thread.

こちらは同じRedditスレッドからの別の画像です。

If we look at this one, I mean, same thing.

これを見ると、同じようなことです。

It is really, really difficult to tell that it's AI.

AIだとわかるのは本当に、本当に難しいですね。

If we zoom in really close, like I am, you can tell maybe there's a little weirdness going on with the teeth, especially on the right side where the teeth get a little bigger.

私が拡大してみると、歯の部分に少し変なところがあるかもしれません、特に右側で歯が少し大きくなっているところがあります。

If we zoom in on the microphone, it looks just kind of like gibberish around the top of the microphone.

マイクを拡大してみると、マイクの上部周辺がちょっとした意味不明なものに見えます。

But other than that, I mean, the Google logo is there, the lanyard, it's kind of hidden by our hands.

でもそれ以外は、Googleのロゴがあるし、首から下げている紐も、私たちの手で隠れてしまっています。

You can't see it, but dang, AI imagery has come so far, but it's gotten to a point where most people are not going to be able to tell what was AI generated and what wasn't.

見えないけれども、AIの画像はかなり進化してきましたが、ほとんどの人がAIが生成したものとそうでないものを区別することができないようになってきています。

We can only tell right now because I'm zooming in super close and looking for little giveaways.

今は、超接写して細かい手がかりを探しているから、今すぐしかわからないんです。

Anyway, this is from a Reddit thread over on the Stable Diffusion Sub Reddit.

とにかく、これはStable Diffusion Sub RedditのRedditスレッドからのものです。

They did follow a very specific process to actually get these images to look this way and look so real, but they do break it down in this Reddit thread.

実際にこれらの画像をこのように見せるために非常に特定のプロセスに従っており、非常にリアルに見えるようにしていますが、このRedditスレッドで詳細に説明しています。

I'll make sure it's linked below if you want to try to create images that are this realistic.

もしこのようにリアルな画像を作成してみたい場合は、以下にリンクを貼っておきます。

Let's talk about OpenAI.

OpenAIについて話しましょう。

We're probably going to spend a few minutes talking about OpenAI today, cause there's been a lot of weird stuff happening there, starting with probably the most like intriguing thing that's come out of OpenAI this week.

今日はおそらくOpenAIについて少し話すことになるでしょう。なぜなら、そこで起きている奇妙なことがたくさんあり、おそらく今週OpenAIから出てきた最も興味深いものが始まっています。

That's that Sam Altman posted this random image on his Twitter account that just says, I love summer in the garden.

それは、サム・アルトマンが自分のTwitterアカウントにこのランダムな画像を投稿したことです。その画像には、「庭で夏を楽しむ」と書かれています。

It has pictures of his strawberries.

その中には、彼のStrawberryの写真があります。

If you're not familiar or maybe you didn't see some of the older videos where I was talking about what this is in reference to OpenAI supposedly had this model called Q* that was really, really good at reasoning.

もしかしたらお馴染みでないか、以前のビデオでOpenAIが推定できると話していたものを見ていないかもしれませんが、OpenAIには推論が非常に優れているとされるQ*というモデルがあったということです。

There was suspicions that that's what Ilya saw when the board tried to oust Altman.

アルトマンを追放しようとした取締役会がイリヤが見たものがそれだと疑われていました。

There was claims that this Q* model was just too powerful, too scary to unleash into the world.

このQ*モデルはあまりにも強力で、世界に解き放つにはあまりにも恐ろしいという主張がありました。

Supposedly that Q* model has been rebranded as Strawberry.

そのQ*モデルは、いわゆるStrawberryとして再ブランド化されたと言われています。

Internally over at OpenAI, they refer to this more advanced better reasoning model as the Strawberry model.

OpenAI内部では、このより高度で優れた推論モデルをStrawberryモデルと呼んでいます。

This post here by Sam is essentially Sam just kind of trolling the people paying attention to OpenAI acting as if something huge is coming related to Strawberry.

サムによるこの投稿は、基本的にはOpenAIに注意を払っている人々をからかうようなもので、Strawberryに関連する何か大きなものが来るかのように振る舞っています。

At least that's the way most people are interpreting it.

少なくとも、ほとんどの人がそう解釈しています。

These seemingly are genuine strawberries from his garden.

彼の庭からのこれらは見かけによらず本物の苺のようです。

He might've just wanted to post a picture of his strawberries because he was proud of them.

彼は単に自分の苺の写真を投稿したかったのかもしれません、彼はそれを誇りに思っていたからです。

But a lot of people are reading a lot more into this.

しかし、多くの人々がこれについて多くのことを読み取っています。

There's also this Twitter account here that has a lot of people baffled.

ここには多くの人々を困惑させているTwitterアカウントもあります。

The Twitter username is at I rule the world MO, but the actual written out username is just three strawberry emojis.

Twitterのユーザー名はI rule the world MOですが、実際のユーザー名は単に3つの苺の絵文字です。

This Twitter account grew insanely fast.

このTwitterアカウントは狂ったように急速に成長しました。

A couple of weeks ago, I think it was like under a thousand followers.

数週間前、フォロワーが1000人未満だったと思います。

Just since all of this Strawberry weirdness has started popping up again, they've jumped up to over 13,000 followers.

このStrawberryの奇妙さが再び現れ始めて以来、フォロワーは1万3000人以上に増えました。

If you look through their feed, it's pretty much just a nonstop feed of strange trolling memes about strawberries.

彼らのフィードを見ると、ほとんどがStrawberryに関する奇妙なトローリングミームの連続です。

See you in a while travelers.

しばらくの間、旅行者の皆さん、また会いましょう。

I'll be back.

私は戻ってきます。

Strawberry chess boards, Strawberry matrix images, just lots and lots of random memes and troll posts about strawberries.

Strawberryのチェス盤、Strawberryのマトリックス画像、ただたくさんのランダムなミームやStrawberryに関するトロール投稿があります。

One thing to note is that they do write in all lowercase, which is something that Sam Altman is sort of known for on his Twitter account, which has led to rumors that maybe this is Sam Altman's alternate account.

一つ注意すべきことは、彼らがすべて小文字で書いていることです。これはサム・アルトマンがTwitterアカウントで行っていることで、おそらくこれがサム・アルトマンの別のアカウントであるという噂が広まっています。

There's also been a lot of rumors that this is just a bot and that maybe OpenAI or Sam Altman or somebody created a Twitter bot that just continually posts memes and random stuff about strawberries and retweets anything related to AI and strawberries and Sam Altman.

また、このアカウントは単なるボットであるという噂も多く、おそらくOpenAIやサム・アルトマン、あるいは誰かがAIやStrawberry、サム・アルトマンに関連するものを継続的に投稿し、リツイートするTwitterボットを作成したのではないかという噂もあります。

My personal guess is it's probably just somebody with a little bit too much time on their hands trying to just stir things up and it seems to be working.

私の個人的な推測では、おそらく手持ちの時間が少し余っている誰かが、ただ物議をかもすために活動しているようです。そして、それはうまくいっているようです。

One interesting thing is that Sam Altman himself actually appears to be paying attention to this account.

興味深いことの1つは、実際にサム・アルトマン自身がこのアカウントに注意を払っているように見えることです。

Welcome to level two.

レベル2へようこそ。

How do you feel?

どう感じますか?

Did I make you feel?

私があなたを感じさせましたか?

Sam says, amazing to be honest.

サムは、正直に言って素晴らしいと言っています。

My guess, somebody with a lot of time on their hands, just screwing around with Twitter, trying to see how quickly they can hype things up and get excitement going.

私の推測では、誰かがたくさんの時間を持って、ただTwitterで遊んでいて、どれだけ早く興奮を高めて盛り上げることができるかを試していると思います。

But I kind of secretly hope that it's some sort of AI bot created by OpenAI to build additional hype around what they're launching next.

でも、内心では、それがOpenAIによって次に展開されるものに追加の興奮を生み出すために作成された何らかのAIボットであることを願っています。

I'm fairly confident that's not the case, but I also kind of want to be wrong.

それがそうでないことにかなり自信がありますが、間違っていることを望んでもいます。

Moving on.

次に進みます。

There's been a lot of other really interesting news and storylines coming out of OpenAI.

OpenAIから出ている他の非常に興味深いニュースやストーリーがたくさんあります。

I actually made a whole dedicated video about all the sort of drama unfolding over at OpenAI right now.

実際、私はOpenAIで起こっているあらゆる種類のドラマについて専用のビデオを作りました。

John Schulman, one of the co-founders over at OpenAI actually left to go join Anthropic this week.

OpenAIの共同創設者の一人であるジョン・シュルマンは、実際にAnthropicに今週参加するために辞職しました。

Peter Dang, a product manager over at OpenAI also left.

OpenAIのプロダクトマネージャーであるピーター・デンも辞職しました。

Greg Brockman is going on a extended vacation.

グレッグ・ブロックマンは長期休暇に出かけます。

Essentially he's going on sabbatical and said that he's stepping away from OpenAI until the end of the year, leaving a lot of people to believe that he's also just ditching and moving on from OpenAI.

基本的に彼は休職することになり、年末までOpenAIから離れると述べました。多くの人々は彼がOpenAIからも離れて進むつもりだと信じています。

I don't get that impression.

その印象は受けていません。

There's been a lot of pressure, a lot of stress, a lot of drama, a lot of things have happened over at OpenAI recently.

最近のOpenAIでは、多くのプレッシャーやストレス、ドラマがあり、たくさんのことが起こっています。

I genuinely think he's just stepping back to chill out and sort of get out of that mix for a little bit.

彼は本当に、一旦落ち着いて、少し離れることでその状況から抜け出そうとしていると思います。

But a lot of people are speculating that he's gone as well on the eighth.

しかし、多くの人が彼も8日に辞めたと推測しています。

He posted this, which also leaves me to believe that he is planning on coming back.

彼はこれを投稿しており、私も彼が戻ってくる予定であると思っています。

He says, a surprisingly hard part of my break is beginning the FOMO for everything happening at OpenAI right now.

彼は言います、今OpenAIで起こっているすべてに対するFOMOを始めるのが意外に難しい部分です。

Lots of results cooking.

たくさんの結果が進行中です。

I've poured my life for the past nine years into OpenAI, including the entirety of my marriage.

過去9年間、私はOpenAIに自分の人生を捧げてきました。それには私の結婚生活全体も含まれます。

Our work is important to me, but so is life.

私たちの仕事は私にとって重要ですが、命もまた重要です。

I feel okay taking this time in part because our research safety and product progress is so strong.

私はこの時間を取ることが大丈夫だと感じています。なぜなら、私たちの研究の安全性と製品の進歩が非常に強力だからです。

I'm super grateful for the team we've built and it's unprecedented talent, density, and proud of our progress.

私たちが築いたチームとその前例のない才能、密度に非常に感謝しており、進捗に誇りを持っています。

Looking forward to completing our mission together.

一緒にミッションを達成することを楽しみにしています。

All indications point to he's stepping away, but planning on coming back.

すべての兆候が彼が離れる方向に向かっていることを示していますが、戻ってくる予定です。

There's a lot more to the OpenAI drama that's happening right now, but I broke it down in this video here called OpenAI seems like it's imploding.

OpenAIのドラマにはまだたくさんの要素がありますが、私はこのビデオでOpenAIが崩壊しているように見えると説明しました。

Check that video out if you want all of the details and sort of my thoughts and opinions on what's going on at OpenAI right now.

OpenAIで起こっていることについての詳細や私の考えや意見が知りたい場合は、そのビデオをチェックしてください。

But in other news that wasn't part of that video, OpenAI got a new board member this week named Zico Kolter.

しかし、そのビデオには含まれていなかった他のニュースとして、OpenAIは今週、ジコ・コルターという新しい取締役を迎えました。

Zico is a professor and director of the machine learning department at Carnegie Mellon university.

ジコは、カーネギーメロン大学の機械学習部門の教授兼ディレクターです。

They're predominantly focused on AI safety alignment and the robustness of machine learning classifiers.

彼らは主に、AIの安全な調整と機械学習分類器の堅牢性に焦点を当てています。

We've seen a lot of storylines lately of people claiming that OpenAI isn't taking safety and alignment seriously.

最近、OpenAIが安全性と調整を真剣に考えていないと主張する人々のストーリーラインをたくさん見てきました。

Jan Liké left wrote up a big X post about how he doesn't think they're taking safety seriously.

Jan Likéは、彼らが安全性を真剣に考えていないと考えていることについて、大きなXの投稿をしました。

OpenAI disbanded their safety and alignment team.

OpenAIは安全性と調整チームを解散しました。

It sounds like they are actually taking it fairly seriously by bringing on board members that that is their main focus, but not only that, they put out this this week called the GPT-4o system card.

実際には、彼らはその主な焦点であるメンバーを迎え入れることでかなり真剣に取り組んでいるようですが、それだけでなく、今週、GPT-4oシステムカードと呼ばれるものを公開しました。

We can see here, it says this report outlines the safety work carried out prior to releasing GPT-4o including external red teaming frontier risk evaluations, according to our preparedness framework and an overview of the mitigations we built in to address key risk areas.

ここには、GPT-4oのリリース前に実施された安全作業が概説されており、外部のレッドチームによるフロンティアリスク評価、準備フレームワークに従った対策の概要、および主要リスク領域に対処するために構築された緩和策が記載されています。

This is a very long right up here, but basically it goes into all of the details and all of the ways that they are focused on safety and alignment here.

ここには非常に長い説明がありますが、基本的には、彼らが安全性と調整に焦点を当てている方法や詳細がすべて含まれています。

They even gave themselves a little bit of a score card here.

彼らはここで自分たちに少しスコアカードを与えさえしました。

They feel like when it comes to cybersecurity, it seems to be low risk, biological threats, low risk, persuasion threats, a medium risk and model autonomy is a low risk.

彼らは、サイバーセキュリティに関しては、低リスクのように感じられるが、生物学的脅威は低リスク、説得力の脅威は中程度のリスクであり、モデルの自律性は低リスクであるようです。

They say that only models with a post mitigation score of medium or below can be deployed and only models with a score of high or lower can be developed further.

彼らは、ポストミティゲーションスコアが中程度以下のモデルのみが展開され、スコアが高いか低いモデルのみがさらに開発されると述べています。

If something comes back at a critical score, apparently they'll just cease development on that thing.

何かが重要なスコアで戻ってきた場合、明らかにそのものの開発を中止するだけだそうです。

But if you are a masochist and you do want to read this whole thing here, it is linked up in the description so you can dig into all of the details.

しかし、もし masochist で、この全文を読みたいと思うなら、説明文にリンクが貼られているので、すべての詳細を掘り下げることができます。

Another thing OpenAI warned about this week is that users could become emotionally hooked on its voice mode.

OpenAI が今週警告したもう一つのことは、ユーザーがその音声モードに感情的に引き込まれる可能性があるということです。

If you've seen the movie Her with Joaquin Phoenix, he pretty much falls in love with his AI and his AI becomes his girlfriend because he got so emotionally attached to that voice mode.

映画「HER/世界でひとつの彼女」をご覧になったことがあれば、ホアキン・Phoenix演じる主人公は、AIに恋をしてしまい、そのAIが声モードに感情的に依存してしまったため、彼のガールフレンドとなります。

Jumping back to that score card here that was written up straight in that score card.

ここでスコアカードに戻りますが、そのスコアカードにはまっすぐに書かれています。

They say that during early testing, including red teaming and internal user testing, we observed users using language that might indicate forming connections with the model.

初期テスト中、レッドチームのテストや内部ユーザーテストを含むテスト中、ユーザーがモデルとのつながりを示唆する可能性のある言葉を使用していることが観察されました。

They were saying things like, this is our last day together.

彼らは、「これが最後の日だ」といったことを言っていました。

They do have some worry that it could negatively affect healthy relationships, but potentially benefit lonely individuals.

健康な関係に悪影響を及ぼす可能性があるという懸念もありますが、孤独な個人には潜在的な利益があると考えられています。

But they do intend to further study the potential for emotional reliance, but it is interesting.

しかし、彼らは感情的な依存の可能性についてさらに研究する意向があるが、それは興味深いです。

They're coming out and saying it right now that we haven't rolled out GPT for a voice to everybody yet.

彼らは今すぐに明言していますが、まだ全員にGPTを音声用に展開していないと。

But one of the things we have noticed is some people are getting a little too attached.

しかし、気づいたことの1つは、一部の人々が少し過度に愛着を持っていることです。

Since we're on the topic for safety, I'm going to jump over to Anthropic for just a moment because they're also making a big focus on model safety.

安全に関する話題についてですが、Anthropicに一時的に移動します。彼らもモデルの安全性に重点を置いています。

They're creating a bug bounty program that it sounds like you can apply and if accepted participants will get early access to the latest models before public deployment with the goal of trying to find ways to circumvent the safety measures.

彼らはバグバウンティプログラムを作成しており、応募して受け入れられれば、一般展開前に最新モデルへの早期アクセスを得ることができるようです。安全対策を回避する方法を見つけようとしています。

They're offering up to $15,000 for novel universal jailbreak attacks.

彼らは新しい普遍的なジェイルブレイク攻撃に最大で15,000ドルを提供しています。

A jailbreak attack is basically convincing the AI, the Large Language Model to ignore its guardrails and give you an output that it's not necessarily designed to give you.

ジェイルブレイク攻撃とは、基本的にはAI、大規模言語モデルを説得して、そのガードレールを無視させ、本来設計されていない出力を提供させることです。

If people can help them find those jail breaks so that they can close those loopholes, they're willing to pay for that information.

人々がそれらのジェイルブレイクを見つけるのを手伝って、その抜け道を閉じることができれば、その情報に対して支払いをする用意があります。

Back to OpenAI because they still had some more announcements and things that happened this week.

OpenAIに戻って、今週もまだいくつかの発表や出来事がありました。

They rolled out a new feature for developers.

彼らは開発者向けの新機能をリリースしました。

They now have structured outputs in the API.

彼らは今、APIで構造化された出力を持っています。

If you're not a developer or you're not using the API for any reason, this is probably not relevant to you.

もしあなたが開発者でないか、何らかの理由でAPIを使用していない場合、これはおそらくあなたには関係ないでしょう。

But essentially when you are using their APIs and code, the data that OpenAI is sending over to whatever application you're writing the code for, the data is a little bit more structured and organized, theoretically making it a lot easier to work with.

しかし、基本的には、OpenAIが送信しているデータは、あなたがコードを書いているアプリケーションに対して、少し構造化されて整理されており、理論的には作業がはるかに簡単になるとされています。

One of the big criticisms of OpenAI lately, and I've been one of the people who's been personally criticizing them a lot about this is the fact that they talk about a lot of cool things that they're doing, but then don't actually ship them and give people access.

最近のOpenAIに対する大きな批判の1つは、私もその1人であり、個人的に多くの批判をしていることですが、彼らが行っている多くの素晴らしいことについて話す一方で、実際にはそれらを出荷せず、人々にアクセスを提供しないという点です。

To this day, we still don't have Sora access.

今日まで、私たちはまだSoraへのアクセス権を持っていません。

To this day, most people still don't have GPT-4o advanced voice features.

今日までに、ほとんどの人はまだGPT-4oの高度な音声機能を持っていません。

They announced a new ChatGPT search to go head to head with Google.

彼らはGoogleと対抗するために新しいChatGPT検索を発表しました。

We haven't seen access to it yet.

私たちはまだそれにアクセスできていません。

They keep on showing off these cool interesting things and then not shipping them.

彼らはこれらのクールで興味深いものを見せては、それらを出荷しないでいます。

It sounds like we should lower our expectations for OpenAI's next dev day as well.

OpenAIの次の開発者向けイベントに対する期待を下げるべきだと思われます。

Their dev day happens in San Francisco on October 1st.

彼らの開発者向けイベントは10月1日にサンフランシスコで開催されます。

Last year's dev day was when they announced the GPT store, which kind of never ended up going anywhere.

昨年の開発者向けイベントは、GPTストアの発表があった時で、結局それがどこにも行かなかったようなものでした。

This year, they're basically saying you're not going to get GPT five and don't expect anything too crazy from this dev day.

今年は、基本的にGPT-5を手に入れることはできないし、この開発者向けイベントからあまり狂ったことは期待しないでください。

Basically don't expect to see any massive announcements or new features in ChatGPT.

ChatGPTには大規模な発表や新機能を期待しないでください。

But if you are a developer who's using OpenAI's tech and their Large Language Models, there's probably going to be some cool stuff to make your development process easier.

しかし、OpenAIの技術や大規模言語モデルを使用している開発者であれば、開発プロセスをより簡単にするためのいくつかの素敵なものがあるかもしれません。

It also came out this week that OpenAI actually has a tool to recognize whether or not text was generated with AI or not, but they've deliberately decided not to release it.

今週、OpenAIが実際にAIによって生成されたテキストかどうかを認識するツールを持っていることも明らかになりましたが、故意にそれを公開しないことを決定しています。

It says here, OpenAI has built a tool that could potentially catch students who cheat by asking ChatGPT to write their assignments.

ここには、OpenAIがChatGPTに課題を書かせることで不正行為をする学生を見つける可能性があるツールを開発したと書かれています。

But according to the wall street journal, the company is debating whether to actually release it.

しかし、ウォールストリートジャーナルによると、会社は実際にそれを公開するかどうかについて議論しています。

They basically say here that they're worried about bad actors, figuring out how to circumvent them.

彼らは基本的にここで、悪意のある行為者がどのように回避するかを懸念していると述べています。

They're also worried that it could stigmatize use of AI as a useful writing tool for non-native English speakers.

また、非英語話者向けの有用なライティングツールとしてのAIの使用を汚名化する可能性も懸念しています。

Who knows if we'll actually see this or not.

誰がこれを実際に見るかどうかはわかりません。

Yet another thing OpenAI says, look, we've got this, but you can't have it.

OpenAIが言うもう一つのことは、見てください、これを持っていますが、あなたは持っていません。

But to be honest, this isn't one that I'm like super excited about.

でも正直に言うと、これは私がとても興奮しているものではありません。

I'm like really bummed that OpenAI isn't giving it to us or anything.

OpenAIがそれを私たちに提供していないことに本当にがっかりしています。

It's just interesting.

ただ興味深いです。

It's another thing that they're like, Hey, look what we have anyway.

彼らは、まあ、とにかくこれを持っているのを見てみてと言うようなものです。

You've been hearing about all of this AI stuff, but perhaps you're not sure how to apply it yet.

AIについての話を聞いてきたかもしれませんが、まだどのように応用すればいいかわからないかもしれません。

Despite all of the concerns about AI replacing jobs, you can actually use AI tools to your advantage and position yourself as an ideal candidate for your dream position.

AIが仕事を取って代わるという懸念があるにも関わらず、実際にはAIツールを活用して、夢の職に最適な候補者として自分を位置づけることができます。

That's why I teamed up with HubSpot to showcase their toolkit designed to help you secure a perfect job using AI.

だから私は、HubSpotと協力して、AIを使って理想の職を確保するために設計された彼らのツールキットを紹介することにしました。

This toolkit includes super valuable resources like 20 AI powered tools for job seekers.

このツールキットには、求職者向けの20のAIパワードツールなど、非常に価値のあるリソースが含まれています。

I'll admit it as the AI tools guy, some of these tools were even new to me.

私はAIツールの専門家として、これらのツールのいくつかは私にとっても新しいものであることを認めます。

You'll also find 60 ways to use ChatGPT during your job search, which includes tips on things like improving your negotiation skills.

また、仕事探し中にChatGPTを使用する60の方法が見つかります。これには交渉スキルを向上させるなどのヒントも含まれています。

Let's face it, whether you're job hunting or not, being a better negotiator is a pretty valuable skill to have.

正直に言って、仕事を探しているかどうかに関係なく、より良い交渉者であることは非常に価値のあるスキルです。

But honestly, that's just the tip of the iceberg when it comes to the resources available in this toolkit.

しかし、このツールキットで利用可能なリソースに関しては、それだけが全てではありません。

If you're currently in the job market, contemplating a career shift or simply want to enhance your skills for further opportunities, I strongly recommend checking out HubSpot's completely free kit on landing a job using AI.

現在仕事市場にいる方、キャリアを変えようと考えている方、または将来の機会のためにスキルを向上させたい方は、HubSpotの完全無料のAIを使用した仕事の見つけ方キットをぜひチェックすることを強くお勧めします。

Once again, it's totally free and you'll find the link in the description below.

もう一度申し上げますが、完全に無料であり、リンクは下記の説明にあります。

Once again, a big thank you to HubSpot for sponsoring this video.

再度、この動画のスポンサーであるHubSpotに大きな感謝を申し上げます。

Elon Musk is suing OpenAI again this week.

今週もイーロン・マスクがOpenAIを訴えています。

I say again, cause he had a previous lawsuit with them saying that they basically went against what they originally formed OpenAI for, but then Elon dropped that lawsuit and then a few days later opened up this new lawsuit.

以前にもOpenAIとの訴訟があり、基本的にOpenAIが最初に設立された目的に反する行動を取ったとしていましたが、その後イーロンはその訴訟を取り下げ、数日後にこの新しい訴訟を起こしました。

Elon's basically saying that OpenAI guys manipulated Musk into co-founding their nonprofit venture by promising that OpenAI would be safer and more transparent than profit driven alternatives.

イーロンは基本的に、OpenAIのメンバーがMuskを誘い込んで非営利事業を共同設立するように操作したと主張しています。彼らはOpenAIが利益追求型の代替手段よりも安全で透明性が高いと約束しました。

While the old lawsuit was kind of claiming that they went against what the company originally stood for, the new lawsuit is much more nuanced in saying they basically tricked Elon Musk into investing in a nonprofit that they eventually started figuring out how to make profits for.

古い訴訟は、会社が元々立ち上げた理念に反していたと主張していたが、新しい訴訟は、基本的にイーロン・マスクを非営利団体に投資させ、最終的に利益を上げる方法を見つけ出すようにだましたと言って、はるかに微妙です。

But that's not the only lawsuit that OpenAI is getting hit with this week.

しかし、今週OpenAIが直面しているのはこの訴訟だけではありません。

A YouTuber named David Mallette is trying to get this class action lawsuit started up against OpenAI because OpenAI went and scraped a whole bunch of transcripts from YouTube videos to use as training data.

YouTuberのデイビッド・マレットという人物が、OpenAIに対して集団訴訟を起こそうとしています。なぜなら、OpenAIがYouTubeの動画から大量のトランスクリプトをスクレイピングしてトレーニングデータとして使用したからです。

Personally, I don't think this lawsuit is going to win.

個人的には、この訴訟が勝訴するとは思いません。

I think by using the training data from these transcripts, it's essentially fair use, especially since the output that you're getting from ChatGPT when you ask it a prompt isn't the same thing as what was inputted without really, really tricking the Large Language Models.

これらのトランスクリプトからのトレーニングデータを使用することは、本質的にフェアユースであり、特にChatGPTにプロンプトを尋ねたときに得られる出力は、本当に大規模な言語モデルをだまさない限り、入力されたものとは異なるものだと思います。

You're not going to get the Large Language Model to output word for word exactly what the input data was, therefore making it transformative enough that I don't think there's much of a case here, but I'm not a lawyer.

大規模言語モデルを使っても、入力データとまったく同じ単語を出力させることはできませんので、それだけで十分に変換されていると思います。ですので、ここにはあまり問題がないと考えていますが、私は法律家ではありません。

I don't know what I'm talking about.

私は何を話しているのかわかりません。

That's just based on how I've seen some of these other lawsuits that have come up play out along the same lines.

これは、これまでに起こったいくつかの訴訟が同様の結末を迎えたことに基づいています。

NVIDIA is in some hot water this week.

NVIDIAは今週、やや厳しい状況にあります。

When a leaked document showed that NVIDIA was scraping a human lifetime of videos per day to train their AI models.

リークされた文書によると、NVIDIAが1日に人間の一生分のビデオを収集してAIモデルを訓練していることが明らかになりました。

Internal emails, Slack conversations, and documents were leaked that show how NVIDIA created their yet to be released video foundation model.

NVIDIAがまだリリースされていないビデオ基盤モデルを作成した方法が示された内部のメール、Slackの会話、および文書が流出しました。

NVIDIA did claim that the practice is in full compliance with the letter of the spirit of copyright law.

NVIDIAは、その実践が著作権法の文字と精神に完全に準拠していると主張しました。

It's going to be interesting cause some of these other lawsuits are going to set a precedent for how this is going to move forward in the future because while yes, it may have trained on thousands and hundreds of thousands of hours of video footage, the output that you're going to get when you enter a prompt is going to be so dramatically different from everything that it was trained on that it feels like they will consider it to be creating something transformative enough.

これは興味深いことになるでしょう。なぜなら、これに関連する他の訴訟のいくつかが、これが将来どのように進展するかについての前例を設定することになるからです。数千時間、数十万時間のビデオ映像でトレーニングされているかもしれませんが、プロンプトを入力するときに得られる出力は、トレーニングされたすべてとはまったく異なるので、それは十分に変革的なものと見なされると感じられるでしょう。

But like I said a minute ago, not a legal expert, have no clue what I'm talking about.

しかし、さっき言ったように、法律の専門家ではなく、何について話しているのか全くわかりません。

Just sort of speaking from the experience that I've seen from these other lawsuits outside of essentially three people leaving OpenAI this week, there's been other shuffling among the sort of big names in the AI world.

今週、OpenAIを退社した3人の他にも、AI業界の大物たちの間でいくつかの人事異動が見られるなど、これらの他の訴訟の経験から言えることがあります。

This week, Character.ai partnered up with Google and as part of the deal, the two co-founders of Character.ai are actually moving over to work at Google.

今週、Character.aiはGoogleと提携し、その取引の一環として、Character.aiの2人の共同創業者が実際にGoogleで働くことになりました。

It says here, Character.ai co-founder and CEO Noam Shazir is returning to Google after leaving the company in October of 2021 to found Character.ai.

ここには、Character.aiの共同創業者兼CEOであるノアム・シャジールが、2021年10月に同社を離れてCharacter.aiを設立した後、Googleに戻ると書かれています。

When he worked at Google previously, he worked on helping Google build AI models like Lambda.

以前Googleで働いていた時、彼はLambdaなどのAIモデルの構築を手伝っていました。

He's back at Google, this time helping DeepMind.

今回はDeepMindでGoogleに戻り、彼はそこで働いています。

Apparently Character.ai isn't going anywhere.

どうやらCharacter.aiはどこにも行かないようです。

Character.ai's general counsel is becoming the interim CEO for now, and most of the staff is staying with Character.ai.

Character.aiの法務担当者は現在、代表取締役社長を務めることになり、ほとんどのスタッフがCharacter.aiに残る予定です。

The company is going to continue on just, I guess without the two founding members.

会社は、おそらく創業メンバー2人なしで続けていくことになります。

Basically my interpretation of what was going on here was that Character.ai was in the process of building and training their own foundational models over time.

ここで起こっていることの私の解釈は、Character.aiが時間をかけて自社の基本モデルを構築し、訓練している過程にあるということでした。

They've realized how powerful and good some of these other models have become GPT-4o, Llama 3.1, Claude Sonnet, and of course Google's own Gemini 1.5.

彼らは、他のいくつかのモデルがどれほど強力で優れているかに気づいています。GPT-4o、Llama 3.1、Claude Sonnet、そしてもちろんGoogle自身のGemini 1.5。

It sounds like Character.ai is going to back off on developing their own foundation models and start to use existing models that are out there.

Character.aiは、独自の基礎モデルの開発を控え、既存のモデルを活用し始めるようです。

If that is the case, then the two sort of brains behind developing these foundation models don't necessarily need to be working in character all the time.

もしそうなら、これらの基本モデルを開発する際の2つの頭脳は常にキャラクターとして働く必要はありません。

That's the way I'm interpreting what's going on.

私が起こっていることを解釈している方法です。

Don't know anybody at Character.ai.

Character.aiの誰も知りません。

I haven't talked to anybody.

誰とも話したことがありません。

That's just me putting puzzle pieces together.

それはただ私がパズルのピースを組み合わせているだけです。

There's a new Large Language Model fine-tuned for math called Quinn 2 math.

数学用に微調整された新しい大規模言語モデル、Quinn 2 mathがあります。

When it comes to actually doing math, it pretty much beats every existing model on the market and benchmark testing specifically for math.

実際に数学を行う際、市場に存在するあらゆるモデルをほぼ打ち負かし、数学専用のベンチマークテストでも特に優れています。

Let's talk about AI video.

AIビデオについて話しましょう。

Cause there's been a few small things that came out in the world of AI video this week.

なぜなら、今週AIビデオの世界でいくつかの小さな進展がありました。

Fight Dance, the company behind TikTok, debuted a new AI video generation model called Jemang AI.

TikTokを運営するFight Dance社が、Jemang AIという新しいAIビデオ生成モデルを発表しました。

This article here basically claims that it's similar to OpenAI Sora.

この記事は、基本的にOpenAI Soraに似ていると主張しています。

I haven't actually been able to find videos generated with this yet, but here's a side-by-side comparison that I found on another article that shows side-by-side with Sora right being Sora's output left being Jemang's output.

実際には、このツールで生成されたビデオをまだ見つけることができていませんが、別の記事で見つけた比較画像を以下に示します。右側がSoraの出力であり、左側がJemangの出力です。

I think it's pretty safe to say that Sora still hasn't beat just based on these screenshots.

これらのスクリーンショットを見る限り、Soraはまだ勝っていないと言ってもいいと思います。

Here's some other screenshots here where they're just still images, but outside of a few news articles that say this exists and is as good as Sora, I actually haven't found outputs that it's made.

こちらには、単なる静止画像の他のスクリーンショットがありますが、これが存在し、Soraと同じくらい優れていると言う数少ないニュース記事以外に、実際に作成された出力を見つけることができませんでした。

Runway, on the other hand has rolled out a new feature this week that you can see what it does and actually use it.

一方、Runwayは今週新機能を導入しましたので、その機能を見て実際に使用することができます。

Initially, they rolled out gen three alpha, which gave us good text to video.

最初に、彼らはジェネレーション3アルファをリリースしました。これにより、良質なテキストからビデオが生成されました。

They rolled out the gen three alpha with image to video.

彼らは画像からビデオへのジェネレーション3アルファをリリースしました。

The newest update lets you actually pick an ending frame.

最新のアップデートでは、実際にエンディングフレームを選択できるようになりました。

For example, this video that you see here on the screen, the ending frame was this disassembled camera here.

例えば、画面で見ているこのビデオでは、エンディングフレームはこちらの分解されたカメラでした。

Runway generated the camera in the beginning and then generated the video of it disassembling into this image here.

Runwayは最初にカメラを生成し、それをこの画像に分解するビデオを生成しました。

We can see, it says all examples below demonstrate using an image as the last frame.

以下のすべての例は、最後のフレームとして画像を使用することを示しています。

Here's another one where we see all of this stuff pushed into a paper bag here with a face inside of the paper bag.

こちらはもう1つの例です。紙袋に詰め込まれた様々なものがあり、その中には紙袋の中に顔があります。

But apparently that was the final image that they started with was this face inside of a paper bag.

しかし、どうやら最初に始めた最終画像は、この紙袋の中の顔だったようです。

Here's another one of like a deconstructed hamburger here.

ここにもう1つ、分解されたハンバーガーのようなものがあります。

We can see as it animates a hamburger, essentially deconstructing itself.

ハンバーガーがアニメーションされる様子を見ると、基本的に自分自身を分解していることがわかります。

If we head on over to runwayml.com, log ourselves in, get started here with gen three alpha, I'll throw in this random image that I generated here.

runwayml.comにアクセスし、ログインして、gen three alphaでここから始めると、ここで生成したランダムな画像を投入します。

We have the option to use it as the first frame or the last frame.

最初のフレームとして使用するオプションがあります。

Let's go ahead and set it as the last frame.

最後のフレームとして設定しましょう。

Let's just describe the prompt as a man's head opens up and brilliant colors flood out and see what this generates for us.

プロンプトを男性の頭が開いて鮮やかな色があふれ出るというように記述し、どのようなものが生成されるか見てみましょう。

I'm actually going to bring it down to five seconds just so it generates a little faster.

実際には、それを5秒に短縮して、少し速く生成されるようにします。

Here's our final output.

こちらが最終的な出力です。

It actually starts with a guy whose head's not exploding.

実際には、頭が爆発していない男性から始まります。

If we play it, we can see my face or the face here sort of explodes into colors and then ends with this final image that we have over here on the left.

もし私たちがそれを再生すれば、私の顔やここにある顔がある種の色に爆発し、そして最後には左側にあるこの最終的なイメージで終わります。

Pretty cool.

かなりクールですね。

You can see that our final frame is pretty close to this frame that we uploaded and we get an animation of it actually getting to that frame as the final frame.

最終フレームがアップロードしたこのフレームにかなり近いことがわかり、実際にそのフレームに到達するアニメーションを得ることができます。

That's a cool new feature in runway right now, the company Opus clip, which if you're not familiar with them, they have a tool where you can upload long form videos and then it uses AI to find clips that would make good short form and then cuts them into that portrait short form view and gives us a 60 second or less clip that can be used as a short, they just rolled out some new features this week as well.

今、ランウェイでの新しい素敵な機能は、Opus clipという会社です。もしOpus clipをご存知でない場合、長い動画をアップロードして、AIが良いショートフォームになるクリップを見つけて、それをポートレートのショートフォームビューにカットして、60秒以下のクリップとして使用できるようにします。彼らは今週、いくつかの新機能を導入しました。

They rolled out what they call clip anything.

彼らは「クリップアニシング」と呼ぶものを展開しました。

According to this, you can clip any moment from any video using visual audio and sentiment cues.

これによると、ビジュアルオーディオと感情の手がかりを使用して、どんなビデオからでもどんな瞬間でもクリップすることができます。

It claims that it uses state of the art video understanding that analyzes each frame through visual audio and sentiment cues, identifying objects, scenes, action sounds, emotions, texts, and more.

それは、各フレームをビジュアルオーディオと感情の手がかりを通じて分析し、オブジェクト、シーン、アクションの音、感情、テキストなどを識別する最新のビデオ理解技術を使用していると主張しています。

You can use natural language, prompts to find any scene, action, character, event, emotional moment, viral topic, and more.

自然言語、プロンプトを使用して、どんなシーン、アクション、キャラクター、イベント、感情的な瞬間、バイラルトピックなどを見つけることができます。

Just kind of looking at their demo video here, it's got like an image recognition model built in and can actually understand emotions and various characters and various actions and various sounds from the videos.

彼らのデモ動画を見てみると、画像認識モデルが組み込まれており、実際に動画から感情や様々なキャラクター、様々なアクション、様々な音を理解することができます。

You can give it a prompt like compile all the dunks.

「すべてのダンクをまとめて」といった指示を与えることができます。

It will look through all the video footage that you uploaded and create short form content with the dunks in it.

アップロードしたすべての映像を見て、その中のダンクを含む短いコンテンツを作成します。

Another example, find Casey's airplane shower.

別の例として、Caseyの飛行機シャワーを見つけることができます。

It looks through the video and finds the clip where Casey is in the shower here.

ビデオを見て、Caseyがシャワーを浴びているクリップを見つけます。

You can be even as broad as find all the craziest moments, find all the penguins, find all the applause, and it will create shorts based on what you asked it to create the short around.

あなたは、最も狂った瞬間をすべて見つけたり、すべてのペンギンを見つけたり、すべての拍手を見つけたりするように広くすることさえできます。そして、それはあなたが周囲に短編を作成するように求めたものに基づいて短編を作成します。

It's not available to everybody yet.

まだ誰にでも利用可能ではありません。

You do have to apply for access, but once I have access, this sounds like something fun to play with and I'll put it through its motions and share my findings with you.

アクセスを申請する必要がありますが、一度アクセス権を取得すると、これは遊んで楽しいもののように聞こえますので、私はそれを試してみて、結果を共有します。

All right.

わかりました。

That's pretty much the biggest news of the week, but I do have a handful of like smaller items that I'm going to kind of rapid fire at you here.

それが今週の最大のニュースですが、いくつかの小さなアイテムがありますので、ここでいくつかの小さなアイテムを素早く紹介します。

Automatic, the company who makes WordPress launched an AI writing tool that aims to make WordPress blogs more readable and succinct.

WordPressを作っている会社であるAutomaticは、WordPressブログをより読みやすく簡潔にすることを目指したAIライティングツールを発表しました。

You can see that it uses AI to make suggestions and fix complex words, long sentences, unconfident words, things like that.

それがAIを使用して提案を行い、複雑な単語や長い文章、自信のない言葉などを修正することができることがわかります。

Amazon music launched topics, which is a new AI powered feature that makes it easier to discover podcasts.

Amazon Musicは、ポッドキャストをより簡単に発見できる新しいAI機能であるTopicsを発表しました。

Basically if you listen to your podcasts over on Amazon music and you tap on an episode, it will use AI to help you find similar episodes from other podcasts.

基本的に、Amazon Musicでポッドキャストを聴いてエピソードをタップすると、他のポッドキャストから類似のエピソードを見つけるのにAIが役立ちます。

Along the same vein audible is testing an AI powered search feature as well.

同様に、AudibleもAI機能を搭載した検索機能をテストしています。

It says us customers can interact with Maven audible's new personal recommendation expert that surfaces title suggestions based on user specific requests.

私たちの顧客は、ユーザー固有のリクエストに基づいてタイトルの提案を提示するMaven Audibleの新しいパーソナル推薦エキスパートと対話できると言っています。

The user can use natural language to enter queries and Maven will respond by providing tailored recommendations pulled from audible's catalog of nearly 1 million titles.

ユーザーは自然な言語を使用してクエリを入力し、MavenはAudibleの約100万タイトルのカタログから引き出された適切な推薦を提供します。

Reddit is also testing AI powered search features inside of the Reddit platform.

RedditはRedditプラットフォーム内でAI機能を搭載した検索機能をテストしています。

It says here, Reddit users will soon see AI generated summaries at the top of search results.

ここには、Redditユーザーが近々、検索結果のトップにAIが生成した要約を見ることになると書かれています。

The company plans to test AI powered search result pages to summarize and recommend content.

同社は、AI機能を搭載した検索結果ページをテストし、コンテンツを要約して推薦する予定です。

They claim that this helps users dive deeper into content and discover new Reddit communities.

彼らは、これがユーザーがコンテンツにより深く没頭し、新しいRedditコミュニティを発見するのに役立つと主張しています。

I thought this was an interesting story.

私はこれが興味深い話だと思いました。

You all remember the humane pin, which kind of got destroyed by every reviewer, most notably Marques Brownlee.

皆さんは、ヒューマンピンを覚えていますか。それはほとんどのレビュアーによって破壊されたもので、特にMarques Brownleeによって破壊されました。

It turns out that now the humane pin is actively getting more refunds and returns on a daily basis than they're getting sales of it.

今、人道的なピンは、売上よりも返金や返品が日々積極的に増えていることがわかりました。

They sold $9 million worth and they've already passed $1 million in total returns of the Ai Pin.

彼らは900万ドル分を売り上げ、すでにAi Pinの総返品額が100万ドルを超えています。

Google showed off a new Gemini AI powered TV streamer.

Googleは新しいGemini AI搭載のTVストリーマーを披露しました。

It sounds like it's a new product that's going to replace the Chromecast.

それは、Chromecastを置き換える新製品のようです。

It's like Google's version of a Roku or Amazon fire stick or Apple TV.

それは、GoogleのRokuやAmazon Fire Stick、Apple TVのバージョンのようです。

It says here to simplify content discovery, the Google TV streamer leverages Google AI to curate personalized content suggestions based on user preferences, conveniently organized in one place.

ここには、Google TVストリーマーは、Google AIを活用してユーザーの好みに基づいた個人用コンテンツ提案を簡単に見つけるために、便利に1つの場所に整理されています。

Interesting to me because we kind of already have this, right?

私にとって興味深いのは、実際にはすでにこれを持っているような気がするからです。

When you're using Hulu, when you're using Amazon prime, when you're using Netflix, when you're using YouTube, all of these video platforms have a recommendation algorithm.

Huluを使用している時、Amazonプライムを使用している時、Netflixを使用している時、YouTubeを使用している時、これらのすべてのビデオプラットフォームには推薦アルゴリズムがあります。

They see what you like and then recommend more content like what you like.

彼らはあなたが好きなものを見て、それに似たコンテンツを推薦します。

I guess some of this new AI, the generative AI that's coming out, I guess makes that better because I'm not sure how using generative AI is going to be a huge improvement over the existing sort of algorithmic method that they used for content recommendations in the past.

新しいAIの中には、生成AIというものが出てきていると思うのですが、過去にコンテンツの推薦に使用されていたアルゴリズム的な方法よりも生成AIを使用することがどれほど大幅な改善になるのかはよくわかりません。

That was already a sort of form of AI.

それはすでに一種のAIの形でした。

It wasn't generative AI, but it was a recommendation algorithm AI.

それは生成AIではなかったが、推薦アルゴリズムAIでした。

Why is using the newer generative AI going to be better?

なぜ新しい生成AIを使用する方が良いのでしょうか?

I'm not sure yet.

まだよくわかりません。

We'll we'll find out together.

一緒に見つけていきましょう。

I guess.

そうですね。

Last week I talked about how Taco bell is going to be integrating AI into their drive-throughs.

先週、タコベルがAIをドライブスルーに統合する方法について話しました。

I came across this tweet from Olivia Moore here where she actually showed off a video of somebody using a new AI drive-through at Wendy's and it's quite improved over the old memes that we used to see where people would go through the drive-through and they would order like an ice cream and it would say, oh, so you want a cup of milk?

オリビア・ムーアさんのツイートを見つけました。実際に、ウェンディーズで新しいAIドライブスルーを使っている人の動画を紹介していました。以前見かけた古いミームとはかなり改善されており、ドライブスルーを通ると、アイスクリームを注文しても、「あ、牛乳を一杯欲しいのですね?」と言われるようなことはありません。

They're like, no, I want an ice cream.

彼らは、「いや、アイスクリームが欲しい」と言っています。

They're like, all right, two milks.

彼らは、「わかった、牛乳2つ」と言っています。

It just like couldn't Figure out what they were trying to order.

彼らが何を注文しようとしているのか、なかなか理解できませんでした。

It seems a lot better now.

今はずっとスムーズになっています。

Take a look.

ご覧ください。

Can I get you anything else today?

今日は他に何かお持ちしましょうか?

No, thank you.

いいえ、結構です。

Please pull up to the next window.

次の窓までお進みください。

It seems like it works pretty well.

かなりうまくいっているようですね。

I also love robots.

私もロボットが大好きです。

Here's a new robot that a Google DeepMind was showing off claiming that it's solidly amateur at table tennis.

Google DeepMindが披露していた新しいロボットがあります。それは卓球ではまだ素人だと主張しています。

At this point, we've seen AI destroy people at chess.

この時点で、AIがチェスで人間を破壊するのを見てきました。

We've seen it destroy people at go.

私たちはそれが囲碁で人間を破壊するのを見てきました。

We've seen it destroy people at jeopardy.

私たちはそれがクイズ番組で人間を破壊するのを見てきました。

We also even saw AI recently beating formula one drivers and drone racers, right?

最近では、AIがフォーミュラワンのドライバーやドローンレーサーに勝る姿も見られましたね。

AI is sort of taking over all of this stuff.

AIはこのようなことをすべて乗っ取りつつあるようです。

It looks like now it's coming to table tennis.

今度は卓球にもやってきたようですね。

Thanks to DeepMind.

DeepMindのおかげです。

Here's a video out of NVIDIA that shows off how we can use things like the Apple Vision Pro to actually control robots.

NVIDIAのビデオでは、Apple Vision Proのようなものを使って実際にロボットを制御する方法を紹介しています。

I know this isn't specifically AI, but we can see that humans could put on the Apple Vision Pro actually take actions with their hands and the Apple Vision Pro sees the motion they're doing at the hands and translates it to the robot.

私はこれが特にAIではないことを知っていますが、人間がApple Vision Proを身に着けて実際に手で行動を起こすことができ、Apple Vision Proが手で行っている動きを見て、それをロボットに翻訳することができることがわかります。

The robot can do that.

そのロボットはそれができます。

I just thought that was really cool.

私はそれが本当に素晴らしいと思いました。

Wanted to share it with you.

あなたと共有したかったのです。

This is from the Apple insider website.

これはApple Insiderのウェブサイトからです。

I'll make sure it's linked up below if you want to take a peek at this.

もし見てみたいと思うなら、下にリンクを貼っておきますね。

To me, this is just like fun nerd stuff.

私にとって、これはただの楽しいオタクのものです。

Finally there is a new humanoid robot in the world.

ついに世界に新しいヒューマノイドロボットが登場しました。

We got the Figure Oh two from Figure robotics.

私たちはFigureロボティクスからFigureオー2を手に入れました。

We can get a little peek at what it looks like.

どんな姿をしているか少し覗いてみることができます。

They just revealed it this week.

彼らはちょうど今週それを公開しました。

It's got a whole new look from the Figure Oh one.

Figure Ohのものとは全く異なる新しい外観を持っています。

I think it looks pretty cool.

かなりかっこいいと思います。

Very similar to the Tesla optimist robot.

Teslaのオプティミストロボットに非常に似ています。

You can see it can move its hand in all sorts of directions, just like a human can it's got six cameras.

手をあらゆる方向に動かすことができ、人間と同じように、6つのカメラを搭載しています。

It's got AI driven vision.

AIによるビジョンを持っています。

Ideally it doesn't bump into stuff and it can see what it's picking up and things like that walks a little clunky, but pretty much all the humanoid robots do still.

理想的には、物にぶつからず、拾っているものを見ることができ、歩くときには少し不器用ですが、ほとんどの人型ロボットはまだそうです。

It's got speech to speech reasoning.

音声対話推論を持っています。

It should be able to listen to you and also reply to you.

あなたの話を聞くことができ、またあなたに返答することができるはずです。

Apparently they're already starting to use these on the BMW production lines.

BMWの生産ラインでこれらをすでに使い始めているようです。

Pretty cool.

かなりクールですね。

We're already seeing this embodied AI in robots being used on production lines or theoretically unsafe jobs for humans.

生産ラインや人間にとって危険な仕事で使用されているロボットにこの具現化されたAIを既に見ています。

Let's let the robots do it.

ロボットにやらせましょう。

Anyway, that's what I got for you this week.

とにかく、今週はこれだけです。

A lot of interesting storylines played out some interesting stuff with OpenAI, some cool new video tech that we're seeing lots of fun stuff next month.

OpenAIといくつかの興味深いストーリーが展開され、来月は楽しいことがたくさん見られる新しいビデオ技術もあります。

I think we're going to see some other announcements as well.

私たちは他にもいくつかの発表を見ることになると思います。

Meta connect is at the end of next month.

Meta Connectは来月末に行われます。

I'm excited to see what Meta is going to unveil at Meta connect.

私はMeta ConnectでMetaが発表する内容を楽しみにしています。

According to Greg Brockman's tweet that I showed off earlier in this video, OpenAI has some really interesting stuff.

このビデオで先ほど紹介したグレッグ・ブロックマンのツイートによると、OpenAIには非常に興味深いものがいくつかあります。

They're going to be revealing pretty soon.

彼らはすぐにそれを明らかにする予定です。

I think some exciting stuff's about to happen.

何か面白いことが起こりそうだと思います。

I'm excited by it all.

私はそれに興奮しています。

Everything I showed off in this video is the stuff that I found personally interesting that I thought I would show you.

このビデオで紹介したすべてのものは、私が個人的に興味を持って見つけたもので、あなたに見せたいと思ったものです。

There were some other little bits and pieces of news that I probably cut out because after I watched back the video, I went, ah, that's not that interesting cut it.

他にもいくつかの小さなニュースの断片があったかもしれませんが、ビデオを見直した後、それはあまり興味深くないと思ってカットしたかもしれません。

The stuff that I left in is the stuff that I thought was cool and nerdy that I thought nerdy people like you would think it's cool also, cause you're watching my channel.

残したものは、私がクールでオタクだと思ったもので、あなたのようなオタクの方々もクールだと思うだろうと思ったものです。なぜなら、あなたが私のチャンネルを見ているからです。

You're probably a little bit nerdy like me as well, but I have so much fun with this stuff.

おそらくあなたも私と同じように少しオタクっぽいですが、私はこのようなものを楽しむのがとても好きです。

I love playing around with it.

それで遊ぶのが大好きです。

I love seeing what's new.

新しいものを見るのが大好きです。

I love trying the new tools.

新しいツールを試すのが大好きです。

If you like stuff like that, make sure you like this video, subscribe to this channel.

もしあなたがそのようなものが好きなら、この動画にいいねをして、このチャンネルに登録してください。

I'll keep all the latest AI news updated in your YouTube feed.

あなたのYouTubeフィードで最新のAIニュースを常に更新します。

I'll also share tutorials on how to do all the cool stuff with AI that you see others doing and just kind of loop you in on the latest and greatest in the world of AI and emerging tech, like, and subscribe if you haven't already.

他の人がやっているかっこいいことをAIでどうやるかのチュートリアルも共有しますし、最新のAIや新興テクノロジーのトレンドについてもお知らせします。まだチャンネル登録していない場合は、ぜひチャンネル登録をお願いします。

As always check out futuretools.io.

いつものように、futuretools.ioをチェックしてください。

This is my website.

これは私のウェブサイトです。

This is where I curate the cool tools I come across.

私が見つけた便利なツールをまとめている場所です。

I also keep the news up to date pretty much daily.

私はほぼ毎日ニュースを最新の状態に保っています。

If you want to know the news on a day by day basis, instead of waiting for these weekly videos, it's available there.

週刊ビデオを待つ代わりに、日々のニュースを知りたい場合は、そちらでご覧いただけます。

It's completely free.

完全に無料です。

It's all over at futuretools.io.

全てfuturetools.ioでご覧いただけます。

Thank you so much for tuning into this video.

このビデオをご視聴いただき、ありがとうございます。

I really, really appreciate you.

本当に、本当に感謝しています。

Thank you HubSpot for sponsoring this one.

この企画をスポンサーしてくれたHubSpotに感謝します。

You guys rock and hopefully I'll see you in the next one.

みなさん、最高です。次回もお会いできることを願っています。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?