見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2023年10月21日|@Matt Wolfe】

この動画では、AIの最新ニュースが紹介されています。GPT-4の速度が向上し、DALL·E 3が正式にリリースされました。OpenAIは新しいコアバリューを設定し、AIプログラム「Arus」の開発を中止。Anthropicは95カ国でCladプラットフォームを展開し、著作権問題も発生しています。中国のBytedanceは新しいAI「Ernie」を開発、Nvidiaは中国へのAIチップ輸出を制限されました。その他、AI関連の進化や課題、新機能についても触れられています。
公開日:2023年10月21日
※動画を再生してから読むのがオススメです。


Let's break down all the stuff you probably missed in the world of AI this week.

今週のAIの世界では、おそらくあなたが見逃したであろうものをすべて分解してみよう。

Although it was a bit quieter of a week in terms of big AI announcements, there was still quite a bit of notable things happening that I think are worth talking about.

先週は大きなAIの発表が少なかったですが、それでも注目すべきことがいくつかありましたので、それについて話したいと思います。

Starting with the fact that GPT-4 is actually getting faster.

まずは、GPT-4が実際に高速化しているという事実だ。

Now, in previous weeks, I talked about how people seem to believe ChatGPT is getting dumber, which has been somewhat debunked by now.

以前の週には、ChatGPTが愚かになっていると人々が信じているようですが、それは今ではある程度否定されています。

But it is definitely getting faster.

しかし、間違いなく速くなっています。

This company, Portkey, has been keeping an eye on it.

このPortkeyという会社はそれを見守っています。

You can see the line in red is GPT-4, and the line in blue is GPT-3.5.

赤い線がGPT-4、青い線がGPT-3.5です。

We're getting to a point where GPT-4 is almost as fast as GPT-3.5.

GPT-4はGPT-3.5とほぼ同じ速度になりつつあります。

There's just a teeny tiny margin left.

ほんのわずかなマージンが残っているだけだ。

This week, OpenAI also announced that DALL-E 3 is now available in ChatGPT Plus and Enterprise.

今週、OpenAIはDALL-E 3がChatGPT PlusとEnterpriseで利用可能になったことも発表しました。

Now, most people actually got access to it last week, but OpenAI made it official.

さて、ほとんどの人は先週実際にアクセスできるようになりましたが、OpenAI はそれを正式に発表しました。

I'm assuming this means it's pretty much rolled out to everyone now.

これは、かなり多くの人が利用できるようになったということだと思います。

Although the fact that we can now use DALL-E 3 was in last week's news video as well.

DALL-E 3が使えるようになったことは、先週のニュースビデオにもありましたが。

If you want to use DALL-E 3, just log into your ChatGPT account, make sure that you are a ChatGPT Plus subscriber, hover over your GPT-4 button here, and select DALL-E 3.

DALL-E 3を使いたい場合は、ChatGPTアカウントにログインし、ChatGPT Plusに加入していることを確認し、GPT-4ボタンにカーソルを合わせ、DALL-E 3を選択してください。

And now you can make some amazing art like this space wolf chasing after a taco.

そして、タコスを追いかけるスペース・ウルフのような素晴らしいアートを作ってください。

This week, Rowan Chung also pointed out that OpenAI quietly changed their core values.

今週、ローワン・チョンは、OpenAIがコアバリューを静かに変更したことも指摘した。

And in this change, they updated it to focus on building AGI.

この変更では、AGIの構築に焦点を当てるように更新された。

So here's what the core values looked like before the change, and here's what they look like now.

では、変更前のコアバリューはこちらで、変更後はこちらです。

And if you notice, there's now a section that says AGI Focus.

そしてお気づきのように、AGIフォーカスという項目があります。

We are committed to building a safe, beneficial AGI that will have a massive positive impact on humanity's future.

私たちは、人類の未来に大きなプラスの影響を与える、安全で有益なAGIの構築に取り組んでいます。

Anything that doesn't help with that is out of scope.

そのために役立たないものは、すべて対象外です。

So they've made it absolutely clear what OpenAI's real purpose is now.

つまり、彼らはOpenAIの本当の目的が何であるかを明確にしたのだ。

Now, many people have a different definition of what AGI actually means.

さて、AGIが実際に何を意味するかについては、多くの人が異なる定義を持っている。

But Rowan also shared this video clip of Sam Alman giving his definition of AGI.

しかし、ローワンは、サム・アルマンがAGIの定義を語ったビデオクリップも共有している。

AGI is basically the equivalent of a median human that you could hire as a coworker.

AGIは基本的に、あなたが同僚として雇うことができる人間の中央値に相当します。

And then, they could say, Do anything that you'd be happy with a remote coworker doing just behind a computer, which includes, you know, learning how to go be a doctor, learning how to go be a very competent coder.

そして、彼らは言うことができます、「リモートで働く同僚がコンピュータの後ろでやっていることなら何でもやってください」ということで、医者になる方法を学ぶこと、非常に有能なコーダーになる方法を学ぶことなどが含まれます。

There's a lot of stuff that a median human is capable of getting good at, and I think one of the skills of an AGI is not any particular milestone, but a meta-skill of learning to figure things out.

一般的な人間が得意になることができることはたくさんありますが、AGIのスキルの1つは特定のマイルストーンではなく、物事を理解するためのメタスキルであると思います。

And that it can go decide to get good at whatever you need.

AGIのスキルの1つは、特定のマイルストーンではなく、物事を理解することを学ぶというメタスキルだと思います。

Also, in OpenAI news this week, OpenAI decided to shut down one of its AI programs they were working on, an AI model code-named arus, named after the desert planet from the Sci-Fi Dune.

また、今週のOpenAIのニュースでは、OpenAIは、彼らが取り組んでいたAIプログラムの1つ、コードネームarusというAIモデルの閉鎖を決定した。

The goal was to power AI applications like ChatGPT much more cheaply.

その目的は、ChatGPTのようなAIアプリケーションをより安価に動かすことだった。

However, they announced this week that they decided to scrap it because it struggled to meet expectations around efficiency.

しかし、彼らは今週、効率に関する期待に応えるのに苦労したため、このプロジェクトを中止することを決定したと発表した。

Not much else is known about this project arus, but it sounds like we're never going to see it anyway.

このプロジェクトについて他に知られていることはあまりないが、いずれにせよ、我々がこのプロジェクトを目にすることはなさそうだ。

This week, Anthropic made a major update to their CLAD platform, making it now available for users in 95 countries.

今週、AnthropicはCLADプラットフォームのメジャーアップデートを行い、95カ国のユーザーが利用できるようになった。

I personally use CLAD at least as much as ChatGPT, if maybe not a little bit more.

私は個人的にCLADをChatGPTと同じくらい、いやそれ以上に使っています。

It's probably the best tool available right now for summarization of long PDFs, CSV files, transcripts, things like that.

長いPDFやCSVファイル、トランスクリプトなどを要約するには、CLADはおそらく今最高のツールでしょう。

CLAD hands down is better at that than ChatGPT, just because it has a much larger context window.

CLADはそれに比べてChatGPTよりも優れています。なぜなら、より大きなコンテキストウィンドウを持っているからです。

And now, 95 more countries are going to be able to access that as well.

そして今回、さらに95カ国からアクセスできるようになる。

However, in some bad news for Anthropic, Universal Music is suing them for distributing song lyrics.

しかし、Anthropicにとって悪いニュースとして、ユニバーサルミュージックが歌詞を配信しているとして訴訟を起こしている。

So essentially, if you were to go to CLAD and type, Give me the song lyrics forRoar' by Katy Perry, it will actually write out all of the lyrics for you.

つまり、CLADでケイティ・ペリーの「Roar」の歌詞を教えてと入力すると、実際に歌詞をすべて書き出してくれるのだ。

Since song lyrics are actually copyrighted, Universal is saying that Anthropic not only distributes copyrighted material without permission, but that it used these to train its language models.

歌詞は著作権で保護されているため、ユニバーサルは、Anthropicが著作権で保護された素材を許可なく配布しているだけでなく、言語モデルを訓練するためにそれらを使用したと述べている。

They go on to say, Anthropic copyright infringement is not innovation.

彼らは、Anthropicの著作権侵害はイノベーションではない、と言い続けている。

In layman's terms, it's theft.

平たく言えば、窃盗だ。

The thing that I find interesting, though, is if I just went to Google and said, Roar by Katy Perry lyrics, Google gives me the lyrics right here, also for free.

私が面白いと思うのは、Googleでケイティ・ペリーのRoarの歌詞を検索すると、Googleは歌詞を無料で表示してくれることだ。

And I've been able to do that for like two decades now.

私はそれを20年以上もやってきました。

However, if you do ask ChatGPT the same question, it will say, Sorry, I can't provide the lyrics to copyrighted songs.

しかし、ChatGPTに同じ質問をすると、「申し訳ありませんが、著作権のある曲の歌詞は提供できません。

Would you like a summary instead?

代わりに要約が必要ですか?

Personally, I think there needs to be a total overhaul of what copyright law means because it's just getting harder and harder.

個人的には、著作権法の意味を完全に見直す必要があると思います。ますます難しくなっているからです。

The lines are getting blurred between what's copyrightable and what's not.

著作権が認められるものと認められないものの境界線が曖昧になってきている。

We're seeing this with images, we're seeing this with song lyrics, we're seeing this with people's voices.

私たちは画像でこれを見ていますし、歌詞でこれを見ていますし、人々の声でこれを見ています。

Pretty soon, we're going to see this more and more with video generation.

近い将来、私たちは映像の生成でますますこのような状況を目の当たりにすることになるでしょう。

And as AI gets more and more prolific and more and more people use these simple tools to sort of recreate anything, it seems like some of these bigger companies like Universal are just going to end up over their heads in potential lawsuits for all of these creations that are made.

そして、AIがますます盛んになり、より多くの人々がこのようなシンプルなツールを使って何かを再現するようになるにつれて、これらの大企業のいくつかは、このようなことを行っているように思われる。

Now, I'm not saying that it's necessarily right that people use copyrighted material.

今、私は、人々が著作物を使用することが必ずしも正しいとは言っていない。

I just think that the way copyright works needs to be rethought.

ただ、著作権の仕組みは考え直す必要があると思う。

I don't personally have the solution for that.

私個人はその解決策を持っていません。

I'm not claiming I do.

あると主張しているわけでもない。

I just think copyright needs to be rethought in this post-AI world that we're moving into.

ただ、私たちが移行しつつあるこのポストAIの世界では、著作権を再考する必要があると思います。

Also, this week, Inflection AI, the creator of the Pi chatbot, announced that Pi can now search the web.

また今週、Piチャットボットを開発したInflection AIは、Piがウェブを検索できるようになったと発表した。

So any chats that you have with Pi are up to date as of today.

そのため、Piとチャットした内容は、今日から最新のものになります。

So if I go to pi.a/talk, I can ask it super recent questions.

だから、pi.a/talkに行けば、超最近の質問をすることができる。

For example, Who won the boxing match between Logan Paul and Dylan Danis?

例えば、「ローガン・ポールとディラン・ダニスのボクシングの試合はどっちが勝った?

A really, really stupid viral boxing match.

本当に、本当にくだらないバイラルボクシングの試合。

Logan Paul won the fight, although it was a bit of a strange one.

ちょっと奇妙な試合だったが、ローガン・ポールが勝った。

Dylan Danis refused to strike and instead tried to grapple with Paul, which resulted in him being disqualified in the final round.

ディラン・ダニスは打撃を拒否し、代わりにポールと組み合おうとしたため、最終ラウンドで失格となった。

It was a pretty chaotic fight, with a mass brawl breaking out at one point.

かなり混乱した試合で、ある時点で大乱闘が勃発しました。

In the end, Logan Paul emerged victorious.

結局、ローガン・ポールが勝利を収めた。

Did you watch the fight, or are you just curious about the results?

試合を見ましたか、それとも結果について興味があるだけですか?

That is pretty up-to-date information, seeing as that fight happened on October 14th.

その試合が10月14日に行われたことを見れば、それはかなり最新の情報だ。

I think.

そうだね。

I didn't actually watch it.

実は見ていないんだ。

I actually just learned the result of it right now by asking Pi.

実際に私は今ちょうどそれの結果をPiに尋ねることでそれを知りました。

This week, Stanford put out a report here that they call the Foundation Model Transparency Index.

今週スタンフォード大学は、財団モデルの透明性指数と呼ばれるレポートを発表した。

They compared 10 different chatbots to find out which ones were the most transparent.

10種類のチャットボットを比較して、どれが最も透明性が高いかを調べた。

They were scored on 100 different indicators, things like how the data was trained, the labor that went into it, the compute power necessary, the risks, the distribution feedback, and much more.

データはどのように訓練されたのか、それに費やされた労力、必要な計算能力、リスク、配信フィードバックなど、100の異なる指標で採点された。

And basically, what it found was that Meta and their LAMA2 have been the most transparent, followed by Hugging Face, then OpenAI, then Stability, all the way on down to Amazon being the least transparent with their Titan model.

そして基本的に、MetaとそのLAMA2が最も透明性が高く、次いでHugging Face、OpenAI、Stabilityと続き、アマゾンがTitanモデルで最も透明性が低いことがわかった。

Concluding that developers can significantly improve transparency by adopting best practices from their competitors, and that the Open Foundation Model developers are leading the way.

開発者は競合他社のベストプラクティスを採用することで透明性を大幅に向上させることができ、オープン・ファウンデーション・モデルの開発者がその道をリードしていると結論づけている。

I find it interesting that OpenAI actually beat out Stability AI because Stability's most of their models are open and available for people to play around with.

OpenAIがStability AIに勝ったのは興味深いことです。なぜなら、Stability AIはモデルのほとんどをオープンにしており、人々が遊べるようになっているからです。

And finally, in other large language model news this week, Bytedance, a company out of China, says that its Ernie AI chatbot is not inferior in any aspect to GPT-4.

そして最後に、今週の他の大規模言語モデルのニュースとして、中国のBytedance社は、同社のErnie AIチャットボットはGPT-4より劣っていないと述べている。

They gave a keynote earlier this week and demonstrated improvements to four different capabilities: understanding, generation, reasoning, and memory.

彼らは今週初めに基調講演を行い、理解、生成、推論、記憶の4つの異なる能力の改善を実証しました。

Basically claiming that it's as good as GPT-4.

基本的にはGPT-4と同等だと主張している。

Now, Ernie-4 isn't publicly available yet, but even if it was, so far these various Ernie bots have only been available to use in Chinese, so I likely wouldn't be able to use it anyway.

さて、Ernie-4はまだ公開されていないが、仮に公開されていたとしても、これまでのところ、これらの様々なErnieボットは中国語でしか利用できないので、いずれにせよ私は使えないだろう。

And since we're on the topic of China, here's some news.

中国の話題になったので、ニュースです。

There's been a new US restriction passed making it so that NVIDIA cannot send their high-powered AI chips to China.

NVIDIAが高性能AIチップを中国に送れないようにする新たな規制が米国で可決された。

They've already been blocked from sending the H100 chips because they were too powerful.

H100チップは強力すぎるという理由で、すでに送付が阻止されている。

So NVIDIA went ahead and made a lower-spec H800 chip and was exporting those to China.

そこでNVIDIAは、より低スペックのH800チップを製造し、中国に輸出していた。

However, the new restrictions just closed that loophole, and now NVIDIA can no longer send H100s, H800s, or even A800 chips to China.

しかし、新たな規制によってその抜け道が塞がれ、NVIDIAはもはやH100、H800、そしてA800チップさえも中国に送ることができなくなった。

Apparently, all in an effort to sort of win the AI race with China.

どうやら、すべては中国とのAI競争に勝つための努力のようだ。

Now, let's shift into talking about AI art, starting with the sponsor of today's video, Wirestock.

さて、今日のビデオのスポンサーであるWirestockから、AIアートについて話を始めよう。

If you're not familiar with Wirestock, they are a single platform where you can upload stock photography that you created or even AI-generated images that you created, and it will submit it to all of the stock imagery platforms on your behalf.

Wirestockをご存じない方のために説明すると、Wirestockは、あなたが作成したストックフォト、あるいはAIが作成した画像をアップロードできるプラットフォームで、あなたに代わってすべてのストックイメージプラットフォームに画像を提供してくれます。

It will even title the images, add tags to the images, create descriptions for the images, and inform the stock photography sites that these are AI-generated, so that you can stay compliant.

また、画像にタイトルをつけたり、タグを追加したり、画像の説明文を作成したり、ストックフォトサイトにAIが作成した画像であることを通知したりすることもできます。

Sites like Imago, Adobe Stock, 123 RF, Dreamstime, and Freepik all allow AI-generated art.

Imago、Adobe Stock、123 RF、Dreamstime、Freepikなどのサイトでは、AIが生成した画像を使用することができます。

So you can generate an AI image, submit it to Wirestock, and it will create all the metadata and submit it to all these sites for you.

そのため、AI画像を生成してWirestockに送信すると、Wirestockがすべてのメタデータを作成し、これらのサイトに送信してくれます。

It's super fast.

とても速いです。

Wirestock even has their own Discord bot, so if you're familiar with tools like Midjourney, you'll feel right at home with Wirestock.

Wirestockには独自のDiscordボットもあるので、Midjourneyのようなツールに慣れ親しんでいる人なら、Wirestockでくつろぐことができるだろう。

It allows you to generate custom images, mix multiple images together, and even reimagine existing images.

Wirestockでは、カスタムイメージを作成したり、複数のイメージをミックスしたり、既存のイメージを再構築することもできます。

So you can upload an image that you already have, tell it to reimagine it, and it will create more images just like that one.

すでに持っている画像をアップロードして、それを再構築するように指示すれば、その画像と同じような画像をさらに作成してくれます。

Wirestock also gives you the ability to create custom collections.

Wirestockでは、カスタムコレクションを作成することもできます。

I can add this image, call it Pixel Collection, create the collection, and add more images straight into this collection.

この画像を追加して、ピクセルコレクションと名付け、コレクションを作成し、このコレクションに直接画像を追加することができます。

Now I can link people directly to this collection.

これで、このコレクションに直接リンクすることができます。

They can purchase the whole collection at a collection price.

このコレクションは、コレクション価格で購入することができます。

And if you're a premium member of Wirestock, you get to keep 100% of the earnings.

また、Wirestockのプレミアムメンバーであれば、収益の100%を受け取ることができます。

And if you're curious, Wirestock even sent me a handful of images that are performing well on Wirestock right now.

さらに、Wirestockが今Wirestockで好調な画像をいくつか送ってくれました。

So if you want an idea of what images to generate, here's a few.

どのような画像を作成すればいいのかお知りになりたい方は、こちらをご覧ください。

We got a landscape, a tractor, a busy street, this cool sort of surreal reef image, this cool background image, and this flooded basement.

風景、トラクター、賑やかな通り、クールでシュールなサンゴ礁の画像、クールな背景画像、そして水浸しの地下室です。

These are images that performed well.

これらの画像はうまくいきました。

You can learn more about Wirestock by heading over to wirestock.io.

Wirestockの詳細については、wirestock.ioをご覧ください。

And if you use the coupon code Matt20, you'll actually get 20% off your premium membership.

クーポンコード「Matt20」を使えば、プレミアムメンバーシップが20%オフになります。

So check that out over at wirestock.io.

wirestock.ioでチェックしてみてください。

And thank you so much again to Wirestock for sponsoring this video.

このビデオをスポンサーしてくれたWirestockに改めて感謝します。

Now let's check in with Ali Jules on this week's Midjourney office hours update.

それでは、今週のMidjourneyオフィスアワー・アップデートについて、アリ・ジュールズに話を聞いてみよう。

They did add one new major feature inside of Midjourney this week.

今週、Midjourneyに新しい機能が追加されました。

If I generate an image that I really like, let's go ahead and upscale number two here.

気に入った画像があったら、2番をアップスケールしてみましょう。

I now have the option to further upscale this image 2X or 4X, allowing me to get much, much larger images without loss of image quality.

この画像を2倍または4倍にアップスケールするオプションが追加され、画質を損なうことなく、より大きな画像を得ることができるようになりました。

They also mentioned that their phase one of their new website is going to be released next week.

彼らはまた、新しいウェブサイトのフェーズ1が来週リリースされるとも言っていた。

This isn't going to be a platform where you can generate images directly from the website yet, but their phase two of the website supposedly is going to come out sometime next month, which should give us the ability to generate straight from their website and finally get Midjourney out of Discord.

これはまだウェブサイトから直接画像を生成できるプラットフォームにはなりませんが、ウェブサイトのフェーズ2が来月中にリリースされる予定で、ウェブサイトから直接画像を生成できるようになり、最終的にMidjourneyをDiscordから切り離すことができるようになるはずです。

Other Midjourney news this week, Midjourney partnered with a game company called Sizigi Studios to launch Nigi Journey, which is both an iOS and Android app that allows you to generate anime-style images directly within the app.

今週はMidjourneyの他のニュースとして、MidjourneyはSizigi Studiosというゲーム会社と提携し、iOSとAndroidアプリでアニメスタイルの画像をアプリ内で直接生成できるNigi Journeyを発表した。

I haven't personally used this one myself yet, but it appears to give us another option to generate Midjourney art-style images, not necessarily realistic photos.

私自身はまだこのアプリを使っていないが、リアルな写真ではなく、Midjourneyのアート風の画像を生成する別の選択肢を与えてくれるようだ。

In the last week and a half, this YouTube video has gone viral with almost 3 million views from Peter Whidden.

この1週間半の間に、ピーター・ウィデンによるこのYouTube動画が300万回近く再生され、大流行した。

And in this video, he shows how he actually trained an AI to play through Pokemon.

この動画で彼は、ポケモンをプレイするAIを実際に訓練した方法を紹介している。

He was able to run several instances at once of an AI character running through the game and used reinforcement learning with a point-based system so that when the character did things like collect Pokemon or uncover new parts of the map, it earned points, causing the AI character to play deeper and deeper into the game and collect more and more Pokemon.

彼はAIキャラクターを複数同時に実行し、ポイントベースのシステムで強化学習を行いました。キャラクターがポケモンを集めたり、マップの新しい部分を発見したりすると、ポイントが獲得され、AIキャラクターはゲームの深い部分に入り込み、ますます多くのポケモンを集めるようになります。

I highly recommend, if you love AI as much as I do, watching the entire 33-minute video, as he breaks down exactly how it works, the methodology behind it, the results from it, and he even created a GitHub so that you could go and download the code and run these Pokemon simulations yourself with a Pokemon emulator.

私同様AIが好きなら、この33分のビデオを全部見ることを強くお薦めする。彼は、それがどのように機能するのか、その背後にある方法論、そこから得られた結果を正確に説明しており、さらにGitHubまで作成しているので、コードをダウンロードして、ポケモンエミュレーターを使って自分でこのポケモンのシミュレーションを実行することができる。

Now, a few weeks ago, I talked about Stack Overflow and how they were developing their own sort of AI.

さて、数週間前に、スタック・オーバーフローが独自のAIを開発しているという話をした。

Well, this week, it was announced that Stack Overflow laid off over a hundred people as the AI coding boom continues.

今週、AIコーディング・ブームが続く中、Stack Overflowが100人以上を解雇したと発表された。

That's 28% of its staff.

これはスタッフの28%に相当する。

Now, if you're not familiar with Stack Overflow, it's essentially a site where people can go to get help with coding when they run into an issue.

スタック・オーバーフローをご存じない方もいらっしゃるかもしれないが、基本的には、コーディングで問題にぶつかったときに助けを求めに行くサイトである。

They ask questions on Stack Overflow.

Stack Overflowで質問をする。

And then, helpful people on the website help them answer their code questions.

そして、ウェブサイトの親切な人々がコードの質問に答えてくれる。

Well, the problem is now, instead of using Stack Overflow, a lot of developers are just going to tools like ChatGPT and Claud to get help with their coding when they run into issues.

問題は、Stack Overflowを使う代わりに、多くの開発者がChatGPTやClaudのようなツールでコーディングのヘルプを得ていることだ。

There's also tools out there like GitHub Copilot and Amazon's Code Whisperer, which just help people develop the code and troubleshoot as well.

また、GitHub CopilotやAmazonのCode Whispererのようなツールもあり、コード開発とトラブルシューティングを手助けしている。

The site Stack Overflow has seen a major hit in the amount of traffic that it actually gets.

Stack Overflowというサイトは、実際のトラフィック量に大きな打撃を受けている。

YouTube announced this week that it's getting a new AI-powered ad feature that lets brands target special cultural moments.

YouTubeは今週、特別な文化的瞬間をターゲットにすることができる新しいAIパワードの広告機能を導入すると発表しました。

So essentially, if you have a product, for instance, that's related to Halloween, you can say, I want to advertise this product on any videos talking about Halloween, and YouTube's AI will try to find the videos that are about Halloween and work your ad into those videos.

基本的に、たとえばハロウィンに関連する製品がある場合、ハロウィンについて話しているどの動画でもこの製品を広告表示したいと言うことができ、YouTubeのAIがハロウィンに関連する動画を見つけて広告を表示しようとします。

So instead of specifically targeting certain channels or keywords, it uses AI to find videos on maybe unrelated channels but that happen to be talking about the specific event that you're trying to target.

つまり、特定のチャンネルやキーワードを特別にターゲットにするのではなく、AIを使って、もしかしたら無関係のチャンネルかもしれないが、たまたまあなたがターゲットにしようとしている特定のイベントについて話している動画を見つけるのだ。

Also, this week, Descript announced some new big AI features.

また今週、Descriptは新しい大きなAI機能をいくつか発表した。

They've added some new AI voices to their platform.

彼らのプラットフォームに新しいAI音声が追加されました。

We're introducing an all-new version of our in-house AI voice tool.

私たちは、社内のAI音声ツールの新バージョンを導入します。

We basically took our beat-up old AI into the shop, rebuilt the engine, and outfitted it with a set of all-new space-age capabilities like text-to-speech and lightning-fast authorization.

私たちは基本的に、ボロボロになった古いAIを修理に出し、エンジンを再構築し、音声合成や電光石火のオーソリゼーションなど、まったく新しい宇宙時代の機能を搭載しました。

The old overdub could get you where you wanted to go, but with our new AI voices, we're handing you the keys to a rocket ship.

古いオーバーダブは、あなたが行きたいところに行くことができましたが、私たちの新しいAIボイスでは、あなたにロケット船の鍵を渡します。

No more waiting 24 hours to train or verify a voice, and the quality is much, much better.

音声のトレーニングや確認に24時間待たされることもなく、品質も格段に向上しています。

So good that it's now legitimately possible to create an entire voiceover without recording a single word.

一言も録音することなく、ナレーション全体を作成することも合法的に可能になりました。

And speaking of AI voice cloning, the New York City mayor, Eric Adams, used AI to make robo calls in languages that he doesn't speak.

AIの音声クローンといえば、ニューヨーク市長のエリック・アダムスは、AIを使用して、自分が話したいと思う言語でロボット電話をかけた。

He sent thousands of calls in Spanish, more than 250 in Yiddish, more than 160 in Mandarin, 89 in Cantonese, and 23 in Haitian Creole.

彼はスペイン語で数千件、イディッシュ語で250件以上、北京語で160件以上、広東語で89件、ハイチ・クレオール語で23件の電話をかけた。

And a lot of people weren't happy with it, with one person saying, This is deeply unethical, especially on the taxpayer's dime.

多くの人々がそれに満足していませんでした。ある人は「これは非常に非倫理的です、特に納税者の負担である」と言っています。

Using AI to convince New Yorkers that he speaks languages that he doesn't is deeply Orwellian.

AIを使ってニューヨーカーに、彼が話していない言語を話すと信じ込ませるのは、オーウェル的だ」。

Adams actually made a statement at a press conference saying, People stop me on the street all the time and say,I didn't know you speak Mandarin.

実際にアダムスは記者会見でこう発言している。『街でいつも呼び止められ、あなたが北京語を話すとは知らなかったと言われます。

He doesn't.

彼はそうではない。

This week, Meta showed off some research called Towards a Real-Time Decoding of Images from Brain Activity.

今週、メタは『脳活動から画像をリアルタイムで解読する方法』という研究を披露した。

Now, we've seen some of this kind of stuff before.

この種のものは以前にもいくつか見たことがある。

Previous examples used MRIs, requiring people to lay down in a giant machine and scan their brain as they're seeing images.

これまでの例では、MRIを使い、巨大な機械に横たわり、画像を見ている間に脳をスキャンする必要があった。

This new method from Meta uses what's called a MEG, or magnetoencephalography.

メタ社のこの新しい方法は、MEG(脳磁図)と呼ばれるものを使用する。

This allows the researchers to see what the brain is seeing in real time without the invasiveness of using MRIs.

これによって研究者たちは、MRIを使うような侵襲性を伴わずに、脳が見ているものをリアルタイムで見ることができる。

So, this research showed people an image and then essentially read their brain waves to interpret what they were seeing.

つまり、この研究では、人々に画像を見せ、その脳波を読み取って、彼らが何を見ているかを解釈したのである。

The image on the left here is what was actually shown to the person.

ここに左側の画像が実際にその人に表示されたものです。

The image on the right is actually what was decoded from the brain waves.

右側の画像は、実際に脳波からデコードされたものです。

So, you can see they were shown cheese.

つまり、チーズを見せられたことがわかる。

This is what the brain saw or what was interpreted.

これが脳が見たもの、あるいは解釈されたものです。

Now, these aren't perfect replications, obviously.

もちろん、これは完全な再現ではありません。

This is like a cheetah and it's seeing a weird, like, monkey thing.

これはチーターのようなもので、サルのような奇妙なものを見ている。

But this is getting really fascinating.

しかし、これは本当に魅力的なことです。

We're getting to a point where AI is helping read brain waves and interpret what the brain is seeing.

AIが脳波を読み取り、脳が見ているものを解釈する手助けをするところまで来ているのです。

Here's some more examples.

さらにいくつかの例を挙げよう。

The viewed image of a surfer.

サーファーの見た画像です。

Here's what was seen with the scan.

これがスキャンで見たもの。

Here's a horse.

ここに馬がいます。

Here's what was seen with the brain scan.

これが脳スキャンで見たもの。

Plane.

飛行機。

A plane.

飛行機。

I mean, it's all pretty dang close to the original image.

つまり、すべてが元の画像に非常に近いです。

And with Meta actually being one of these companies that's trying to sell us headwear like the Meta Quest 3, I don't know how I really feel about Meta trying to read our brain waves.

MetaはMeta Quest 3のようなヘッドウェアを売ろうとしている会社のひとつだが、Metaが脳波を読み取ろうとしていることについて、私はどう感じているのかわからない。

Is this going to go down the path where some of this technology is put inside of this wearable technology and Meta is reading our brain to show us advertising?

ウェアラブル・テクノロジーにこのテクノロジーを組み込んで、Metaが私たちの脳を読み取って広告を表示するようなことになるのだろうか?

I doubt it's going to go that far.

そこまでは行かないだろう。

The world as a whole would probably push back on that.

世界全体としては、おそらくそれに反対するでしょう。

But it feels like Meta is getting close to having the technology to be able to do that.

しかし、Metaはそれを可能にする技術に近づいているように感じる。

All right, let's talk about robotics for a minute.

さて、少しロボット工学の話をしよう。

This week, Amazon said that their new AI-powered robots will reduce fulfillment time by 25%. Which, to me, is just crazy because we can already go on Amazon, press buy now on something, and literally have it the next morning on our doorstep.

今週、アマゾンはAIを搭載した新しいロボットがフルフィルメントにかかる時間を25%短縮すると発表した。私たちはすでにアマゾンで「今すぐ買う」を押すと、文字通り翌朝には商品が手元に届いている。

And in some cases, I've ordered products and two hours later, they're sitting on my doorstep.

場合によっては、商品を注文して2時間後には玄関先に置かれていることもある。

And Amazon saying they're going to reduce fulfillment time by 25% with these new robots.

アマゾンは新しいロボットでフルフィルメントにかかる時間を25%短縮すると言っている。

I don't have a ton of information about what these robots actually look like or how they're going to speed up fulfillment time.

このロボットが実際にどのようなものなのか、フルフィルメントにかかる時間をどのように短縮するのか、私は詳しい情報を持っていない。

I just find it absolutely fascinating that with how fast Amazon already is, they're still trying to make it faster.

ただ、アマゾンのスピードはすでに速いのに、さらに速くしようとしているのは本当に魅力的だ。

It's only a matter of time before we place an order on Amazon and a drone is dropping it on our doorstep 15 minutes after we order it.

注文をAmazonで行い、15分後にドローンが玄関先にそれを届けるようになるのは時間の問題です。

In Dubai, they're actually getting AI-powered self-driving patrol cars that are also equipped with drones.

ドバイでは実際に、ドローンを搭載したAI搭載の自動運転パトロールカーが導入されている。

These things are designed to patrol neighborhoods.

これは近隣をパトロールするために設計されている。

They've got 360° cameras on them and they've got facial recognition technology.

それらには360°カメラが付いており、顔認識技術も備えています。

They also have a drone on board where the autonomous robot could launch the drone to see into areas where the driving robot can't see.

また、ドローンも搭載されており、自律走行ロボットがドローンを発射して、運転ロボットが見えない場所を確認することもできる。

Apparently, these are just essentially designed to gather information.

どうやら、これらは基本的に情報収集のために設計されているようだ。

And if it sees something out of the ordinary, report it back to the police so the police could come and take care of it.

そして、もし何か異常なものを見つけたら、それを警察に報告し、警察が来て対処できるようにする。

But this does feel a little bit like a step closer to, like, a robot police force that could be out there autonomously patrolling the streets for us.

しかし、これは少し、まるで私たちのために街を自律的に巡回するロボット警察部隊に近づいた一歩のように感じます。

And I don't know how I feel about that yet.

それをどう感じるかはまだわからない。

This is kind of creepy, honestly.

これは少し気味が悪いですね。

But let's keep talking robots.

しかし、ロボットの話を続けよう。

This week, this video of Figure One Dynamic Walking Robot was released, and it shows a robot with a humanoid form that can actually walk around.

今週、Figure One Dynamic Walking Robotのビデオが公開され、実際に歩くことができる人間の形をしたロボットが表示されています。

You can see it here walking forward, sort of like a human, maybe a human with a bad back or something.

ここで前に進んでいるのが見えます。人間のようなもの、おそらく背中の悪い人間のようなものです。

They claim this robot is the first of its kind, AI robotics company bringing a general-purpose humanoid to life.

彼らは、このロボットがこの種のものとしては初めてのものであり、AIロボット企業が汎用ヒューマノイドを世に送り出したものだと主張している。

At the moment, the goal of these robots is to help with undesirable jobs.

今のところ、このロボットの目標は、望ましくない仕事を手伝うことだ。

They say, In the future, we believe humanoids will revolutionize a variety of industries, from corporate labor roles to assisting individuals in the home, to caring for the elderly, and to building new worlds on other planets.

将来的には、ヒューマノイドは、企業の労働力から、家庭での個人の支援、高齢者の介護、他の惑星での新世界の建設まで、さまざまな産業に革命をもたらすと信じています。

However, first applications will be in industries such as manufacturing, shipping and logistics, warehousing, and retail, where labor shortages are the most severe.

しかし、最初に応用されるのは、製造業、海運業、物流業、倉庫業、小売業など、労働力不足が最も深刻な業界でしょう。

This week, NVIDIA announced Eureka Extreme Robot Dexterity with large language models.

今週、NVIDIAは、大規模な言語モデルを備えたEureka Extreme Robot Dexterityを発表した。

This is an improved reinforcement learning technique that they actually figured out how to use to allow robots to do complex things with their fingers.

これは改良された強化学習の技術で、実際にはロボットが複雑なことを指で行うことができるようになる方法を見つけたものです。

As one of the first tests that they used this new reinforcement technique on, text-to-video has been all the rage lately.

この新しい強化テクニックを使った最初のテストの1つとして、テキスト・トゥ・ビデオは最近大流行している。

We've gotten Gen2, we've gotten PikaLabs, we've gotten Moon Valley.

Gen2、PikaLabs、Moon Valley。

There's all sorts of new AI text-to-video models out there.

新しいAIテキスト・トゥ・ビデオ・モデルがいろいろ出てきている。

And today, I came across this one called Morph Studio, which you can see some examples here.

そして今日、私はMorph Studioというものを見つけた。

And this one claims to generate between five and seven-second clips.

このモデルは、5秒から7秒のクリップを生成すると主張している。

But not only that, it will actually generate them in high resolution.

それだけでなく、実際に高解像度で生成してくれる。

So if we pop into their Discord, let's give it a try real quick.

Discordにアクセスして、早速試してみよう。

I type slide and give it the prompt of wolf walking in the snow.

slideと入力し、狼が雪の中を歩くというプロンプトを出す。

It took about three minutes, and here's the video I got from it.

約3分かかりましたが、ここにそのビデオがあります。

Really, really impressive, actually.

本当に、本当に印象的ですね。

It only generated three seconds, but let's take a peek at it in full screen.

たった3秒しか生成されなかったが、フルスクリーンで見てみよう。

Pretty decent quality as well.

かなりまともな画質だ。

So at the moment, it seems pretty similar to Gen2 or Pabs or Moon Valley, but pretty impressive quality.

現時点では、Gen2やPabs、Moon Valleyにかなり似ているようだが、かなり印象的なクオリティだ。

Just looking at some of the other generations that have been here, this time-lapse of the Milky Way galaxy looks really cool.

ここにいる他の世代を見てみると、この天の川銀河のタイムラプスは本当にクールに見えます。

This happy woman here looks really good.

この幸せそうな女性は本当にいい感じだ。

Swim in the sky, blue fish.

空中を泳ぐ、青い魚です。

I mean, these are pretty good.

つまり、これらはかなり良い。

Other than the fact that that fish had a tail face for a second there.

ただし、その魚が一時的に尾のような顔をしていたという事実以外は。

But this one was actually seven seconds, so it's definitely capable of generating some longer videos from time to time.

しかし、これは実際には7秒でしたので、時折長いビデオを生成することができます。

It looks like maybe you got to give it this extra S7 to get the longer videos, though.

長いビデオを得るためには、おそらくこの追加のS7を与える必要があるようです。

But as of right now, it appears to be free to use.

しかし、今のところ、無料で使えるようだ。

You can find it over at morphstudio.com and join their Discord.

morphstudio.comからDiscordに参加できる。

Here's another tool that I came across.

もうひとつ、こんなツールを見つけた。

This masterpiece X company partnered with NVIDIA recently to generate these 3D animated assets from a text prompt.

このマスターピースXの会社は最近NVIDIAと提携し、テキストプロンプトから3Dアニメーションアセットを生成している。

Now, I haven't tried this out yet.

今のところ、私はこれを試していません。

I click on generate 3D.

generate3Dをクリックします。

Now, you can see it starts us off with 250 credits, and the credit cost to generate is about 50 credits.

250クレジットでスタートし、生成に必要なクレジットは約50クレジットだ。

You can generate objects, animals, or humans.

オブジェクト、動物、人間を生成することができる。

Let's go ahead and generate an animal.

それでは動物を生成してみよう。

And you can see the estimated time is 2 to 8 minutes per 3D model.

そして、推定時間は3Dモデルごとに2〜8分です。

I'm going to click next step to add shape details.

次のステップをクリックして、形状の詳細を追加します。

Let's just go ahead and do a wolf.

オオカミを作成してみましょう。

Next step to add paint.

次のステップでペイントを追加します。

It gives us some guidelines here.

ガイドラインが表示されます。

Hyper-realistic 4K gray and white.

ハイパーリアルな4Kグレーと白。

I click advanced settings.

詳細設定をクリックします。

It gives us some negative prompt options.

ネガティブプロンプトのオプションが表示されます。

And let's click generate 3D models.

3Dモデルの生成をクリックします。

It says it may take 2 to 8 minutes for each model.

各モデルに2~8分かかると表示されます。

And it now says processing up here.

そして、ここに処理と表示されました。

And we have our wolf model.

オオカミのモデルができました。

You can see it took about 3 minutes.

約3分かかったことがわかります。

So let's go ahead and click on it.

それではクリックしてみましょう。

And I would say it's got more of a cat look to it than a wolf.

私はそれが狼よりも猫のように見えると言いたいと思います。

But not bad.

でも悪くはない。

I mean, we've come a long, long way.

つまり、我々は長い長い道のりを歩んできたのだ。

When I've used Common Sense Machine, that took a lot longer to generate.

コモンセンス・マシーンを使ったときは、生成にもっと時間がかかった。

Interesting,cause if I look at it from some angles, you can kind of see, like, the wolf's nose right here.

面白いのは、いくつかの角度から見てみると、オオカミの鼻がここにあるのがわかるんだ。

Like, the front straight on looks like it's supposed to be a wolf.

正面から見ると、それは狼のように見えますが、完璧ではありません。

But then when you turn it, it looks like the nose kind of got put on the neck or something.

でも、向きを変えると、鼻が首か何かの上に乗っかっているように見える。

So not quite perfect, but it looks like an interesting cat.

完全には完璧ではありませんが、興味深い猫のように見えます。

Now, this tool also claimed that it can animate whatever you generate as well.

さて、このツールは、生成したものを何でもアニメートできるとも主張している。

However, it looks like the animate option is only for the human models.

ただし、アニメートオプションは人間モデルだけのようだ。

So let's go ahead and create a human real quick.

では、さっそく人間を作ってみよう。

Let's generate a pirate.

海賊を作りましょう。

I'm just going to throw in some keywords here, like 4K and ArtStation and cartoon.

ここでは、4K、ArtStation、カートゥーンなどのキーワードを入力します。

And now it gives us the animation option.

アニメーションのオプションが表示されます。

So we've got bones only, which looks like we can rig it for other tools, or we can have this tool animate it for us.

ボーンのみで、他のツールでリギングすることもできますし、このツールでアニメーションさせることもできます。

Let's do bones and animation, and let's do it punching.

ボーンとアニメーションをやってみましょう。

And let's generate and see what we get with an animated human model.

そして、アニメーションした人体モデルを生成して見てみましょう。

Well, it took about six minutes to generate this one, probably because of the animation.

さて、これを生成するのに約6分かかりました。おそらくアニメーションのためです。

Let's take a peek.

ちょっと覗いてみよう。

Okay, I mean, it's punching, I guess.

わかりました、パンチしている、と言ってもいいですね。

Looks more like a zombie mutant than a pirate.

海賊というよりゾンビミュータントみたいだ。

But again, this is as bad as it's going to get.

でもまた、これと同じくらいひどい。

And the amount of time it took to generate this versus what something like Common Sense Machines does is, I mean, just a fraction of the amount of time.

これを生成するのにかかる時間は、Common Sense Machinesのようなものと比べて、時間のほんの一部です。

Generated this in six minutes.

これを6分で作成した。

CSM would have generated this in like 24 hours, and it wouldn't have been animated.

CSMなら24時間はかかるだろうし、アニメーションにもならなかっただろう。

So pretty cool, pretty fun to play around with.

とてもクールで、遊んでいてとても楽しい。

I'm sure if you figured out the prompting and got better with the prompting, you can generate stuff much better than this.

プロンプトの出し方を理解し、プロンプトの出し方がうまくなれば、これよりもずっといいものを生成できるはずだ。

Just looking through some of the examples here, like this tiger and these people and this horse, other people are getting some much better generations out of it than what I'm getting.

ここにあるいくつかの例を見てみると、例えばこの虎や、この人々や、この馬のように、他の人たちは私が得ているものよりもずっと良い世代のものを得ている。

So it's definitely got some promise.

だから、これは間違いなく有望なんだ。

I just haven't spent enough time figuring out how to prompt it properly yet.

ただ、適切なプロンプトの出し方を理解するのに十分な時間を費やしていないだけなんだ。

And there you have it.

以上です。

There's the news roundup in the AI space for this week.

これで今週のAI関連のニュースはすべて出揃った。

Again, it was a bit of a slower week in terms of announcements, but still a lot of really, really cool stuff happened and some new tools and toys that we got to play with got released.

今週もまた、発表の面では少し低調な週だったが、それでも本当に、本当にクールなことがたくさん起こったし、私たちが遊ぶことのできる新しいツールやおもちゃがいくつかリリースされた。

So that's always a fun time.

だからいつも楽しいんだ。

If you enjoy this video, make sure you check out Future Tools, where I curate all of the latest AI news on a daily basis, and I update the homepage with all of the coolest AI tools that I come across.

このビデオを楽しんでいただけたなら、ぜひFuture Toolsをチェックしてください。ここでは、最新のAIニュースを毎日キュレーションし、私が出会った最もクールなAIツールすべてをホームページにアップしています。

I also have a weekly newsletter.

毎週ニュースレターも発行しています。

If you sign up for the free newsletter, I'll send you the latest AI news and the coolest AI tools directly to your email inbox.

無料のニュースレターに登録していただければ、最新のAIニュースや最もクールなAIツールを直接メールボックスにお送りします。

You can find it all over at futuretools.so.

すべてfuturetools.soでご覧いただけます。

Check that out.

ぜひご覧ください。

And if you enjoyed this video and you want to stay in the loop with the latest AI news and tutorials, make sure you like this video and subscribe to this channel, and I'll make sure more videos like this show up in your YouTube feed.

また、このビデオを楽しんでいただき、最新のAIニュースやチュートリアルを常にチェックしたい方は、このビデオを「いいね!」して、このチャンネルに登録してください。

Thanks so much for nerding out with me today.

このようなビデオがあなたのYouTubeフィードにもっと表示されるようにします。

I really, really appreciate you.

本当に本当にありがとう。

And thanks once again to Wirestock for sponsoring this video.

そして、このビデオをスポンサーしてくれたWirestockに改めて感謝します。

You guys are awesome as well.

君たちも素晴らしい。

I hope you learned something new and discovered some cool new AI tech or news,cause that's always my goal with these videos.

あなたが何か新しいことを学んだり、クールな新しいAI技術やニュースを発見したりしたことを願っています。

And I'm always having a blast making them and sharing them with you.

このビデオを作り、皆さんと共有するのは、いつもとても楽しいことです。

So thank you once again.

本当にありがとう。

Really appreciate you.

本当にありがとう。

See you in the next video.

また次のビデオでお会いしましょう。

Bye-bye.

バイバイ。


この記事が気に入ったらサポートをしてみませんか?