見出し画像

【AIニュース】英語解説を日本語で読む【2023年7月22日|@Matt Wolfe】

このYouTube動画では、AIに関するさまざまなニュースが紹介されています。まず、Metaが新しい画像モデル「Chameleon」を発表しました。Chameleonはテキストから画像を生成することができるだけでなく、テキストガイドによる画像編集も可能です。また、Chameleonはテキストタスクも実行できるため、多様な用途に活用できます。 次に、イーロン・マスクのAIスタートアップ「xAI」についての情報が公開されました。xAIはTeslaと協力し、シリコンとソフトウェアの開発を行います。また、xAIはTwitterのデータをトレーニングに使用し、最大限の好奇心を持つAIシステムを構築します。さらに、テスラはAIトレーニングに「Dojo」というスーパーコンピュータを使用し、物理世界を理解するAIを開発します。 また、WixがAIをプラットフォームに統合し、テキストからウェブサイトを作成できるようになりました。この機能を使用すると、テキストのプロンプトを入力するだけで、自動的にウェブサイトが生成されます。 さらに、MicrosoftがAIモデル「Llama 2」を発表し、Metaと提携しました。Llama 2はChatGPTに対抗するオープンソースモデルであり、AIの開発において革新的な取り組みとなります。 その他にも、GoogleがAIを使用したニュース記事の自動生成をテストしていることや、SuperhumanがAI機能を追加し、メールの管理をサポートすることなどが紹介されました。 さらに、著作権侵害の問題により、AIモデルの開発会社が著作権者から訴えられていることや、GitHubがAIチャットボット「Co-pilot」を提供し、コーディングをサポートすることなども取り上げられました。 最後に、illumine AIが2D画像を3Dに変換する機能を追加したことが紹介されました。この機能を使用すると、2D画像に3Dの奥行きマップを追加することができます。
公開日:2023年7月22日
※動画を再生してから読むのがオススメです。


Second week in a row, we've had an insane amount of AI news drop, and as you can see by my tabs above, we got a lot to cover.

2週連続で、驚くべき量のAIニュースが舞い込んできました。上のタブを見てわかるように、私たちが取り上げる話題がたくさんあります。

So let's get right into it.

では、さっそく本題に入ろう。

At the end of last week, Meta announced a new image model called Chameleon.

先週末、メタ社はカメレオンと呼ばれる新しい画像モデルを発表した。

The model is capable of text to image, and as you can see from their examples, they're kind of flexing on some of the other text to image models by generating an image of a hand and also generating an image with the text 1991 in it.

このモデルはテキストから画像への変換が可能で、その例を見ればわかるように、手の画像を生成したり、テキスト1991を含む画像を生成したりすることで、他のテキストから画像への変換モデルのいくつかにフレックスを与えているようなものだ。

But Chameleon isn't only capable of doing text to image, it could also do text-guided image editing.

しかし、Chameleonはテキストを画像に変換するだけでなく、テキストガイド付きの画像編集もできる。

So you can see here they give an initial input and then they give the prompt, What would she look like as a bearded man?

最初に入力を与え、次に「彼女はヒゲのある男性としてどのように見えるでしょうか?」というプロンプトを与えました。

and it generates this image.

と入力すると、このような画像が生成される。

Put a pair of sunglasses, she looks 100 years old, apply face paint, and so on.

サングラスをかけると100歳に見え、フェイスペイントを塗るといった具合だ。

Adding the additional text combined with the image, you can actually tweak the images with this.

画像にテキストを追加することで、実際に画像を微調整することができます。

This model can also do text tasks.

このモデルはテキストタスクもこなせます。

They gave it this image of a dog holding a stick and asked, What is the dog carrying?

彼らは犬がスティックを持っているこの画像を与えて、「犬は何を運んでいるか?」と尋ねました。

and it told them a stick.

と尋ねると、犬は棒と答えた。

Describe the given image in very fine detail.

与えられた画像を非常に細かく描写する。

In this image, there's a dog holding a stick in its mouth.

この画像では、犬が口にスティックをくわえています。

There is grass on the surface.

表面には草が生えている。

In the background of the image, there are trees.

画像の背景には木があります。

It can also do some pretty advanced stuff.

それはかなり高度なこともできます。

Like, look at this prop.

この小道具を見てください。

Generate a high-quality image of a room that has a sink and a mirror in it with a bottle at the location.

シンクと鏡がある部屋の高品質の画像を生成し、その場所にボトルを配置します。

And then it's actually got location information in the prompt, and then you can see it actually places it based on the prompt location that was given.

そして、プロンプトに位置情報が含まれていて、指定されたプロンプトの位置に基づいて実際に配置しているのがわかります。

It's also got segmentation to image.

また、画像にはセグメンテーションがあります。

Here's some other examples of images that were prompted with it, which in my opinion look pretty dang impressive.

これはそれに促された他の画像の例ですが、私の意見ではかなり印象的に見えます。

Now, this model doesn't work like any of the other existing text to image models out there, like diffusion models that we're used to with stable diffusion and DALL-E and Midjourney.

さて、このモデルは、安定拡散やDALL-EやMidjourneyでおなじみの拡散モデルのような、既存のテキストから画像へのモデルのようには動作しません。

And it's not using GAN models either, which was sort of the popular way to do it before diffusion models came on the scene.

それはGANモデルを使用していません。つまり、拡散モデルが登場する前の一般的な方法ではありません。

This uses what's called an autoregressive model.

これは自己回帰モデルと呼ばれるものです。

So if you think of a diffusion model like you get a solid image of noise and pixels, and you sort of remove all the pixels until it sort of becomes the image that you want.

拡散モデルを考えてみると、ノイズとピクセルの混じった固い画像を得て、それが望む画像になるまですべてのピクセルを取り除くようなものです。

Then you think of GANs, the general adversarial networks, where essentially you have two AIs that are kind of competing against each other.

GAN(一般敵対的ネットワーク)を考えてみると、基本的に2つのAIが互いに競争しているようなものです。

One's trying to create the image, one's trying to tell if the image is fake or not, and they go back and forth and back and forth and back and forth until the one that's trying to detect whether it's fake or not can no longer determine that the image is not a real image.

一方は画像を作成しようとし、もう一方はその画像が偽物かどうかを見分けようとする。そして、偽物かどうかを見分けようとする方が、その画像が本物の画像ではないと判断できなくなるまで、何度も何度も行き来する。

That's what GAN models, in an oversimplified way, do.

GANモデルは、単純化された形で言うと、こうしたものです。

Where an autoregressive model, you can almost think of as like when you print something on your printer, it prints line by line by line.

自己回帰モデルは、プリンターで何かを印刷するとき、一行一行印刷するようなものだと考えることができる。

Well, this prints pixel by pixel by pixel and adds more and more pixels until it comes to the image that you're trying to generate.

つまり、ピクセル単位で印刷し、生成しようとしている画像になるまで、さらにピクセルを追加していくのだ。

Now, again, super oversimplification of this, just know that it's a completely different sort of model than what we're already seeing with tools like stable diffusion, Midjourney, and DALL-E. Meta also mentions that all of the training for the Chameleon model has been trained with Shutterstock data.

繰り返しになるが、これは安定拡散、Midjourney、DALL-Eといったツールですでに見られるものとはまったく異なる種類のモデルだ。Metaはまた、ChameleonモデルのトレーニングはすべてShutterstockのデータで行われたと述べている。

That's only using licensed images and text data.

これは、ライセンスされた画像とテキストデータのみを使用している。

So essentially, they're not using images that were just straight from the internet.

つまり、基本的にインターネットから直接入手した画像は使用していない。

They're using images that were licensed and they were allowed to use from Shutterstock's data that they were given permission to use.

シャッターストックのデータからライセンスを取得し、使用を許可された画像を使用しているのだ。

There's nothing in their announcement or in their paper that mentions when us consumers might get access to this, but it looks to be some pretty promising technology that might actually fix a lot of the shortfalls of the existing text to image models.

彼らの発表や論文には、私たち消費者がいつこの技術にアクセスできるようになるのかについては触れられていないが、これはかなり有望な技術であり、既存のテキストから画像への変換モデルの欠点の多くを解決してくれるかもしれない。

Also, last week while I was flying home from Colorado, Elon Musk did a Twitter space where he gave a little bit more information on what we can expect from his new AI startup, xAI.

また、先週私がコロラドから飛行機で帰国している間に、イーロン・マスクがTwitterスペースで、彼の新しいAIスタートアップであるxAIに期待できることについて、もう少し詳しい情報を提供してくれた。

Now, since I wasn't on the Twitter space myself, I leveraged my good friend Claude to help summarize what came out of that Twitter space.

私自身はTwitterスペースに参加していなかったので、親友のクロードにTwitterスペースから出た情報を要約してもらった。

Here's a few of the notable bullet points.

以下、注目すべき点を箇条書きにする。

Elon announced that his new startup will collaborate with Tesla on silicon and software fronts.

イーロンは、彼の新しいスタートアップがシリコンとソフトウェアの面でテスラと協力すると発表した。

Silicon sort of referring to the processors he's going to use.

シリコンとはテスラが使用するプロセッサーのこと。

xAI will use Twitter data for training a maximally curious AI system.

xAIは、好奇心を最大限に刺激するAIシステムのトレーニングにTwitterのデータを使用する。

Tesla's building custom silicon that is three to five times more capable than current hardware.

テスラは、現在のハードウェアの3~5倍の性能を持つカスタムシリコンを構築している。

The next version will be four to five times more capable.

次のバージョンは4倍から5倍性能が向上します。

Typically, silicon refers to like GPUs.

通常、シリコンはGPUのようなものを指す。

So it sounds like they're going to go head to head against companies like NVIDIA and AMD.

つまり、NVIDIAやAMDのような企業に対して真っ向勝負を挑むようだ。

Tesla's supercomputer called Dojo will be used for AI training with data from Tesla vehicles.

テスラのDojoと呼ばれるスーパーコンピューターは、テスラ車のデータを使ったAIのトレーニングに使われる。

He wants their AI to understand the physical world beyond just the internet using data like Tesla driving data, which is fascinating to me.

彼は、テスラの運転データのようなデータを使って、AIがインターネットだけでなく物理的な世界を理解することを望んでいる。

So essentially tying that all together, Tesla is going to use data from Twitter.

つまり、テスラはツイッターのデータを利用しようとしているのだ。

They're creating their own sort of supercomputers and silicon to train this stuff.

テスラはこのようなデータを訓練するために、独自のスーパーコンピューターやシリコンを開発している。

And they're also going to use driving data from Tesla.

さらに、テスラの運転データも利用する。

And from what I can tell, there's no real information about when we can expect access to this or when this will actually be unveiled for people to start using.

私が知る限りでは、いつアクセスできるようになるのか、いつ人々が使い始められるようになるのか、本当の情報はない。

Now moving into this week, Wix, the popular website builder, announced that they're adding AI into their platform where you can essentially do text to entire website.

さて、今週に入り、人気のウェブサイト・ビルダーであるWixが、彼らのプラットフォームにAIを追加すると発表した。

And here's a quick demo of what Wix proposes that we can expect with it.

以下は、Wixが提案するものと予想されるもののクイックデモです。

Hi, I'm Wix AI.

こんにちは、私はWix AIです。

I'm here to assist you in getting your site up and running.

あなたのサイトの立ち上げをお手伝いします。

What are you building a website for?

何のためにウェブサイトを作るのですか?

I want to build a website for Onyx Online Fitness.

Onyx Online Fitnessのウェブサイトを作りたいと思っています。

We provide dynamic online classes and in-person workouts.

ダイナミックなオンラインクラスと対面式ワークアウトを提供しています。

Our trainers are certified and we offer a variety of classes.

私たちのトレーナーは資格を持ち、様々なクラスを提供しています。

That's great.

素晴らしいですね。

Are there any more details about your business that I should take into account?

御社のビジネスについて、他に考慮すべき点はありますか?

We have a variety of fitness activities.

様々なフィットネス・アクティビティを用意しています。

Our fitness classes are by professional athletes.

フィットネスクラスはプロのアスリートによるものです。

Here's several images.

ここにいくつかの画像があります。

Generate site.

サイトを生成します。

And then, it just goes and generates the site for you.

そして、それは単にあなたのためにサイトを生成します。

It just asks a handful of questions, goes back and forth, and creates an entire site for you.

それはわずかな質問と応答で、あなたのために完全なサイトを作成します。

So, Wix is kind of Next Level here.

つまり、Wixはネクストレベルなんだ。

I've never really thought I would be talking about Wix.

Wixについて話すことになるとは思ってもみませんでした。

I've always been much more of a WordPress and more recently a webflow guy.

僕はずっとWordPress派だったし、最近ではWebflow派だった。

But, uh, Wix is really stepping up their game here with this.

でも、Wixは本当にステップアップしている。

Where you can just use their bot assistant here, tell it exactly what you want from a website.

Wixのボットアシスタントを使えば、ウェブサイトへの要望を正確に伝えることができます。

It'll give you different theme options.

様々なテーマオプションを提示してくれる。

You just have conversations with their little sidebar, and it's gonna build out your whole dang website for you.

サイドバーで会話を行い、あなたのウェブサイト全体を構築してくれます。

They say, Show me other layouts, please.

他のレイアウトを見せてください」と言うと、「はい。

It says, Sure, here's some more options.

すると、「もちろん、他にもオプションがありますよ。

They ask for a round layout, it generates a whole new layout.

丸いレイアウトをリクエストすると、まったく新しいレイアウトが生成されます。

And then, look at this page that it generates.

そして、このページを見てください。

It's even got some like Parallax effects on the page.

ページにはパララックス効果もあります。

And I mean, it's a solid looking website.

つまり、しっかりしたウェブサイトです。

It's a fairly impressive website, all with just some text prompts.

いくつかのテキストプロンプトだけで、かなり印象的なウェブサイトになりました。

I've made a handful of videos in the past where I talked about Microsoft 365 Copilot.

私は過去に何度か、Microsoft 365 Copilotについて説明したビデオを作りました。

Well, Microsoft left just announced what the price is going to be.

Microsoftが価格を発表しました。

It's going to be about 30 bucks per month per user, which is going to be really interesting to see because Google is sort of launching similar features into their Google workspace.

1ユーザーあたりの月額料金は約30ドルになる予定です。Googleも似たような機能をGoogle Workspaceに導入しているので、非常に興味深いことです。

And 30 bucks a month per user seems fairly high, especially if Google only launches it for like 10 bucks a month.

Googleが同様の機能をGoogleワークスペースに投入しているからだ。1ユーザーあたり月額30ドルというのはかなり高いように思える。

It'll be interesting to see how that battle plays out.

どのようにその戦いが進展するかは興味深いことでしょう。

Now, what's probably the largest news in the AI world this week is that meta and Microsoft have sort of joined forces to put out LLaMA 2, which is a sort of Open Source competitor to ChatGPT.

さて、今週のAI界最大のニュースは、metaとマイクロソフトが手を組み、ChatGPTのオープンソース版であるLLaMA 2を発表したことでしょう。

Now, I say sort of Open Source because meta themselves say that this is the next generation of Open Source large language model, and it's free to use for research and commercial use.

オープンソースというのは、meta自身が、これは次世代のオープンソース大規模言語モデルであり、研究・商用利用は無料である、と言っているからです。

There are actually some terms inside of the license agreement that many are arguing make it not actually open source.

ライセンス契約には、実際にはオープンソースではないと主張する条項がいくつかあります。

For example, they say you will not use the LLaMA materials or any output or result of the LLaMA materials to improve any other language model.

例えば、LLaMAの素材や、LLaMAの素材の出力や結果を、他の言語モデルを改良するために使用してはならない、というものです。

So, you can't really combine it with other language models or use it to improve those.

つまり、LLaMAを他の言語モデルと組み合わせたり、他の言語モデルの改良に使ったりすることはできないのです。

If you use it for a product that ends up having greater than 700 million monthly active users in the preceding calendar month, you must request a license from meta, which meta may grant to you in its sole discretion.

もし前のカレンダー月に700万人以上の月間アクティブユーザーを持つ製品に使用する場合、metaからライセンスを要求する必要があります。ただし、metaはこれを自己の裁量で許可する可能性があります。

And basically, they're going to take away your rights to use it if you ever try to sue them.

そして基本的に、もしあなたがメタ社を訴えようとすれば、メタ社はあなたの使用権を取り上げることになる。

So, I would say for most people, for all intents and purposes, it's pretty open source.

だから、ほとんどの人にとって、どこから見ても、かなりオープンソースだと言える。

If you have 700 million monthly active users, Facebook's probably going to be pretty willing to work with you at that point.

月間アクティブユーザー数が7億人であれば、フェイスブックはおそらくその時点でかなり喜んで協力してくれるでしょう。

Anyway, not a ton of products reach that level, but I think the bigger question that I had when I heard this announcement was more why is Microsoft working together with meta when Microsoft is already in partnership with OpenAI?

しかし、この発表を聞いたときに私が抱いた大きな疑問は、マイクロソフトはすでにOpenAIとパートナーシップを結んでいるのに、なぜメタと一緒に仕事をするのかということだった。

Wouldn't this essentially cannibalize some usage of Bing chat, cannibalize some usage of ChatGPT, which Microsoft is heavily invested in?

これは本質的に、Bingチャットの利用をカニバリゼーションし、マイクロソフトが多大な投資をしているChatGPTの利用をカニバリゼーションするのではないか?

Well, Alex here makes some great points about this announcement.

さて、アレックスはこの発表について素晴らしい指摘をしている。

This will likely knock out a lot of competition.

これはおそらく多くの競合を打ち負かすだろう。

Mosaic, Red Pajama, etc., are in major trouble.

MosaicやRed Pajamaなどは大きな問題を抱えている。

What's brilliant about it from Microsoft is that they have their Azure Suite of cloud computers, and now they're going to have OpenAI running all of their models on the Azure infrastructure.

マイクロソフトが素晴らしいのは、クラウドコンピューターのAzure Suiteを持っていて、OpenAIのすべてのモデルをAzureインフラ上で実行させようとしていることだ。

I mean, part of their 10 billion dollar investment in OpenAI was actually given to them in compute credits, essentially.

つまり、OpenAIへの100億ドルの投資の一部は、実質的にコンピュートクレジットとして提供されたのです。

And now, working with meta and LLaMA2, they're going to have people building their open source models also on Microsoft Azure's clouds.

そして今、metaやLLaMA2と協力し、マイクロソフト・アズールのクラウド上でもオープンソースモデルを構築させようとしている。

I always say that wrong.

私はいつも間違ったことを言う。

I don't know if it's Azure, as your, whatever.

Azureなのかどうかわからないけど。

Azure.

Azure。

Alex here makes the point that with this partnership, they now have exclusive partnerships with the top large language models, OpenAI and meta.

アレックスは、このパートナーシップによって、トップクラスの大規模言語モデルであるOpenAIやmetaと独占的なパートナーシップを結んでいると指摘する。

Priority access to NVIDIA's GPUs and strategic assets like GitHub and Azure.

NVIDIAのGPUや、GitHubやAzureのような戦略的資産への優先的アクセス。

So, while I'll never underestimate Google, this move by Microsoft, where now they've got this sort of closed source large language model under their thumb, they've got this sort of open source large language model partnered with meta under their thumb, they're working closely with NVIDIA for GPUs on their Azure cloud servers, they sort of now have the whole large language model generative AI world under their umbrella.

グーグルを過小評価するつもりはないが、マイクロソフトのこの動きは、クローズドソースの大規模言語モデルを傘下に収め、metaと提携したオープンソースの大規模言語モデルを傘下に収め、AzureクラウドサーバーのGPUのためにNVIDIAと緊密に協力し、大規模言語モデル生成AIの世界全体を傘下に収めたようなものだ。

So, likely a pretty damn smart move by Microsoft.

つまり、マイクロソフトは非常に賢明な動きをしているのだ。

Now, if you're wondering if you can actually use LLaMA2 right now, well, you can.

さて、LLaMA2を今すぐ実際に使えるかどうか気になる人は、まあ、使える。

You can head on over to Hugging Face.

Hugging Faceに行けばいい。

There's a space called LLaMA270b chatbot.

LLaMA270bチャットボットというスペースがあります。

I'll make sure it's linked up in the description below so you can go mess around with it.

下記のリンクを説明欄に貼り付けておきますので、自由に試してみてください。

In most of the testing, it doesn't quite perform as well as ChatGPT or Claude or some of the other more popular models that are out there right now.

ほとんどのテストでは、ChatGPTやClaudeなど、現在よりも人気のある他のモデルほどはうまく機能しません。

But it's open source, and people will be building and iterating off of it and making it better.

しかし、これはオープンソースであり、人々はこれを構築し、反復し、より良くしていくでしょう。

Why would someone use this chat model instead of ChatGPT?

なぜChatGPTの代わりにこのチャットモデルを使うのでしょうか?

Safety, bias, factual accuracy, ethical considerations, customization, privacy.

安全性、偏見、事実の正確さ、倫理的配慮、カスタマイズ、プライバシー。

It actually cut off in my test here, but you can actually go and use LLaMA2 yourself and play around with it.

私のテストでは実際に切れてしまいましたが、実際にLLaMA2を使って遊んでみてください。

At the moment, I'm still more of a cloud guy myself.

今のところ、私自身はまだクラウド派だ。

I've been using GPT-2 a lot.

GPT-2をよく使っている。

It's almost my go-to.

GPT-2はほとんど僕のお気に入りなんだ。

And then, ChatGPT has almost become my second go-to, but I am always excited about open source stuff because when we see open source stuff, it means that other smart people could build off of it, iterate off of it, and create something bigger and better than the original thing that was created.

でも、オープンソースのものにはいつもワクワクしています。オープンソースのものを見るということは、他の賢い人たちがそれをベースにして反復し、オリジナルのものよりも大きくて優れたものを作り出せるということだからです。

So, I'm excited to see where people take this LLaMA to and iterate it into other really cool stuff.

だから私は、LLaMAをどこまで発展させ、他の本当にクールなものにまで発展させるのか、見るのが楽しみなんだ。

You know, speaking of large language models, there was this paper that came out this week about how ChatGPT's behavior is changing over time.

大規模言語モデルといえば、今週、ChatGPTの動作が時間とともにどのように変化するかについての論文が発表されました。

And essentially, the paper came to the conclusion that it's been getting worse and worse at math.

その論文では、ChatGPTは数学がどんどん苦手になっているという結論に達しています。

It actually shows that back in March, it answered this question, Is 17077 a prime number?

実際に、3月にはこの質問に答えていましたか?「17077は素数ですか?」

Think step by step and then answer yes or no.

段階的に考えて、イエスかノーかを答える。

It was actually answering this question properly back in March 97.6% of the time, and in June, it only answered it correctly 2.4% of the time.

実際に、3月にはこの問題に97.6%の確率で正しく答えていましたが、6月には2.4%しか正確な回答を返せませんでした。

Confusingly, GPT-3.5, what should be a lesser model, only answered it correctly 7.4% of the time back in March, but now actually answers it correctly 86.8% of the time.

紛らわしいことに、GPT-3.5はそれ以下のモデルで、3月には7.4%しか正解していなかったが、現在では86.8%の確率で正解している。

Here's another math problem that was given back in March.

これもまた、3月に問題として提示された数学の問題です。

It answered it more often accurately, and in June, less accurately.

より正確に答えることができ、6月にはより正確でなくなった。

And then, given that same problem with GPT-3.5, it was answering more accurately in March and less accurately in June.

同じ問題をGPT-3.5で解くと、3月はより正確に答え、6月はより正確に答えられなかった。

So, the argument of this paper here is that ChatGPT is getting dumber, but it's really only looking at math.

つまり、この論文の論点は、ChatGPTが馬鹿になってきているということなのだが、実際には数学しか見ていないのだ。

And Rob Lennon here on Twitter argues that math-based questions are not a particularly accurate or useful way to test a language model, basically because these are language models.

TwitterのRob Lennon氏は、数学に基づいた質問は言語モデルをテストするにはあまり正確で有用ではないと主張しています。なぜなら、これらは言語モデルであるためです。

It's built around relationships between words.

なぜならこれは言語モデルだからだ。

So, his analogy is Olympic swimmers are getting slower.

つまり、彼の例えは、オリンピックの水泳選手が遅くなっているということだ。

Just look at these skiing challenges that we've been testing them on.

私たちがテストしているスキーの課題を見てください。

See, they're getting worse at sliding down snow slopes on wooden foot sleds.

木製のそりで雪の斜面を滑り降りるのが下手になっている。

Swimmers are getting worse.

水泳選手も遅くなっている。

You're asking a large language model, which is trying to predict the next word in a sequence of words, to do math and get better at math, where the training behind the scenes, they're not trying to train it to get better at math necessarily.

大規模な言語モデルに数学をさせ、数学を得意にするように頼むのは、ちょっとした逆転現象です。実際のトレーニングでは、数学を得意にするようにトレーニングしているわけではありません。

They're trying to get better at predicting the next word in the sequence to create an accurate sequence of words.

正確な単語の並びを作るために、次の単語を予測する能力を高めようとしているのだ。

OpenAI does say that they are aware of this new research and that they're monitoring the reports of the declining GPT-4 capabilities.

OpenAIは、この新しい研究を認識しており、GPT-4の能力が低下しているという報告を監視していると述べている。

Their vice president of product recently tweeted, No, we haven't made GPT-4 dumber.

彼らの製品担当副社長は最近ツイートしています。「いいえ、GPT-4は馬鹿になっていません」。

Quite the opposite.

まったく逆です。

We make each new version smarter than the previous one.

新しいバージョンが出るたびに、前のバージョンよりも賢くなっています。

Current hypothesis: we use it more heavily, you start noticing issues you didn't see before.

現在の仮説:GPT-4の使用頻度が増えれば、以前は気づかなかった問題に気づくようになる。

So, he's basically arguing that the more you use it, the more you're going to find flaws.

彼は基本的には、それを使用する回数が多ければ多いほど、欠点が見つかると主張しています。

A lot of the novelty has worn off.

目新しさはもうなくなっています。

People are used to ChatGPT now.

人々はChatGPTに慣れてしまった。

Now they're just actively looking for flaws in it.

今、彼らは積極的に欠点を探しているんだ。

Speaking of ChatGPT, this week ChatGPT increased the message limits for plus users.

ChatGPTといえば、今週ChatGPTはプラスユーザーのメッセージ制限を増やしました。

If you go over to ChatGPT, down here it says GPT-4 currently has a cap of 50 messages every three hours.

ChatGPTにアクセスすると、この下にGPT-4は現在3時間ごとに50メッセージの上限があると書かれています。

Prior to this week, it only had a cap of 25 messages every three hours.

今週以前は、3時間ごとに25メッセージまででした。

So, that's an upgrade.

これはアップグレードです。

ChatGPT also added a new feature called custom instructions for plus users.

ChatGPTはまた、プラスユーザー向けのカスタムインストラクションという新機能も追加しました。

So, if you go over to ChatGPT, you come down to your settings, things down here, click on beta features, you can actually turn on custom instructions.

したがって、ChatGPTに知ってもらいたい追加の文脈情報を入力できるようになります。これにより、将来の質問に対する結果が向上します。

Once you do that, you can close out of here, come back down to your little three dots, and you'll see a new menu item that says custom instructions.

それを行ったら、ここから出て、あなたの小さな3つの点に戻ってきて、新しいメニューアイテムが表示されるのを見ることができるでしょう。それは「カスタムインストラクション」という名前です。

This allows you to actually add additional context that you want ChatGPT to know to help improve its results when you ask it future questions.

これにより、将来の質問をする際にChatGPTに結果を改善するための追加の文脈情報を提供できるようになります。

So, it says, What would you like ChatGPT to know about you to provide better responses?

つまり、より良い回答を提供するために、ChatGPTにあなたの何を知ってもらいたいですか?

Here are some starters: Where are you based?

手始めにいくつか挙げてみましょう: お住まいはどちらですか?

What do you do for work?

お仕事は何をされていますか?

What are your hobbies and interests?

あなたの趣味や興味は何ですか?

What subjects can you talk about for hours?

何時間でも話せる話題は何ですか?

What are some goals you have?

あなたの目標は何ですか?

If you provide this additional context, it's going to use that information to help provide better results in future chats.

このような追加情報を提供すると、今後のチャットでより良い結果を提供するためにその情報を使用します。

How would you like ChatGPT to respond?

ChatGPTにどのように返答して欲しいですか?

Some examples here: How formal or casual should ChatGPT be?

いくつか例を挙げます: ChatGPTはどの程度フォーマルであるべきか、カジュアルであるべきか?

How long or short should responses generally be?

一般的に、回答はどのくらいの長さであるべきですか?

How do you want to be addressed?

どのように対応してほしいですか?

Should ChatGPT have opinions on topics or remain neutral?

ChatGPTはトピックに対して意見を持つべきか、それとも中立を保つべきか?

So, you can actually give it all of this additional context, and it will change the way ChatGPT outputs responses for you.

このような追加的なコンテキストを与えることで、ChatGPTの返答の出力方法が変わります。

And not only that, this information will now be saved in there, so all future chats will have this additional context that you've previously given it.

それだけでなく、この情報は保存されますので、今後のチャットには、あなたが追加で与えた文脈が反映されます。

And since we're talking about ChatGPT news, might as well mention this: OpenAI is partnering with the American Journalism Project to support local news.

ChatGPTのニュースについて話しているので、これについても触れておきましょう: OpenAIはAmerican Journalism Projectと提携し、ローカルニュースをサポートしています。

Basically, OpenAI wants news organizations to leverage tools like ChatGPT and AI to help improve the news that they're reporting on.

基本的に、OpenAIは報道機関がChatGPTやAIのようなツールを活用して、報道するニュースをより良いものにすることを望んでいます。

OpenAI is committing $5 million to the American Journalism Project to support the expansion of their work, and they're offering up to $5 million in OpenAI API credits so that the organizations can use OpenAI's tools.

OpenAIはアメリカン・ジャーナリズム・プロジェクトに500万ドルを提供し、彼らの活動の拡大を支援しています。また、OpenAIのAPIクレジットを最大500万ドルまで提供し、組織がOpenAIのツールを使えるようにしています。

And since we're on the topic of news, Google is testing an AI tool that can write news articles.

ニュースの話題なので、グーグルはニュース記事を書くAIツールをテストしている。

This was reported by the New York Times.

これはNew York Timesが報じたものだ。

I would read the original source article, but it's paywalled, and I don't want to pay for the New York Times.

元記事を読みたいところだが、有料だし、New York Timesにお金を払いたくはない。

The tool internally is codenamed Genesis, and it can take information.

このツールは社内でコードネーム "Genesis "と呼ばれている。

And then, generate news copy from that information.

そして、その情報からニュースコピーを生成する。

However, the people that were actually pitched the tool sought as unsettling, noting that it seemed to disregard the effort that went into producing accurate news stories.

しかし、実際にこのツールを売り込んだ人たちは、正確なニュース記事を作成するための努力を軽視しているようだと指摘し、不安を募らせた。

So essentially, Google's out there pitching a tool to help journalists write their news articles for them, and journalists are kind of going, That's kind of scary because this feels like it might take our jobs.

したがって、Googleはジャーナリストがニュース記事を執筆するのを手助けするツールを提供していますが、ジャーナリストたちは「これはちょっと怖い」と感じています。なぜなら、それが私たちの仕事を奪ってしまうかもしれないからです。

If you remember, a couple months ago when I talked about this generative agents paper that came out, where they generated this little town with people and the people interacted and they actually created events and then set up reservations and asked each other on dates and all showed up to this event together, and it all happened autonomously.

これはすべて自律的に起こり、人々が相互作用し、イベントを作成し、予約を設定し、デートに誘い合い、すべてが自律的に行われる「generative agents」の論文について話した数ヶ月前のことを覚えています。

Well, this company called Fable Studios took that a step further and created an entire South Park episode that was completely generated by AI.

Fable Studiosという会社はそれをさらに一歩進めて、完全にAIによって生成されたサウスパークのエピソード全体を作りました。

Their research was called To Infinity and Beyond: Show One and Showrunner Agents in Multi-Agent Simulations.

彼らの研究は、『To Infinity and Beyond』と呼ばれた: マルチエージェントシミュレーションにおけるショーワンとショーランナーエージェント。

You can see in their little demo video here, they have their showrunner system.

こちらの小さなデモビデオで、彼らのショーランナー・システムを見ることができる。

Welcome to the showrunner subroutine.

ショーランナーのサブルーチンへようこそ。

Try to come up with a suitable title for the story you're about to simulate.

これからシミュレートするストーリーにふさわしいタイトルを考えてみてください。

Next, prompt the system with a few of your own ideas of what should happen.

次に、何が起こるべきか、あなた自身のアイデアをいくつかシステムに促してください。

They give it the title Westland Chronicle Tools in the prompt.

プロンプトの中で、ウェストランド・クロニクル・ツールズというタイトルを与えるのだ。

Researchers train an AI robot pig to write infinite TV shows, but it goes horribly wrong.

研究者たちはAIロボットのブタに無限のテレビ番組を書けるように訓練するが、それはひどい失敗に終わる。

Cartman is a big fan of the AI-generated TV show Westland Chronicles.

カートマンはAIが生成したテレビ番組「ウェストランド・クロニクル」の大ファン。

The Writers Guild is on strike because of AI.

AIのせいで脚本家組合がストライキを起こした。

So it gave it just that information, and then it generated an entire 22-minute episode of South Park off of that.

そこでカートマンはAIにその情報だけを与え、それをもとに『サウスパーク』の22分のエピソードを丸ごと生成した。

Now, I'm a little bit afraid to play it because this is for research purposes only.

これはあくまで研究目的なので、再生するのはちょっと怖い。

The South Park IP is owned by somebody else, and by simply pressing play and listening to the audio on this, I could get in trouble.

サウスパークのIPは他の誰かが所有しており、再生ボタンを押して音声を聞くだけで、トラブルに巻き込まれる可能性がある。

I don't know, so I'm not going to.

分からないから、やらない。

But basically, all of the background images were generated with AI image generation models.

しかし、基本的に、背景画像はすべてAI画像生成モデルで生成されました。

All of the dialogue was generated with large language models.

セリフはすべて大規模な言語モデルで生成しました。

The interactions between the characters were generated with this generative agents model that I was just talking about.

キャラクター同士のやりとりは、先ほど話した生成エージェントモデルで生成されました。

The voices of all of the characters were generated by cloning the voices, most likely using a tool like an ElevenLabs or something like that.

すべての登場人物の声は、おそらくイレブンラボのようなツールを使って、声のクローンを作ることで生成された。

And so this entire 22-minute story with art, with voices, with dialogue, the whole thing was generated completely with AI.

つまり、この22分間のストーリー全体は、アート、声、会話、すべてAIによって生成されたのです。

And that one prompt that we just saw, people have been all over Twitter talking about how it's only a matter of time before we're just going to type a prompt of what type of show we want to see, and it's just going to generate an entire show or entire movie for us.

私たちが見たプロンプトは、Twitterで話題になっています。将来的には、私たちが見たい番組のタイプをプロンプトに入力するだけで、番組や映画全体が自動生成される日が来ると言われています。

We're there.

もうそこまで来ている。

Like, it's happening right now.

今、それが起きているんだ。

It's not the best dialogue.

最高の台詞ではない。

It's not the best script.

最高の脚本でもない。

I don't think anybody would sit around and want to watch these episodes generated by AI yet, but it's getting a lot better.

AIによって生成されたエピソードを座って見たいと思う人はまだいないと思うけど、だいぶ良くなってきている。

I'll make sure to link up to this GitHub page below where you can actually watch the entire episode if you want.

GitHubのページにリンクを貼っておくので、見たい人はそこで全エピソードを見ることができる。

There are actually some moments in it that are pretty dang funny.

実際にはかなり面白い瞬間がいくつかあります。

It does a pretty accurate job of getting the sort of feel of a South Park story.

サウスパークのストーリーの雰囲気をかなり正確に表現している。

This week, it was also announced that Apple is testing a ChatGPT-like AI chatbot, which feels kind of late to the party.

今週、アップルがChatGPTのようなAIチャットボットをテストしていることも発表された。

Internally, they're calling it Apple GPT.

社内ではApple GPTと呼ばれている。

That's unlikely to be what it's actually called when it's ever released.

それが実際にリリースされたときにどう呼ばれるかはわからない。

But at the end of the day, everybody wants a new Siri, right?

しかし、結局のところ、誰もが新しいSiriを望んでいるのだ。

If you've got an iPhone and you use Siri, all Siri can really do for you these days is search the internet and open a couple apps for you.

iPhoneを持っていてSiriを使っている人なら、最近のSiriはインターネットを検索したり、いくつかのアプリを開いてくれたりするだけだ。

When you've seen stuff like ChatGPT and Claude and what perplexity and tools like that can do, Siri feels really, really archaic.

ChatGPTやClaudeのようなものや、perplexityやそのようなツールでできることを見ると、Siriは本当に、本当に古臭く感じる。

This TechCrunch article here says the company's chatbot is similar to Bard ChatGPT and being AI, as it doesn't feature any additional features that separates it from what's currently commercially available.

このTechCrunchの記事によると、同社のチャットボットはBard ChatGPTと似ており、現在市販されているものと区別するような追加機能は備えていないため、AIであるという。

So not a ton of news around this yet, but I'd say it's fairly likely that this technology is probably what we're going to see as the next iteration of Siri.

というわけで、まだこれに関するニュースは多くないが、この技術がおそらくSiriの次のイテレーションとして登場する可能性はかなり高いと言えるだろう。

But who knows?

しかし、それは誰にもわからない。

Now, here's a cool product that was released this week.

さて、今週発表されたクールな製品を紹介しよう。

Superhuman itself isn't new.

Superhuman自体は新しいものではない。

It's an email platform that helps you manage your email, similar to a tool like Outlook.

Outlookのようなツールに似た、Eメールを管理するためのEメールプラットフォームだ。

But it's a much faster, easier way to use email.

しかし、より速く、より簡単にメールを使うことができる。

I've used Superhuman a lot over the years.

私は長年にわたってSuperhumanをたくさん使ってきた。

Well, Superhuman just rolled out new AI features inside of their email platform.

そのSuperhumanが、Eメールプラットフォームに新しいAI機能を追加しました。

Now, you might be thinking, Well, aren't Gmail and Outlook and all of these tools getting these AI features rolled into them as well?

GmailやOutlookなどのツールにもAI機能が搭載されているじゃないか、と思われるかもしれません。

Yes, but what makes this one unique is that Superhuman actually trains itself on your past emails so it can better understand your voice and write more like you.

しかし、この機能がユニークなのは、Superhumanが実際にあなたの過去のメールを学習することで、あなたの声をよりよく理解し、よりあなたらしい文章を書くことができるということだ。

So the first time I booted up Superhuman and turned on their AI feature, it actually had a small 30-second training period where it saw how I wrote previous emails.

初めてSuperhumanを起動し、AI機能をオンにしたとき、30秒間のトレーニングが行われ、私が過去にどのようにメールを書いたかを確認しました。

And then figured out how to write future emails in that voice, so let's just write a test email.

そして、その声で将来のメールの書き方を見つけ出しました。それでは、テストメールを書いてみましょう。

I'd like to propose a lunch meeting for 1pm on Saturday to share a cool new business idea.

土曜日の午後1時に、クールな新しいビジネスアイデアを共有するためのランチミーティングを提案したいと思います。

I could select this text that I just wrote, click on this AI button here, and then say rewrite in my voice.

今書いたこのテキストを選択して、ここにあるAIボタンをクリックし、私の声で書き直すと言うことができる。

Hey everyone, I wanted to throw out the idea of getting together for a lunch meeting this Saturday at 1pm.

みなさん、土曜日の1pmにランチミーティングを開くアイデアを出したいと思います。

I've got this really awesome new business idea that I'm excited to share with you all.

僕は本当に素晴らしい新しいビジネスのアイディアを持っていて、みんなと分かち合いたいと思っているんだ。

Let me know if you're interested in joining, and we can figure out a great spot to grab some grub and chat.

参加したい人は連絡をくれれば、美味しいものを食べながらおしゃべりできる素敵な場所を教えよう。

I mean, I don't know if I ever really refer to food as grub, but other than that, it sounds pretty much like the way I'd write an email.

というか、僕が食べ物のことを本当に「グラブ」と呼ぶかどうかはわからないけど、それ以外は僕がメールを書くのと同じような感じだね。

I can also simply just click on this AI button right here that says write with AI and then outline an email, brief, congratulate my team on the latest YouTube video launch.

AIやClaudeなどのより人気のあるモデルよりも、テストではあまりうまくいかないことが多いです。

I wanted to take a moment to congratulate you all on the successful launch of our latest YouTube video.

この場を借りて、最新のYouTubeビデオのローンチ成功をお祝いしたいと思います。

It was a touch of fantastic effort by everyone.

みんなの素晴らしい努力の賜物だ。

I just wrote up a whole dang email.

メールを書き上げたところだ。

Once again, congratulations and thanks for being a part of the Future tools family.

改めて、おめでとう、そしてFuture toolsファミリーの一員でいてくれてありがとう。

I never told that my website was called Future tools, it just took that from the training data that it has.

僕のウェブサイトがFuture toolsと呼ばれているなんて一言も言っていない。

It says, You guys sure know how to make those AI tutorials engaging and informative.

あなたたちはAIのチュートリアルを魅力的で有益なものにする方法を知っている。

I didn't give it any context just now that I make AI tutorial videos, it just knows that from my past emails.

私がAIチュートリアルのビデオを制作していることは、今のところ何も伝えていない。

Here's a long email thread that has multiple people in it going back and forth about a project that I'm working on.

私が取り組んでいるプロジェクトについて、複数の人がやり取りしている長いメールのスレッドがあります。

I could come in here, click the AI button, type sum, and that gives me the option to summarize conversation.

ここに来てAIボタンをクリックし、sumと入力すると、会話を要約するオプションが表示されます。

And look at this, now it just bullet pointed this entire email thread for me, so I don't have to skim through the whole thing again.

そして、これでメールスレッド全体を箇条書きにしてくれました。だから、全体を再スキムする必要はありません。

Pretty cool time-saving tool.

かなりクールな時間節約ツールだ。

Now, Superhuman doesn't sponsor this or anything like that, but I'm constantly looking for a way to streamline my email, and this tool seems like it'll be pretty handy.

Superhumanはスポンサーではありませんが、私は常にメールの効率化方法を探しています。このツールはかなり便利そうです。

Last week, I mentioned that Sarah Silverman and a few other authors were suing OpenAI and various other chat models for illegally scraping their books and using them as part of the training data.

先週、サラ・シルバーマンをはじめとする数人の著者が、自分の本を違法にスクレイピングし、学習データの一部として使用しているとして、OpenAIや他の様々なチャットモデルを訴えていることを紹介した。

Well, this week, thousands of authors signed a letter urging AI makers to stop stealing books.

そして今週、何千人もの作家が、AIメーカーに本の盗用をやめるよう求める書簡に署名した。

In an open letter signed by more than 8,500 authors of fiction, non-fiction, and poetry, the tech companies behind large language models like ChatGPT, BarredLama, and more are taken to task for using their writing without permission or compensation.

8,500人以上のフィクション、ノンフィクション、詩の著者が署名した公開書簡の中で、ChatGPTやBarredLamaなどの大規模な言語モデルの背後にある技術企業は、許可や補償なしに彼らの文章を使用しているとして非難されている。

The letter asked that companies obtain permission for use of copyrighted material and generative AI programs compensate writers fairly for the past and ongoing use of the works, and compensate writers fairly for the use of works in AI output, whether or not the outputs are infringing under current law.

この書簡は、企業が著作物の使用許諾を得ること、生成AIプログラムが作家に対して過去および現在進行中の著作物の使用について公正な補償を行うこと、そしてAI出力における著作物の使用について、その出力が現行法の侵害にあたるか否かにかかわらず、作家に対して公正な補償を行うことを求めている。

I think that might be a tall order, but no legal threats were made.

難しい注文かもしれないが、法的な脅しはなかった。

There's a lot of legal gray area that's happening right now, and it's going to be really interesting to see how this all plays out in the courts.

現在、法的なグレーゾーンが多く存在し、裁判所でこれらの全てがどのように進行するかが非常に興味深いものになります。

I mean, I do understand where a lot of these authors are coming from.

多くの著者がどこから来たのかを理解しています。

It could potentially harm the sales of a lot of their books if I can just go to ChatGPT and ask questions of this book without ever having to pick up a copy of the book.

ChatGPTに行けば、本を手に取ることなく、この本について質問することができるのであれば、多くの著者の本の売り上げに悪影響を与える可能性があります。

However, figuring out a way to compensate authors for the use of these various chat models, I honestly can't totally comprehend a path where that can happen.

しかし、このような様々なチャットモデルの利用に対して著者に補償する方法を考えることは、正直なところ、それが実現する道筋を完全に理解することはできない。

I mean, I guess Spotify kind of has it figured out for music, but this is a little bit more complex than did somebody press play on a song or not, because when somebody generates a response from a large language model, it's pulling from all sorts of data from all over the place to provide the response.

Spotifyは音楽に関してはそれを理解していると言えるかもしれませんが、大規模な言語モデルからの応答は、単に曲を再生したかどうかというよりも複雑です。なぜなら、大規模な言語モデルからの応答はさまざまなデータを引っ張ってきて提供されるからです。

And so, I don't know how that ever totally gets rectified.

だから、それが完全に修正されることはないだろう。

And speaking of lawsuits, a U.S. judge found flaws in the artists' lawsuits against the AI companies.

また、訴訟といえば、米国の判事はAI企業に対するアーティストの訴訟に欠陥があると判断した。

If you remember, Stability AI and Midjourney and the various models that generate art have been getting sued by a lot of artists because they're trained on their artwork.

記憶に新しいところでは、Stability AIやMidjourney、そしてアートを生成する様々なモデルは、彼らのアートワークで訓練されているため、多くのアーティストから訴えられている。

The judge said that artists were unlikely to succeed on their claim that images generated by the systems based on text prompts using their names violated their copyrights.

裁判官は、自分の名前を使ったテキストプロンプトに基づいてシステムが生成した画像が著作権を侵害しているというアーティストたちの主張が成功する可能性は低いと述べた。

They said, I don't think the claim regarding output images is plausible at the moment because there's no substantial similarity between images created by the artist and the AI systems.

彼らは「アーティストがAIシステムによって生成された画像と実際のアーティストによって作成された画像の間に実質的な類似点はない」と述べています。

So this one is actually going to be fascinating to see how it plays out in court because when you think about it, most artists borrow from artists that came before them.

これは実際には裁判所でどのように進行するかが非常に興味深いものとなるでしょう。なぜなら、ほとんどのアーティストはそれ以前のアーティストからインスピレーションを受けているからです。

There's no law that says that I can't take a canvas and paint a picture that looks like a picture that Pablo Picasso painted.

私がキャンバスを取り、パブロ・ピカソが描いたような絵を描くことを禁止する法律はありません。

Now, there's laws against me turning around and trying to sell it as if it was a Pablo Picasso, but not to actually generate that image in the first place.

それをまわりで売ってパブロ・ピカソの絵のように見せるという法律はありませんが、まったく生成しないという法律もありません。

But now people want laws against computers generating images that are inspired by other artists.

しかし今、人々はコンピュータが他の芸術家にインスパイアされた画像を生成することを禁止する法律を望んでいる。

So there's this weird gray area there because I don't necessarily think there's ethical issues of generating images that look like or inspired by other artists, but I do think there are ethical issues of creating images that look like or inspired by other artists and then making money off of those.

私は、他のアーティストに似せた画像を生成したり、他のアーティストにインスパイアされた画像を生成したりすることに必ずしも倫理的な問題があるとは思わないのですが、他のアーティストに似せた画像を生成したり、他のアーティストにインスパイアされた画像を生成したりして、それを利用してお金を稼ぐことには倫理的な問題があると思うのです。

So I don't know, there's definitely a gray area debate that I'm still feel personally a little torn around.

だから、グレーゾーンの議論であることは確かで、個人的にはまだ少し悩んでいるところなんだ。

This week, GitHub also made the Copilot chat available for all organizations.

今週、GitHubはCopilotチャットも全組織で使えるようにしました。

It's basically a chat assistant that helps you with your code, and it's basically trained on data that's available inside of GitHub.

これは基本的に、GitHub内で利用可能なデータに基づいて訓練された、あなたのコードを手助けするチャットアシスタントです。

Now, I don't personally work with a lot of code at the moment.

今のところ、私は個人的に多くのコードを扱っているわけではない。

Eventually, I do want to develop some games and some apps and use AI to do creative stuff with it, but I haven't personally tried out this GitHub Copilot.

いずれはゲームやアプリを開発し、AIを使ってクリエイティブなことをやってみたいと思っていますが、個人的にはこのGitHub Copilotは試していません。

But if you're a coder, this might be something that is interesting news to you, so I wanted to point it out real quick.

でも、もしあなたがコーダーなら、これはあなたにとって興味深いニュースかもしれない。

And finally, I wanted to end with something really cool that you can go test out yourself right now if you want.

そして最後に、今すぐ自分で試すことができる、とてもクールなものを紹介したいと思います。

I know I've mentioned this company a few times in the past, Illumine AI.

イルミネーションAIという会社については、過去に何度か紹介したことがあると思う。

They just announced a new feature where you can use 2D images that have a 3D depth map and pull them into their platform.

彼らは、3D深度マップを持つ2D画像をプラットフォームに取り込むことができる新機能を発表したばかりです。

So I actually wanted to test this feature real quick.

そこで、この機能を実際に試してみた。

In their Instaverse platform, you can see in their example here, they have this 2D to 3D mode.

彼らのInstaverseプラットフォームでは、ここにある例でわかるように、2Dを3Dに変換するモードがあります。

They click on that, they upload a 2D image, they upload a 3D depth map, and now they have this 3D image that they can sort of move around and manipulate.

これをクリックして2D画像をアップロードし、3Dデプスマップをアップロードすると、3D画像ができあがり、それを動かして操作することができる。

So I actually created this little 3D world here inside of Midjourney.

Midjourneyの中で、この小さな3Dの世界を作ってみた。

I just used the prompt, A colorful 3D metaverse world from a video game.

ビデオゲームのカラフルな3Dメタバース世界」というプロンプトを使っただけだ。

Now, you do need a 3D depth map to be able to upload this.

さて、これをアップロードするには3D深度マップが必要だ。

One of the easiest ways to get a 3D depth map is to go to convert.layapix.com, upload your image.

3D深度マップを入手する最も簡単な方法は、convert.layapix.comにアクセスして画像をアップロードすることです。

So I'll go ahead and grab this and upload it.

それでは、これを取得してアップロードしましょう。

I can come down here to the share button.

この下にある共有ボタンをクリックします。

It gives me the option to download a depth map.

深度マップをダウンロードするオプションがあります。

So let's go ahead and download that real quick.

さっそくダウンロードしてみよう。

And now, if I jump over to this Illumine AI site, I can click on 2D to 3D mode, upload my 2D texture here.

イルミネーションAIのサイトに飛び、2Dから3Dモードをクリックし、2Dテクスチャをアップロードします。

I've got this image now, but it looks kind of funky.

この画像ができましたが、ちょっと変な感じですね。

So let's go ahead and upload our depth map, open this up, and now I can actually kind of sort of move around it.

それでは、さっそく私たちの深度マップをアップロードし、これを開いて、実際に動かすことができるようにしましょう。

It gets a little warped if I move around too much, but I created this trippy psychedelic 3D depth map out of that Midjourney image.

あまり動き回ると少しゆがんでしまいますが、Midjourneyの画像からこのトリッピーでサイケデリックな3D深度マップを作りました。

So it's just something fun to play around with with your 2D images.

2Dの画像を使って遊ぶだけの楽しいものです。

It's all completely free to use.

すべて無料で使えます。

I mean, Midjourney is not free to use, but you can use any AI image generator, create the depth map using Layapix real quick, pull it into Instaverse, and you've got an interesting little 3D depth-mapped world.

Midjourneyは無料では使えませんが、どんなAI画像ジェネレーターでも使えますし、Layapixを使って素早く深度マップを作成し、Instaverseに取り込めば、面白い3D深度マップの世界ができあがります。

I'm sure there's some other settings I could have played around with inside of Layapix converter to get my depth map a little bit better, but just wanted to show you a quick little demo of what you can do there.

Layapixのコンバーターの中で、深度マップをもう少し良くするために、他にもいろいろな設定ができたと思いますが、Instaverseでできることの簡単なデモをお見せしたいと思います。

And that's what I got for you this week.

以上が今週の情報です。

If you want to keep your finger on the pulse of all the latest AI news, make sure you check out futuretools.io, specifically the AI news tab.

最新のAIニュースをチェックしたいなら、futuretools.ioのAIニュースタブをチェックしてほしい。

I keep this up to date every single day.

私はこれを毎日更新している。

It's probably the most up-to-date resource on AI news on the entire internet.

おそらく、インターネット全体で最も最新のAIニュース情報源です。

And also, I update all the cool AI tools that I come across.

また、私が出会ったクールなAIツールもすべて更新しています。

So on the homepage here, I'm pretty much adding new tools every single day.

このホームページでは、毎日新しいツールを追加しています。

And if you don't want to check in every single day, click on this button to join the free newsletter, and I'll just send you one update a week, every Friday, with just the handful of news articles that I think you should be paying attention to, a handful of really cool tools that I think you should be paying attention to, a few YouTube videos, and one interesting way to make money with AI.

毎日チェックするのが面倒な方は、このボタンをクリックして無料のニュースレターに参加してください。毎週金曜日に、私が注目すべきと思う一握りのニュース記事、注目すべきと思う一握りの本当にクールなツール、いくつかのYouTubeビデオ、そしてAIでお金を稼ぐ面白い方法を、1週間に1回更新してお送りします。

I send it every single Friday, and you can get it totally for free by going to futuretools.io and joining the free newsletter.

futuretools.ioにアクセスし、無料のニュースレターに参加すれば、完全に無料で手に入れることができる。

The last few weeks, I've been really, really insane with AI news.

ここ数週間、私はAIのニュースで本当に、本当に狂っていた。

There was a little bit of a slowdown, but things have really, really picked up steam again.

少しスローダウンがありましたが、再び非常に活発になりました。

I'm excited for it.

私はそれに興奮している。

Gives me a lot to talk about, a lot to experiment with, a lot to make videos on for you.

たくさん話すことがあり、たくさん試すことがあり、あなたのためにビデオを作成することがたくさんあります。

And yeah, a lot of fun stuff happening in the AI space.

そう、AIの分野では楽しいことがたくさん起きている。

So I'm excited to report on it, I'm excited to share it with you.

だから、私はそれを報告し、皆さんと分かち合うことに興奮している。

And if you haven't already, maybe like and subscribe, and I'll make sure you keep on seeing them in your YouTube feed.

もしまだであれば、いいねや購読をしてください。そうすればYouTubeのフィードに続々と表示されますよ。

Once again, thanks so much for tuning in.

改めて、ご視聴ありがとうございました。

Really, really appreciate you.

本当に、本当にありがとう。

See you in the next video.

また次のビデオでお会いしましょう。

Bye. Thank you.

ではまた。 ありがとう。

この記事が気に入ったらサポートをしてみませんか?