見出し画像

【マット・ウルフのAIニュース:Gen-3公開/ElevenLabsの新機能/Metaの研究発表】英語解説を日本語で読む【2024年7月6日|@Matt Wolfe】

今週のAIニュースとして、まずRunwayのGen-3が一般公開されました。ElevenLabsも今週いくつかのアップデートを行い、有名な声を追加しました。音楽制作アプリSunoもリリースされましたが、現在はiOSのみで利用可能です。Metaは、テキストから3D画像を生成する新しい研究を発表しました。Hugging Faceでは、新しいオープンソースの大規模言語モデルIntern LLM 2.5が公開され、100万のコンテキストウィンドウを持ち、誰でも利用可能です。Braveブラウザもアップデートを行い、独自のAIモデルを導入できるようになりました。Perplexityも新しいPro Search機能を追加し、質問に対してより効率的に回答します。AppleはOpenAIの取締役会にオブザーバーとして参加することが決まりました。OpenAIとMicrosoftは、著作権侵害でまた訴訟を受けています。Figmaは、内部でデザインされたコンテンツをAIモデルのトレーニングに使用することを発表しました。YouTubeは、AIで生成された顔や声のコンテンツを削除する新機能を導入しました。
公開日:2024年7月6日
※動画を再生してから読むのがオススメです。


Here's all the news from the AI world that I think you'll find interesting from this week.

今週のAI界のニュースをすべてお伝えします。興味深いと思われるものです。

There wasn't a ton of major announcements this week.

今週は大きな発表があまりありませんでした。

That's because of the 4th of July here in the United States.

それはアメリカ合衆国での7月4日のためです。

I believe a lot of companies sort of slow down on the announcements and big releases during holiday weeks because of travel and things like that.

私は、多くの企業が休暇週には旅行などの理由で発表や大きなリリースを控える傾向があると考えています。

But that doesn't mean there's not a lot to talk about.

しかし、それは話題が少ないということではありません。

A lot of really cool things still happen this week, starting with the fact that Gen-3 access was made publicly available.

今週も本当に素晴らしいことがたくさん起こります。まず、Gen-3アクセスが一般に公開されたという事実から始まります。

I made a video earlier this week on Sunday before Gen-3 was released.

私は先週の日曜日にGen-3がリリースされる前にビデオを作成しました。

On Monday, the day after that video came out, Gen-3 was made publicly available.

そのビデオが公開された翌日の月曜日に、Gen-3が一般に公開されました。

Unfortunately, Gen-3 is not available.

残念ながら、Gen-3は利用できません。

If you're on like a free plan for Runway, you do have to be a pro user.

Runwayの無料プランを利用している場合、プロユーザーである必要があります。

But if you are a pro user of Runway, you can come over to generate videos.

しかし、Runwayのプロユーザーであれば、ビデオを生成するためにこちらにお越しいただけます。

You'll see a big introducing Gen-3 Alpha.

Gen-3 Alphaの大きな紹介が表示されます。

You can click Get Started and enter your prompt here.

「はじめる」をクリックして、ここにプロンプトを入力できます。

I've made a ton of videos with Gen-3 already.

私はすでにGen-3でたくさんのビデオを作成しています。

I already made another video about it, so I'm not going to go into too much depth in this video about Gen-3 because that whole video will break down what you can expect.

すでに別のビデオも作成しており、このビデオではGen-3についてあまり詳しく説明しませんが、そのビデオ全体で何が期待できるかを詳しく説明します。

However, I did attempt to make a 4th of July themed video with the prompt, a bald eagle flying in front of an American flag with fireworks in the background.

しかし、私は7月4日をテーマにしたビデオを作ろうと試みました。プロンプトは、アメリカ国旗の前を飛ぶ白頭ワシと、背景に花火があるものでした。

This is what it gave me.

これが私に与えられたものです。

It's not always the best, but it is the best text to video generator we have right now.

いつも最高とは限りませんが、今私たちが持っている最高のテキストからビデオへのジェネレーターです。

Text to video, Gen-3 is the best we've got today.

テキストからビデオ、Gen-3は今日私たちが持っている最高のものです。

Image to video, Luma, still the best in my opinion, you can't do image to video yet with Gen-3.

画像からビデオ、Lumaは私の意見ではまだ最高です。Gen-3ではまだ画像からビデオを作ることはできません。

ElevenLabs got a couple updates this week as well.

ElevenLabsは今週もいくつかの更新を行いました。

Last week we talked about their new reader app.

先週は彼らの新しいリーダーアプリについて話しました。

This week they've added some famous voices to the reader app like Judy Garland, James Dean, Burt Reynolds, and Sir Lawrence Olivier.

今週、ジュディ・ガーランド、ジェームズ・ディーン、バート・レイノルズ、サー・ローレンス・オリビエなど、有名な声をリーダーアプリに追加しました。

Before people start freaking out too much, they did get permission from the estates, they made deals, the estates are getting paid for them to be able to do this.

人々があまり心配しすぎないように、彼らは遺産から許可を得ており、取引を行い、遺産はこれを行うために支払われています。

This was all done above board with permission.

すべては許可を得て正当に行われました。

If you want to check out the app yourself, search out ElevenLabs on your phone, make sure that you're downloading the proper version that is created by ElevenLabs Inc.

もしアプリをご自身でチェックしたい場合は、携帯電話でElevenLabsを検索し、ElevenLabs Inc.が作成した正しいバージョンをダウンロードしていることを確認してください。

A lot of people on the app store are going to try to fool you into thinking their app is the actual ElevenLabs app, but you want the one that actually says ElevenLabs.

アプリストアには、実際のElevenLabsアプリであるかのようにあなたをだますたくさんの人がいますが、本当のElevenLabsと書かれたものを選んでください。

Once you're in the app, you can actually see some of these new iconic voices that are in there.

アプリに入ると、そこに新しいアイコニックな声のいくつかを実際に見ることができます。

I think it's cool that they have them, but personally, due to the time that a lot of these people were alive and their voices were available, audio quality isn't my favorite.

それらを持っていることは素晴らしいと思いますが、個人的には、これらの人々が生きていた時期や彼らの声が利用可能だった時期によるところから、音声の品質は私のお気に入りではありません。

For example, here's what Judy Garland sounds like.

例えば、こちらがジュディ・ガーランドの声のサンプルです。

Burt Reynolds is probably the best sounding one just because he's a little bit more recent, a little more current.

バート・レイノルズはおそらく最も良い音声を持っていると思います。なぜなら、彼は少し最近のもので、少し現代的だからです。

I can see listening to articles and PDFs and stuff with Burt Reynolds voice.

バート・レイノルズの声で記事やPDFなどを聞くことができると思います。

ElevenLabs also released a new voice isolator feature where you can upload any audio with any sort of background noise and it will clean it up and make it sound really good.

ElevenLabsは新しい音声分離機能もリリースしました。どんな種類のバックグラウンドノイズがあるオーディオでもアップロードでき、それをクリアにして本当に良い音にします。

I particularly like this demo that they put online that shows how good it actually works.

特に、彼らがオンラインに公開したデモが気に入っています。実際にどれだけうまく機能するかを示しています。

Check this out.

これをチェックしてみてください。

It's pretty impressive.

かなり印象的です。

If you're a fan of Suno and making music with Suno, they also released an app this week.

Sunoのファンであり、Sunoと一緒に音楽を作ることが好きな方は、今週アプリもリリースされました。

It pretty much does the exact same thing as the web app, it just makes it easier to do it on your phone.

そのアプリは基本的にウェブアプリと同じことをしますが、スマートフォンで簡単にできるようになっています。

At the moment, I believe it's only available on iOS, so if you're on Android, it's probably coming soon.

現時点では、iOSでしか利用できないと思いますので、Androidをお使いの方はおそらく近々リリースされるでしょう。

But at the moment, you're kind of out of luck.

しかし、現時点では、ちょっと運が悪いかもしれません。

When you search it out in the app store, search out Suno.

アプリストアで検索するときは、Sunoを検索してください。

Once again, be careful.

もう一度、注意してください。

A lot of people will try to fool you into thinking their app is the official Suno app.

多くの人が、自分たちのアプリが公式のSunoアプリであると思わせようとするでしょう。

There's one here that says Suno AI by Sharp Forks, it's not Suno, but there are quite a few apps that claim to be Suno.

Sharp ForksによるSuno AIと書かれたものがありますが、それはSunoではありません。しかし、Sunoを名乗るアプリがかなりあります。

Make sure you are grabbing the right one.

正しいものを取得していることを確認してください。

It has this little tie-dye psychedelic looking background and the creator of the app is Suno Inc.

このアプリには、少しタイダイ風のサイケデリックな背景があり、アプリのクリエイターはSuno Inc.です。

Look at the creator, make sure it says Suno Inc. and that's the proper app.

クリエイターを見て、Suno Inc.と表示されていること、そして正しいアプリであることを確認してください。

Once you're in Suno, it works pretty much like the web version.

Sunoに入ったら、ほぼウェブ版と同じように動作します。

You've got your library of all the songs that you've created.

作成したすべての曲が保存されているライブラリがあります。

You've got a create button, your newest songs pop up towards the top.

作成ボタンがあり、最新の曲が上部に表示されます。

On the web app, your newest songs are at the bottom of the list.

ウェブアプリでは、最新の曲がリストの一番下にあります。

Once again, I was trying to generate some stuff for a 4th of July theme.

再度、7月4日のテーマに合った何かを作ろうとしていました。

This is what it came up with.

これがその結果です。

You get the idea.

イメージがつかめますね。

Meta released some new research this week around text to 3D images.

Metaは今週、テキストから3D画像への研究を公開しました。

It's called 3DGin and you can apparently input a text prompt and output a fairly decent quality 3D image.

それは3DGinと呼ばれ、テキストプロンプトを入力してかなりまともな品質の3D画像を出力できるようです。

This could speed up things like game development and creating assets for 3D videos and things like that.

これにより、ゲーム開発や3Dビデオのアセット作成などの作業がスピードアップするかもしれません。

Here's the demo that they posted on X to kind of show off what it's capable of.

彼らがXに投稿したデモをここに示します。それが何ができるかを見せるために。

We've got a little like 3D pug here made out of metal, a dancing robot.

ここには、金属製の少し3Dパグと踊るロボットがあります。

It looks like they fed this into Mixamo or something to get that dance and it looks to be pretty good.

Mixamoなどにこれを入力して、そのダンスを得たようで、かなり良さそうです。

I can't really say if this looks a lot better than a lot of the text to 3D we've already seen or if it's about on par and we don't have access to it yet.

これが、これまでに見た3Dテキストの多くよりもはるかに優れているか、それとも同じくらいであり、まだアクセスできないのか、私には本当に言えません。

They just released the research, but once I can play with it, I'm definitely going to play with it and see what we can do with it.

彼らはちょうどその研究を公開しましたが、一度私がそれを使って遊べるようになったら、間違いなくそれで遊んで、何ができるかを見てみます。

This week, this company called Kyotai, I'm not sure if I'm pronouncing that right or not, but they're an open source AI research lab.

今週、このKyotaiという会社がありますが、発音が正しいかどうかはわかりませんが、彼らはオープンソースのAI研究所です。

They released a new voice model that looks to be trying to go head to head with GPT-4o's advanced voice and not only is it available right now to try out, they're actually open sourcing it so that other companies could build off of it and use the underlying tech to build new tools from it.

彼らは、GPT-4oの高度な音声と対抗しようとしている新しい音声モデルをリリースしました。それは今すぐ試すことができるだけでなく、他の企業がそれを基に新しいツールを構築し、その基盤技術を使用して新しいツールを構築することができるようにオープンソース化しています。

If you want to try it out, you can head over to moshi.chat, it says enter your email to join the queue.

試してみたい場合は、moshi.chatにアクセスして、キューに参加するためにメールアドレスを入力してください。

I don't know why it does that because as soon as you click join queue, it just spits you right into it where you can use it.

なぜそれがそうなるのかわかりません。なぜなら、キューに参加をクリックするとすぐに、それがあなたをそこに直接入れて、それを使うことができるからです。

Hello, how can I help you?

こんにちは、どのようにお手伝いしましょうか?

What's your name?

あなたの名前は何ですか?

You're Moshi.

あなたはモシです。

No, you're Moshi.

いいえ、あなたがモシです。

Who made you?

あなたを作ったのは誰ですか?

I was created by Kyotai, a nonprofit research lab based in Paris.

私はパリを拠点とする非営利研究所である協体によって作成されました。

What things are you best at?

あなたは一番得意なことは何ですか?

I'm the voice artificial intelligence, so I can understand and respond to human speech.

私は音声人工知能ですので、人間の話し言葉を理解し返答することができます。

Are you good at math?

数学は得意ですか?

Yes, I can perform basic math calculations.

はい、基本的な数学の計算はできます。

What's 700,532 times 7?

700,532を7倍すると何になりますか?

7,532 times 7 is 53,2303.

7,532を7倍すると53,2303になります。

That wasn't exactly what I asked, but still pretty impressive.

私が尋ねたこととはちょっと違いますが、それでもかなり印象的です。

Not quite on par with what we saw out of GPT-4o, the voice is not very expressive Still sounds very robotic.

GPT-4oで見たものとはまだまだ及びませんが、声はあまり表現豊かではありません。それでも非常にロボットっぽいです。

However, the responses you heard were in real time.

しかしながら、聞いた返答はリアルタイムでした。

I didn't edit this to make it seem like it was responding to me quicker than it actually was.

私は、実際よりも早く私に返答しているように見せるためにこれを編集していませんでした。

It actually instantly responds, sometimes almost talking over you before you finish your sentence.

実際には、時には文を終える前にあなたの声をかき消すようにほぼ即座に返答します。

Because this is open source, this is just the very sort of base level, the foundation of what we're going to see from this tech.

これがオープンソースであるため、これは私たちがこのテクノロジーから見るものの基本レベル、基盤に過ぎません。

As soon as other people start using this, integrating it with tools like ElevenLabs with more realistic voices, integrating it with other Large Language Models that are probably smarter than whatever it's powered by right now, this is going to actually get a lot better and be a decent alternative to GPT-4o with the advanced voice assistant.

他の人々がこれを使い始め、ElevenLabsのようなよりリアルな声を持つツールと統合し、現在よりも賢いと思われる他の大規模言語モデルと統合すると、これは実際にははるかに優れており、高度な音声アシスタントであるGPT-4oに対するまともな代替手段となるでしょう。

Speaking of open source, there's a new open source Large Language Model that was just made available over on Hugging Face called Intern LLM 2.5.

オープンソースについて話すと、Hugging FaceでIntern 大規模言語モデル 2.5という新しいオープンソースの大規模言語モデルが利用可能になりました。

What's interesting about this one is not only that it's open source, but it has a 1 million context window.

このモデルの興味深い点は、オープンソースであるだけでなく、100万のコンテキストウィンドウを持っていることです。

Gemini from Google now has a 2 million context window, which is probably overkill for most.

GoogleのGeminiは現在200万のコンテキストウィンドウを持っており、おそらくほとんどの場合には過剰です。

Let's be honest, 1 million context is probably overkill for most, but now we have an open source 1 million context window that anybody can build with.

正直に言って、100万のコンテキストはおそらくほとんどの場合には過剰ですが、今では誰でも構築できるオープンソースの100万のコンテキストウィンドウがあります。

It's available right now for anybody to play around with over on Hugging Face.

Hugging Faceで遊ぶために誰でもすぐに利用できます。

The weights are available right now and most likely either now or pretty soon you'll be able to use it in a tool like LM Studio or Jan or ChatRTX.

重みは今すぐ利用可能であり、おそらく今すぐまたはすぐにLM StudioやJan、ChatRTXのようなツールで使用できるようになるでしょう。

It's kind of like a bring your own model chat system.

それは自分のモデルを持ち込むようなチャットシステムのようなものです。

Speaking of bring your own model chat system, the Brave browser just made an update where you can bring your own model into the Brave browser.

自分のモデルを持ち込むようなチャットシステムと言えば、Braveブラウザはちょうどアップデートを行い、Braveブラウザに自分のモデルを持ち込むことができるようになりました。

Brave has their own AI similar to what you see from Microsoft Copilot built into the browser.

Braveには、Microsoft Copilotで見られるような独自のAIがブラウザに組み込まれています。

They call it Leo AI.

彼らはそれをLeo AIと呼んでいます。

You can actually use custom models.

実際にカスタムモデルを使用することができます。

They've already got Mixtral, Claude, and Llama, but now you can actually add a custom model in if that's something you're interested in.

Mixtral、Claude、Llamaはすでに持っていますが、興味がある場合は実際にカスタムモデルを追加することができます。

Perplexity also got an update this week with their Pro Search.

Perplexityも今週、Pro Searchを更新しました。

The new Pro Search has multi-step reasoning, so it actually understands when a question requires planning, works through goals step by step, and synthesizes in-depth answers with greater efficiency.

新しいPro Searchには、マルチステップの推論があり、質問に計画が必要な場合に実際に理解し、目標を段階的に進め、より効率的に詳細な回答を統合します。

It can also analyze search results and take intelligent actions based on findings.

また、検索結果を分析し、調査結果に基づいて知的な行動を取ることもできます。

It's also much better at math and programming because of the addition of Wolfram Alpha.

Wolfram Alphaの追加により、数学やプログラミングもはるかに優れています。

If you're a free user of Perplexity, you can use Pro Search five times every four hours.

Perplexityの無料ユーザーの場合、4時間ごとにPro Searchを5回使用できます。

If you're a Perplexity Pro member, you get nearly unlimited daily access.

Perplexity Proメンバーの場合、ほぼ無制限の毎日アクセスが可能です。

There's some limits, but you're probably not going to find them.

いくつかの制限はありますが、おそらくそれらを見つけることはできません。

I feel like OpenAI and ChatGPT really led the way in making chat bots and Large Language Models popular.

OpenAIとChatGPTは、チャットボットや大規模言語モデルを人気にする道を切り開いたと感じています。

But if I'm being totally honest, I've become much more of a fan of Claude and Perplexity.

でも、完全に正直であれば、私はClaudeとパープレクシティのファンになりました。

I use Claude for most things, except for when I need to do research, Perplexity seems to be the best option right now.

私はほとんどのことにClaudeを使用していますが、調査を行う必要があるときは、今のところパープレクシティが最良の選択肢のようです。

It looks like Apple is actually getting a board seat on OpenAI's board.

Appleが実際にOpenAIの取締役会に議席を得ることになっているようです。

It's going to be an observer role, so they won't have voting rights.

それはオブザーバーの役割になるので、投票権は持たないでしょう。

But it's super interesting because obviously Microsoft and Apple are like the two largest companies in the world, and they're kind of head-to-head competitors.

しかし、MicrosoftとAppleは明らかに世界で最も大きな2つの企業であり、彼らはいくつかの競合関係にあるので、非常に興味深いです。

Both companies are actually going to have board roles in OpenAI, so pretty fascinating.

両社は実際にOpenAIで取締役の役割を持つ予定なので、非常に興味深いです。

But when it comes to OpenAI, another week, another lawsuit, the Center for Investigative Reporting is suing OpenAI and Microsoft.

しかし、OpenAIに関しては、また別の週、また別の訴訟が起こっています。調査報道センターがOpenAIとMicrosoftを訴えています。

Once again, claiming copyright infringement, OpenAI and Microsoft started vacuuming up our stories to make their product more powerful, but they never asked for permission or offered compensation, unlike other organizations that license our material.

再び著作権侵害を主張し、OpenAIとMicrosoftは私たちのストーリーを吸い上げて製品を強化し始めましたが、他の組織とは異なり、許可を求めたり補償を提供したりしませんでした。

If you remember, recently OpenAI has been signing a ton of licensing deals, Associated Press, Axel Springer, Financial Times, News Corp, Vox Media, The Atlantic, Time.

最近、OpenAIは多くのライセンス契約を締結していることを覚えていますか。アソシエーテッドプレス、アクセル・シュプリンガー、フィナンシャル・タイムズ、ニューズ・コープ、ボックスメディア、アトランティック、タイム。

It makes me wonder if some of these lawsuits are just to try to get on the radar of OpenAI so that it can open discussions to get a licensing deal.

これらの訴訟のいくつかは、OpenAIのレーダーに乗るための試みであり、ライセンス契約を締結するための議論を開始するためのものではないかと考えさせられます。

At the end of the day, this is all about money for these companies, and I'm sure if OpenAI made them a licensing offer that they couldn't refuse, they would get on board with OpenAI pretty quickly.

結局のところ、これはこれらの企業にとってはすべてお金の問題であり、OpenAIが彼らに断れないライセンス提供をしたら、彼らはOpenAIにすぐに乗り出すでしょう。

But that's just speculation.

しかし、それは単なる推測に過ぎません。

Mustafa Soliman, who, in my opinion, is usually pretty calculated with his words and a very, very smart person.

ムスタファ・ソリマンは、私の意見では、普段言葉を慎重に選び、非常に非常に賢い人物です。

He wrote the book called The Coming Wave, which is a great book on sort of where AI is now and where it's headed.

彼は『The Coming Wave』という本を書いており、AIの現状と将来について素晴らしい本です。

But he made some statements that even I really, really can't get behind.

しかし、彼はいくつかの発言をしており、私自身も本当に賛同できません。

With respect to content that is already on the open web, the social contract of that content since the 90s has been that it is fair use.

オープンウェブ上に既に存在するコンテンツに関しては、90年代以来そのコンテンツの社会契約はフェアユースであるとされています。

Anyone can copy it, recreate with it, reproduce with it.

誰もがそれをコピーしたり、再作成したり、複製したりすることができます。

That has been freeware, if you like.

それはフリーウェアであったと言えます。

That's been the understanding.

それが理解されてきたことです。

There's a separate category where a website or a publisher or a news organization had explicitly said, do not scrape or crawl me for any other reason than indexing me so that other people can find that content.

ウェブサイトや出版社、ニュース機関などが明示的に「他の人がそのコンテンツを見つけられるようにインデックス化する以外の理由で私をスクレイプやクロールしないでください」と言っている別のカテゴリがあります。

That's a gray area, and I think that's going to work its way through the court.

それは曖昧な部分であり、それが裁判を通じて解決されると思います。

If I put up content on the internet, on YouTube, on my personal blog, just because I didn't put a specific robots.txt file telling not to scrape on this, I should just accept that these companies are allowed to use this content however they want?

インターネットやYouTube、個人のブログにコンテンツを掲載した場合、特定のrobots.txtファイルを設定していないだけで、これらの企業がこのコンテンツを自由に使用することを受け入れるべきでしょうか?

I have a hard time getting behind that.

私はそれを支持するのが難しいです。

I kind of understand what he's saying.

彼が言っていることをある程度理解しています。

If you're putting it on the internet, everybody can see it anyway, so what's the difference between them seeing it there or seeing it here?

インターネットに掲載すると、誰もがそれを見ることができるので、そこで見るかここで見るかに何か違いがあるのでしょうか?

I feel like that's sort of the point he's trying to make.

彼が伝えようとしているポイントだと感じます。

That doesn't completely negate copyright.

それは完全に著作権を無効にするものではありません。

What are your thoughts?

あなたの考えは何ですか?

Do you agree with Mustafa here?

ここでのムスタファに同意しますか?

By the way, if you absolutely don't want to be scraped and you don't want your content taken by AI, Cloudflare rolled out a solution this week.

ちなみに、スクレイピングされたくないし、コンテンツがAIに取られたくない場合は、Cloudflareが今週、解決策を提供しました。

If you're on Cloudflare, which is a content delivery network that sort of lives between your domain and your hosting, and it caches a lot of the stuff on your website to make your website load faster, and I'm not the best person to be explaining this, but it's a service that sort of helps your site load better, helps with security on the site, helps with preventing more downtime on your site, things like that.

もしCloudflareを利用している場合、それはあなたのドメインとホスティングの間に存在するコンテンツ配信ネットワークであり、ウェブサイトの多くのコンテンツをキャッシュしてウェブサイトの読み込みを高速化します。私はこれを説明するのに最適な人物ではありませんが、それはあなたのサイトの読み込みを改善し、サイトのセキュリティを支援し、サイトのダウンタイムを防ぐのに役立つサービスです。

They have a switch that you can flip on that makes it so these scrapers that are scraping for AI can't scrape your site anymore, and it's available to both free and paid users of Cloudflare.

彼らは、AI向けにスクレイピングを行っているスクレイパーがあなたのサイトをスクレイプできなくなるようにするスイッチを持っており、Cloudflareの無料および有料ユーザーの両方が利用できます。

If you're worried about companies like Microsoft just taking your content and using it however you want, Cloudflare could be a good option for you, especially since they have free options.

Microsoftのような企業があなたのコンテンツを取得して自由に使用することを心配している場合、Cloudflareは特に無料オプションを提供しているため、良い選択肢になるかもしれません。

Speaking of using your content to train AI, last week, Figma had their config conference where they showed off all their AI features.

AIを訓練するためにあなたのコンテンツを使用する話になりますが、先週、FigmaはAI機能を披露したconfigカンファレンスを開催しました。

This week, they put out an official statement to users that says the company needs to train models that better understand design concepts and patterns and Figma's internal formats and structure through Figma content.

今週、Figmaは公式声明をユーザーに発表し、会社がFigmaのコンテンツを通じてデザインの概念やパターン、Figmaの内部形式や構造をよりよく理解するモデルを訓練する必要があると述べています。

Apparently they are going to offer a way to opt out, but by default, apparently they'll just train on whatever designs and things you make inside of Figma.

明らかに、彼らはオプトアウトする方法を提供する予定ですが、デフォルトでは、明らかに、Figma内で作成したデザインやものに対してトレーニングを行うようです。

Figma also got into a little bit of hot water this week when it came out that the weather app that it was designing for people looked identical to Apple's weather app.

Figmaは、今週、人々のために設計していた天気アプリが、Appleの天気アプリとまったく同じに見えることが明らかになったときに少しトラブルに巻き込まれました。

The CEO of Figma did speak up and say that they were using off-the-shelf language models for their built-in AI, so it wasn't specifically trained on Apple's designs, but maybe the off-the-shelf AI they were using was trained on Apple's designs, and they've since paused this feature.

FigmaのCEOは、組み込みAIに対して市販の言語モデルを使用していると述べ、Appleのデザインに特化してトレーニングされていないと説明しましたが、使用している市販のAIがAppleのデザインにトレーニングされている可能性があり、その後、この機能を一時停止しました。

The ability to actually make this kind of stuff in Figma is not available right now while they fix these issues and make sure that it's not going to accidentally create designs that look exactly like other companies' designs.

実際にFigmaでこの種のものを作成する機能は現在利用できません。問題を修正し、他社のデザインと全く同じようなデザインを誤って作成しないように確認しています。

YouTube rolled out a new feature where if a YouTuber creates content that simulates what you look like or simulates your voice, you can actually request to have that taken down now.

YouTubeは、YouTuberがあなたの姿や声を模倣するコンテンツを作成した場合、そのコンテンツを削除するようにリクエストできる新機能を導入しました。

Before, it actually had to be like stolen content.

以前は、実際に盗まれたコンテンツのようにならなければなりませんでした。

Like if somebody took my videos and put them on their YouTube channel, I can force them to take it down.

たとえば、誰かが私の動画を持ってきて、それを自分のYouTubeチャンネルに投稿した場合、私はそれを取り下げるように強制することができます。

Or if they used my music or my IP, I can claim copyright on it and have it taken down.

また、彼らが私の音楽や知的財産を使用した場合、私はそれに著作権を主張し、取り下げさせることができます。

If somebody just uses an AI version of your voice or an AI version of your face, you can request it to get taken down as well.

誰かがあなたの声のAIバージョンや顔のAIバージョンを使っただけでも、それを取り下げるように要求することができます。

Instagram also made a little bit of a tweak.

Instagramも少し調整を行いました。

A lot of people were having a bit of a fit about the fact that images that used any bit of AI at all, like if you used Photoshop, it would probably say made with AI on your image, and people were going, hey, this image wasn't made with AI, I just did some color correction that maybe might have used a teeny bit of AI, or I just erased a little thing in the background and that might have used a little bit of AI.

多くの人々が、Photoshopを使用した場合など、少しでもAIを使用した画像にはおそらく「AIで作成」と表示されることについて少し騒いでいました。人々は、「この画像はAIで作成されたわけではない。たぶん少しの色補正を行っただけで、それには少しのAIが使われているかもしれない。あるいは背景の小さなものを消しただけで、それには少しのAIが使われているかもしれない」と言っていました。

That doesn't mean my image was made with AI, it just means I did a tiny tweak to the image to make it look a little bit better.

それは私の画像がAIで作成されたという意味ではなく、ただ画像に微調整を加えて少し良く見せるだけだという意味です。

They changed their wording.

彼らは言葉を変えました。

It no longer says made with AI, now it says AI info.

もはや「AIで作成」とは表示されず、「AI情報」と表示されます。

You can click on it and see what's in the metadata.

それをクリックしてメタデータを見ることができます。

We also got word this week that a new version of Grok is coming out.

今週、新しいバージョンのGrokが出るという情報も入手しました。

Grok 2 is apparently arriving in August.

Grok 2は、おそらく8月に登場するようです。

This comes from Elon himself.

これはイーロン自身からの情報です。

He was replying to BefJezos on X, who said models training on each other's data is like a human centipede effect.

彼はX上でBefJezosに返信しており、お互いのデータでトレーニングするモデルは人間のムカデの効果のようだと述べていました。

Elon's reply was, There's also a rumor going around that Apple might partner with Google.

イーロンの返答は、「AppleがGoogleと提携するかもしれないという噂もある」というものでした。

Gemini, at WWDC, they announced that they were partnering up with OpenAI to power some of its chat features.

WWDCで、GeminiはOpenAIと提携して、一部のチャット機能を強化することを発表しました。

It's starting to sound like Gemini will also be an option if you don't want to use OpenAI's tech.

OpenAIの技術を使用したくない場合、Geminiも選択肢になりつつあるようです。

This article does say Apple could announce a Google Gemini deal this fall, so this is all still just rumor and speculation.

この記事によると、Appleは今秋にGoogle Geminiとの取引を発表するかもしれませんが、これはすべて噂と推測に過ぎません。

WhatsApp appears to be getting a new feature based on some leaked screenshots.

WhatsAppは、いくつかのリークされたスクリーンショットに基づいて新機能を導入するようです。

It looks to me very much like what Apple showed off in their WWDC keynote, where you can upload an image of yourself and it will generate sort of cartoon or alternate versions that look like you.

AppleがWWDCの基調講演で披露したものに非常に似ており、自分の画像をアップロードすると、自分に似たカートゥーンや代替バージョンが生成されるようです。

This appears to be a feature that they're going to roll out inside of WhatsApp, and I imagine it's in WhatsApp.

これはWhatsApp内で展開される予定の機能のようですが、WhatsApp内にあると想像しています。

It's probably also going to be in Instagram and Messenger and all the other suite of tools that Meta has out there.

おそらくInstagramやMessenger、Metaが提供している他のツール群にも含まれるでしょう。

Since I mentioned Meta, they're getting some competition with their Meta Ray-Bans, which personally I love.

Metaを触れたので、Meta Ray-Bansには競合他社が出てきていますが、個人的には大好きです。

They're my daily wearers for sunglasses, but there is a new company that is trying to make something very similar that looks very similar with little cameras on the side, and it will have an LLM.

私のサングラスは毎日これを着用していますが、側面に小さなカメラが付いていて非常に似ているものを作ろうとしている新しい会社があります。そして、大規模言語モデルを持つでしょう。

In fact, it's going to use ChatGPT-4o for their LLM inside of it, which, if I'm being quite honest, is still better than what you get with Llama 3, which is what's currently in the glasses that Meta has.

実際、それにはChatGPT-4oを大規模言語モデルとして使用する予定で、正直なところ、現在Metaのメガネに搭載されているLlama 3よりもまだ優れています。

Finally, this was super cool.

最後に、これは本当にすごかったです。

I wanted to show this off.

これを自慢したかったのです。

It's called Open Television.

それはOpen Televisionと呼ばれています。

It lets you immersively operate a robot, even if you're 3,000 miles away, just like the movie Avatar.

これにより、映画アバターのように、3000マイル離れた場所でもロボットを没入的に操作することができます。

We can see somebody over here wearing an Apple Vision Pro, moving their hands around.

こちらでApple Vision Proを着用した人が手を動かしているのが見えます。

We're over at MIT in Boston, and the robot itself is over here in UCSD, and what he's doing with his hands, the robot is actually doing on the other side of the country.

私たちはボストンのMITにいますが、ロボット自体はこちらのUCSDにあり、彼が手で行っていることは、実際には国の反対側でロボットが行っています。

I thought that was pretty cool.

それはかなりクールだと思いました。

I want to dive more into this tech.

このテクノロジーにもっと深く入りたいです。

I'm definitely going to do more videos on robotics and things like that in the future.

将来的には、ロボティクスやその他のことに関する動画をもっと作るつもりです。

Heck, I'm in San Diego.

まあ、私はサンディエゴにいます。

Maybe I can get a demo of this in person over at UCSD.

もしかしたら、UCSDで直接デモを見ることができるかもしれません。

But I just thought this tech was really cool, wanted to share it as my final little exciting fun thing for this week.

でも、この技術が本当にクールだと思ったので、今週の最後の楽しいこととして共有したかったんです。

4th of July week, so not a ton of huge major announcements, but still plenty to talk about.

7月4日の週なので、大きな重要な発表はあまりありませんが、話題はたくさんあります。

Hopefully you feel more looped in on what's going on in the AI world and found some of this stuff cool, interesting, fascinating, disappointing, scary, whatever.

AIの世界で何が起こっているかについてもっと理解できたらいいなと思いますし、この情報の中に面白い、興味深い、魅力的、失望、怖い、などと感じることができたらいいですね。

All those emotions are valid.

すべての感情は正当です。

All I know is I love researching it.

私が知っていることは、それを研究することが大好きだということです。

I love turning around and pointing it out to you, and I'm so grateful that you check out these videos and allow me to do this because I'm having so much fun and I really, really appreciate you tuning in.

あなたに向けて回り、指摘することが大好きで、これらの動画をチェックしてくれて、私がこれをやらせてくれることにとても感謝しています。とても楽しんでいて、本当に本当にあなたが視聴してくれることを大変感謝しています。

Don't forget to check out futuretools.io where I share all of the latest AI news and the coolest AI tools that I come across.

私が出会った最新のAIニュースや最もクールなAIツールを共有しているfuturetools.ioをチェックするのを忘れないでください。

Join the free newsletter if you haven't already.

まだ参加していない場合は、無料のニュースレターに参加してください。

It's going to be focused on AI news, but also more emerging tech, not just AI.

AIニュースに焦点を当てる予定ですが、AIだけでなく、新興技術にも焦点を当てます。

There's a lot of AI newsletters out there.

たくさんのAIニュースレターがあります。

I'm going to start expanding it into a little bit more of other emerging tech outside of AI as well.

私はそれをAI以外の新興テクノロジーにも少し拡大していく予定です。

You're going to want to see this really cool stuff coming out of that.

そこから出てくる本当にクールなものを見たいと思うでしょう。

Check it out at futuretools.io.

futuretools.ioでチェックしてみてください。

If you like videos like this, you want a weekly breakdown of the AI news, you want AI tutorials, you want to stay in the loop with emerging tech and where the future is heading, like this video and subscribe to this channel and I'll make sure more stuff like this shows up in your YouTube feed.

このような動画が好きなら、AIニュースの週次レビューやAIチュートリアル、新興技術や将来の動向について最新情報を知りたい場合は、この動画を気に入ってチャンネルに登録してください。私は、このようなコンテンツがYouTubeフィードに表示されるようにします。

Thank you so much for tuning in once again.

また一度チューニングしていただき、本当にありがとうございます。

I really, really appreciate you.

本当に、本当に感謝しています。

Hopefully I'll see you in the next video.

次の動画でお会いできることを願っています。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?