見出し画像

【マット・ウルフのAIニュース|AI業界の衝撃的移籍とNVIDIAの未来技術】英語解説を日本語で読む【2024年3月23日|@Matt Wolfe】

Inflection AIの共同創設者であるムスタファ・シュリーマンがMicrosoft AIのCEOとしてMicrosoftに加わることを決断したことです。彼はGoogle DeepMindの創設者の一人で、昨年Googleを離れてInflection AIを立ち上げました。同社が開発したチャットボット「Pi」は高い評価を受けていました。MicrosoftがインフレクションAIを買収したわけではありませんが、スタッフを雇用するために6億5000万ドルを支払うことに合意しました。これにより、AIレースにおいてGoogleとMicrosoftが競合している状況がさらに加速することになります。 NVIDIA GTCカンファレンスでは、次世代のBlackwell GPUが発表され、AIとロボティクスの訓練に焦点が当てられました。また、デジタルツイン技術や新しいAIプラットフォーム「GR00T」などの革新が紹介されました。これらの技術は、より効率的かつ低コストで大規模な言語モデルを訓練することを可能にします。 一方で、イーロン・マスクはGrok-1をオープンソース化し、AppleはGoogleやOpenAIとのパートナーシップを模索しているとの報道がありました。さらに、Stability AIからの主要な研究者の離脱や、Midjourneyの利用規約の変更など、AI業界ではさまざまな動きがありました。
公開日:2024年3月23日
※動画を再生してから読むのがオススメです。


There's actually been quite a bit of AI news that came out this week, but I just got back from the NVIDIA GTC conference, so I've been playing a little catch-up to keep you up to speed.

今週はかなりの量のAIニュースが出ていますが、私はNVIDIA GTCカンファレンスから戻ったばかりなので、あなたを最新情報に保つために少し追いつくのに忙しかったです。

But I want to start with what I found to be probably the most shocking news of this week, and that's that Mustafa Suleyman, this guy right here on the right who founded Inflection AI with Reid Hoffman, just decided to join Microsoft as the CEO of Microsoft AI.

しかし、今週最も驚いたニュースはおそらく、この右側にいるムスタファ・シュリーマンが、リード・ホフマンと共にInflection AIを設立した人物が、MicrosoftのCEOとして参加することを決定したことです。

If you're not familiar with the name Mustafa Suleyman, it's kind of interesting and kind of shocking, and here's why.

ムスタファ・シュリーマンという名前が馴染みがない場合、それは興味深く、驚くべきことであり、その理由は次のとおりです。

Suleiman was one of the original founders of Google DeepMind, well, DeepMind before Google bought it.

シュリーマンは、Googleが買収する前のDeepMindのオリジナルの創設者の1人でした。

Last year, he left Google DeepMind to start Inflection AI, which you may be familiar with if you've ever used the Pi chatbot.

昨年、彼はGoogle DeepMindを離れてInflection AIを立ち上げ、もしあなたがPiチャットボットを使ったことがあるなら、それに馴染みがあるかもしれません。

Pi was made by Inflection AI, and in my opinion, it was a pretty good chatbot.

PiはInflection AIによって作られ、私の意見では、かなり良いチャットボットでした。

It's one of the best ones out there for having a chat on your phone with a voice to voice conversation.

あなたの電話での会話に声をかけて会話するための最高のものの1つです。

It's just this really interesting turn of events where somebody who started at Google left to start their own company and then ended up at Microsoft who right now, if you're paying attention, Google and Microsoft are pretty much going head to head to try to be the winners of the AI race right now.

Googleで始めた人が自分の会社を立ち上げて、その後Microsoftに行くという非常に興味深い展開です。現在、GoogleとMicrosoftはAIレースの勝者を目指してほぼ対等に戦っています。

While it doesn't sound like Inflection AI is completely dead, it does sound like they're going to stop progress on the Pi chatbot.

Inflection AIが完全に終了したようには聞こえませんが、Piチャットボットの進捗を停止する予定のようです。

Microsoft didn't technically acquire Inflection.

Microsoftは技術的にはInflectionを取得していません。

However, Microsoft did agree to pay Inflection $650 million to hire its staff.

ただし、Microsoftはインフレクションに対して6億5000万ドルを支払うことに同意しました。

Some people are speculating that Microsoft actually structured it this way to avoid a lengthy review from antitrust regulators.

一部の人々は、Microsoftが実際にこれを構築したのは、独占禁止規制当局からの長期的な審査を避けるためだと推測しています。

And if you invested in Inflection, well, it cushioned the blow for investors.

そして、もしインフレクションに投資していたら、投資家にとっては打撃を和らげるものでした。

Inflection has promised to pay them more than the value of their original investment while allowing them to retain equity in the startup.

インフレクションは、元の投資額以上の金額を支払うことを約束し、同時にスタートアップの株式を保持することを許可しました。

Anyway, it's just a real shocking move to see somebody that was basically with Google for a long time who then left to go start their own thing because presumably Google just didn't move fast enough and had too many restrictions to the growth of their platform, and then they decided to go to Microsoft, which I would imagine has a lot of the same red tape, but also seems to be kind of the front runner in the race for AI right now.

とにかく、Googleと長い間一緒にいた人が、おそらくGoogleが動きが遅すぎてプラットフォームの成長に制約が多すぎると感じて自分のことを始めるために去ったのを見て、本当に驚くべき動きです。そして、その後、Microsoftに行くことを決めたのは、多くの同じような厄介な手続きがあると思われるが、現在AIの分野で先頭を走っているようにも見えるからです。

Crazy story in my eyes.

私の目には狂った話です。

I think part of the fun of this whole AI world is seeing all of this drama unfold among all of the key figures in the AI world, sort of playing chess against each other, but like stealing each other's pieces also.

このAIの世界全体の楽しみの一部は、AIの世界の主要な人物たちの間でこのようなドラマが展開され、お互いにチェスをプレイしているように見えることであり、お互いの駒を奪い合っているようなものでもあります。

But the majority of the news this week came out of NVIDIA's GTC conference, the conference I just mentioned, I just got back from.

しかし、今週のニュースの大部分は、私がちょうど戻ってきたGTCカンファレンスから出てきました。

And if you're not familiar with the GTC conference, some have called it Woodstock for AI nerds.

GTCカンファレンスに馴染みがない場合、それをAIオタクのためのウッドストックと呼ぶ人もいます。

When Jensen Huang gave his first keynote of the event, he did it in the same arena where the San Jose Sharks play, an arena that holds around 17,000 people.

ジェンセン・ファンがイベントの最初の基調講演を行ったとき、彼はサンノゼ・シャークスがプレイする同じアリーナで行いました。そのアリーナは約17,000人を収容できます。

And looking around the arena, it didn't look like there were any empty seats.

アリーナを見渡すと、空席はないように見えませんでした。

It was nuts.

狂ったような光景でした。

It felt like a rock concert all for Jensen Huang to give a keynote.

ジェンスン・フアンが基調講演を行うためにロックコンサートのような雰囲気が漂っていました。

During the keynote Jensen unveiled the next gen Blackwell GPU.

基調講演中、ジェンセンは次世代のBlackwell GPUを発表しました。

This new GPU has up to a 30 times performance increase for LLM inference.

この新しいGPUは大規模言語モデル推論において最大30倍の性能向上を実現しています。

And these new chips will enable organizations everywhere to build and run real time generative AI on trillion parameter, Large Language Models at 25 times less cost and energy consumption than its predecessor, the hopper, or you've heard of the GH one hundreds, GH two hundreds.

そして、これらの新しいチップは、どこでも組織が25倍のコストとエネルギー消費量で、兆パラメータの大規模言語モデルをリアルタイムで生成および実行できるようにします。先行するホッパーやGH100、GH200といった前任のGPUよりも。

Those were the grace hopper GPUs, which preceded these new Blackwell GPUs.

それらは、これらの新しいBlackwell GPUの前身であるグレース・ホッパーGPUでした。

I don't want to get too in the weeds with this, I just want to kind of give you the high level, but essentially these new chips are going to make it more energy efficient, but also faster at the same time to train larger, Large Language Models.

あまり詳しくは立ち入りたくありませんが、基本的にはこれらの新しいチップは、よりエネルギー効率が向上し、同時により速く大規模な言語モデルをトレーニングできるようになります。

The faster these Large Language Models are to train, the cheaper they are to train the bigger and bigger these models can get, and the more sort of compute can be pushed into them to get better results.

これらの大規模言語モデルがトレーニングされるほど速くなれば、それだけ大きなモデルをトレーニングするコストが安くなり、より多くの計算がそれらに投入されてより良い結果を得ることができます。

A big theme at NVIDIA's GTC was training robots as well, and they announced a new AI platform called GR00T.

NVIDIAのGTCでの大きなテーマの一つは、ロボットのトレーニングも含まれており、新しいAIプラットフォームであるGR00Tが発表されました。

GR00T is a general purpose foundation model for humanoid robots, so it's a model that can be fine tuned by the various robot developers who specifically be optimized for robotics.

GR00Tは、人型ロボット用の汎用基礎モデルであり、さまざまなロボット開発者によって微調整されるモデルであり、特にロボティクスに最適化されています。

There was a term that Jensen Huang of NVIDIA was absolutely obsessed with.

NVIDIAのジェンスン・フアンが絶対に夢中になっていた用語がありました。

This is a term you're probably going to start hearing a lot of over the coming months and years, and that is the concept of a digital twin.

これは、今後数ヶ月や数年でよく耳にすることになる用語であり、それがデジタルツインという概念です。

And a digital twin is essentially a virtual environment that is designed to mimic the real world environment that these AIs will be operating in, but you can sort of simulate and test things out in this digital twin, this virtual environment before bringing them into the real world.

デジタルツインとは、これらのAIが操作される実世界環境を模倣するように設計された仮想環境のことであり、このデジタルツイン、この仮想環境で事柄をシミュレートしてテストすることができます。

And as part of this announcement, they announced Earth 2, which is a digital twin of the entire Earth.

そして、この発表の一環として、彼らはEarth 2を発表しました。これは、地球全体のデジタルツインです。

Earth 2 offers groundbreaking APIs designed to simulate and visualize weather and climate at an unprecedented scale, paving the way for more accurate forecasts and timely warnings.

Earth 2は、前例のないスケールで天候や気候をシミュレートし、視覚化するために設計された画期的なAPIを提供し、より正確な予測とタイムリーな警告の道を開いています。

The idea being that we can get way ahead of things like hurricanes, tornadoes, earthquakes.

ハリケーンや竜巻、地震などのような災害について、事前に予測できるようになるという考え方です。

Really any extreme weather will be able to predict it much further in advance using these simulations instead of the digital twins so that we can do a better job of preventing and or preparing for these events when they do happen.

実際には、これらのシミュレーションを使用して、デジタルツインズではなく、極端な天候をより遠くまで予測することができるため、これらの出来事が起こったときにより良い予防や準備をすることができます。

And another note during Jensen's speech, he talked about quantum computing.

また、ジェンセンのスピーチ中に、量子コンピューティングについて話しました。

Jensen claims that NVIDIA is the largest quantum computing company on the planet that doesn't own a quantum computer.

ジェンセンは、NVIDIAが量子コンピュータを所有していない地球上最大の量子コンピューティング企業であると主張しています。

And he said that because they can actually create a digital twin of a quantum computer.

そして、彼らは実際に量子コンピュータのデジタルツインを作成できると述べました。

They can create an emulator, a simulation of a quantum computer and effectively test things that a quantum computer would output, but using this emulator of a quantum computer.

彼らはエミュレータ、量子コンピュータのシミュレーションを作成し、実際に量子コンピュータが出力するであろうものをテストすることができますが、この量子コンピュータのエミュレータを使用しています。

This concept to me is still a little vague because I am not super well versed on quantum computing.

この概念は、私が量子コンピューティングについてあまり詳しくないため、まだ少し曖昧です。

It is actually a RABBIT hole.

実際には、それはウサギの穴です。

I am planning on diving down in the coming weeks and months.

私は今後数週間や数ヶ月でその中に飛び込む予定です。

It's something I want to learn more about.

それは私がもっと学びたいと思っていることです。

I will turn around and talk about it on videos because if I learn about quantum computing, obviously I want to turn around and share about quantum computing.

私は量子コンピューティングについて学ぶと、明らかに量子コンピューティングについて共有したいと思うので、ビデオで話すことにします。

But the way Jensen described it was that they can build a quantum computing emulator.

しかし、ジェンスンが説明した方法は、彼らが量子コンピューティングのエミュレータを構築できるというものでした。

And I feel like if that's true, then what's the point of spending all the time and money on real quantum computers?

もしそれが本当なら、本物の量子コンピュータに時間とお金を費やす意味は何なのかと感じます。

I need to get more clarity on that and better understand it myself, but it is a fascinating concept that I'm excited to dive deeper on.

私自身もそれをよりよく理解し、明確にする必要がありますが、それは私がもっと深く掘り下げたいと思っている魅力的な概念です。

I'm old school.

私は昔ながらの考え方です。

I brought a little TD notepad with me because I don't like carrying around big backpacks when I go to those events and took some notes during the keynotes.

私はそのようなイベントに行くときに大きなバックパックを持ち歩くのが好きではないので、少しのTDメモ帳を持参し、基調講演中にいくつかのメモを取りました。

And there were three key terms that kept on coming up through a ton of the different presentations that I sat in during Jensen's keynotes during the private press Q&A that I got to sit in on with Jensen.

そして、ジェンスンの基調講演中に座った多くの異なるプレゼンテーションで繰り返し出てきた3つのキーワードがありました。私はジェンスンと一緒に行ったプライベートプレスQ&A中に座った際にそれらを聞くことができました。

And those three keywords are digital twin, synthetic data, and multimodality.

そして、それらの3つのキーワードは、デジタルツイン、合成データ、およびマルチモダリティです。

Those three keywords.

これらの3つのキーワード。

Listen for those this year.

今年はこれらを聞いてください。

You're probably going to hear them a lot.

おそらく、それらをたくさん聞くことになるでしょう。

Digital twin referring to a sort of clone of something that's in the real world, but a simulated version where you can test an experiment within the simulation before bringing things into the real world.

デジタルツインとは、実世界にあるもののクローンのようなものを指し、シミュレーション内で実験やテストを行うことができるシミュレーション内でのものを実際の世界に持ち込む前に。

You've got synthetic data, which is data that was essentially created by computers, not created by humans.

合成データというのは、基本的にコンピューターによって作成されたデータであり、人間によって作成されたものではありません。

And then trained in the AI.

そして、AIで訓練されます。

For example, synthetic data might be like a video simulation like Sora may have trained on a whole bunch of publicly available video, but then people may have also created video inside of unreal engine that looks realistic, but wasn't real.

たとえば、合成データは、Soraが公開されているたくさんのビデオで訓練されたかもしれませんが、人々がリアルに見えるが実際にはリアルではないアンリアルエンジン内でビデオを作成したかもしれません。

And then used that as part of the training as well.

そして、それも訓練の一部として使用されました。

Well, the unreal engine generated video would be technically considered synthetic data because it wasn't created in the real world.

まあ、アンリアルエンジンで生成されたビデオは、実際の世界で作成されたものではないため、技術的には合成データと見なされます。

It was created within this game engine and then fed in to the AI to let the AI think this was real world.

これはゲームエンジン内で作成され、その後AIに供給され、AIにこれが現実世界であると思わせるために使用されました。

And the third being multimodality, which I'm sure you're probably already familiar with this term.

そして、三番目は多様性であり、おそらくこの用語にはすでに精通していると思います。

I just think we're going to see it used more and more and more as more advanced language models get released.

私は、より高度な言語モデルがリリースされるにつれて、ますます使用されると考えています。

But multimodality basically means we're going to see these language models not only operate with text, but we're going to see it operate more with audio, with video, with images, with various modalities of media.

マルチモダリティとは、基本的にはこれらの言語モデルがテキストだけでなく、オーディオ、ビデオ、画像など、さまざまなメディアのモダリティとも連携することを意味します。

Those are the three big terms, the big takeaways from NVIDIA's GTC.

それらはNVIDIAのGTCからの3つの重要な用語、重要なポイントです。

Those are things we're probably going to see a lot of this year.

これらは、今年はたくさん見ることになるであろうものです。

Digital twins, synthetic data, and more multimodality within the Large Language Models.

デジタルツイン、合成データ、そして大規模言語モデル内でのより多様なモダリティ。

This GTC event was also special for me because I got to hang out with some of my favorite creators as well.

このGTCイベントは、私にとっても特別なものでした。なぜなら、私の好きなクリエイターの中で一緒に過ごすことができたからです。

I got to spend time with the other AI Matt, Matt vid pro, my good buddy, Bill of all to do, who we seem to keep bumping into each other at multiple events.

他のAIマット、Matt vid pro、私の親友であるBill of all to doと一緒に時間を過ごすことができました。私たちは複数のイベントで何度も偶然出会うようです。

Pete Huang, one of the creators of the neuron AI newsletter with over 400 subscribers, Igor Pognoi, the creator of the AI advantage YouTube channel, and Maria from Python simplified.

400人以上の購読者を持つニューロンAIニュースレターのクリエイターであるピート・ファン、AI advantage YouTubeチャンネルのクリエイターであるIgor Pognoi、Python simplifiedのMariaとも一緒に過ごすことができました。

I also got to hang out with a whole bunch of other creators in the AI space.

AI分野の他のクリエイターたちとも一緒に過ごすことができました。

And it was so much fun to talk and nerd out about that overlap of AI and tech and YouTube.

AIとテクノロジー、YouTubeの重なりについて話し、熱中するのはとても楽しかったです。

Today's video is sponsored by NVIDIA AI.

今日のビデオはNVIDIA AIの提供です。

I've talked about NVIDIA AI a lot in past videos, cause it's a tool that I use and love myself.

私は過去の動画でNVIDIA AIについてたくさん話してきました。なぜなら、私自身が使って愛しているツールだからです。

If you're not familiar with NVIDIA AI, it's a tool where you could enter a single text prompt and it will generate a long video for you.

NVIDIA AIに馴染みがない場合は、1つのテキストプロンプトを入力すると、長いビデオが生成されるツールです。

You could generate 10, 15, 20 minute videos with this tool that includes stock video, a script, a voiceover, sound effects, music.

このツールを使用して、株式ビデオ、スクリプト、ナレーション、効果音、音楽が含まれた10、15、20分のビデオを生成することができます。

All of it is created in this single video.

すべてがこの1つのビデオで作成されます。

They recently added the ability to upload your own voice into the platform and have your videos use your voice.

最近、プラットフォームに自分の声をアップロードし、ビデオで自分の声を使用する機能が追加されました。

It's real simple.

とても簡単です。

Log into NVIDIA, click on the voices tab on the left side, click on add voice, upload 30 seconds of your voice.

NVIDIAにログインし、左側のボイスタブをクリックし、ボイスを追加して、30秒間の自分の声をアップロードします。

When I'm ready to make a video, I come to my homepage inside of the NVIDIA dashboard, click on create AI video

ビデオを作成する準備ができたら、NVIDIAダッシュボード内のマイホームページに移動し、AIビデオの作成をクリックします。

And then enter my prompt.

そして、プロンプトを入力します。

This actually works well with long prompts.

これは実際に長いプロンプトとよく合います。

I'm going to use the prompt to create a long YouTube video about how important lighting is in videos.

私は、ビデオでの照明の重要性についての長いYouTube動画を作成するためにプロンプトを使用する予定です。

It is one of the first things early filmmakers and YouTubers can work on to get much better output.

これは、初期の映画製作者やYouTuberがより良い出力を得るために取り組むことができる最初のことの1つです。

I will provide some practical ways to get great lighting on a budget.

予算内で素晴らしい照明を得るための実用的な方法を提供します。

I will keep the language super simple and easy to understand.

言語は非常にシンプルで理解しやすく保ちます。

I will start the video very matter of factly and make it progressively deranged humor.

ビデオを非常に事実として始め、段々と狂気じみたユーモアを加えます。

As you go on, use the Matt Wolf voice.

進むにつれて、マット・ウルフの声を使用します。

About 12 minutes long would be nice and add subtitles.

約12分の長さが良いでしょう、そして字幕を追加します。

You can see I'm directing it to use my voice and let's generate the video.

私の声を使用してビデオを生成するように指示しています。

It asked me a few questions to better dial in the video.

ビデオをより良く調整するためにいくつかの質問をしてくれました。

I'm going to set the audience as YouTubers look and feel.

観客をYouTuberのように見せるつもりです。

Let's go ahead and use bright.

明るい色を使ってみましょう。

Just a couple minutes later, I have a full video made with script, with audio, with subtitles, with voiceover.

数分後には、台本、音声、字幕、ナレーションがついた完全なビデオができました。

It's almost 12 minutes long and it uses my voice.

ほぼ12分の長さで、私の声を使っています。

Check this out.

これを見てください。

You've got your light source.

光源があります。

Now what?

では、次は?

Well, it's time to manipulate that light like a puppet master.

さて、その光を操る時が来ました。まるで人形使いのように。

And what's even cooler, I can edit this video completely with text prompts.

さらにクールなことに、このビデオを完全にテキストプロンプトで編集することができます。

I can tell it to do things like change the intro and start with a joke or add a call to action at the end to ask them to subscribe to the channel.

イントロを変えて冗談で始めたり、最後にチャンネルに登録するように促すためのアクションを追加したりするように指示できます。

I can tell it to change the background music, tell it to change the voice, anything you can think of.

背景音楽を変更するように指示したり、声を変更するように指示したり、思いつくことなら何でもできます。

I can just ask it in a text prompt.

お尋ねすることができます。

And if I want to get even more granular with my edit, I can click on edit here.

さらに詳細に編集したい場合は、ここをクリックすることができます。

I can change any of the footage in the entire video, simply select it, search out what I'm looking for here and replace it with any stock video that they have available in their library.

ビデオ全体の映像を変更することができます。単に選択し、ここで探して、ライブラリで利用可能なストック映像で置き換えることができます。

I can also edit any piece of the script by coming up to the top, clicking on edit script and adding to the script.

スクリプトの任意の部分を編集することもできます。上部に移動し、スクリプトの編集をクリックして、スクリプトに追加することができます。

However, I like simply apply the changes.

ただし、変更を適用するのが好きです。

And after a minute or so, the script has been changed and the new voiceover added.

数分後、スクリプトが変更され、新しいナレーションが追加されます。

You can create up to four videos for free within video AI.

無料で最大4つのビデオを作成することができます。

But if you're really serious about video creation, you're going to want to upgrade to the plus plan.

しかし、本気でビデオ制作に取り組むのであれば、プラスプランにアップグレードしたいと思うでしょう。

That's what I have.

私が持っているのはそれです。

That allows you to export the video without watermarks.

それにより、ウォーターマークなしでビデオをエクスポートすることができます。

To quickly learn more, I've made sure the link is in the description and you can check it out today.

リンクを説明欄に記載しておりますので、詳細をすぐにご確認いただけます。

Thank you so much to NVIDIA for sponsoring this video.

このビデオのスポンサーであるNVIDIA様、本当にありがとうございます。

Also this week, Elon Musk made good and open-sourced Grok-1 by open sourcing Grok-1.

また、今週、イーロン・マスクがGrok-1をオープンソース化しました。

He released the largest open source model publicly available.

彼は公に利用可能な最大のオープンソースモデルをリリースしました。

It's a 314 billion parameter model, and it uses a mixture of experts architecture, which I've talked to quite a bit about in previous videos.

これは3140億パラメータモデルであり、私は以前のビデオでかなり話している専門家アーキテクチャの混合を使用しています。

It was released under the Apache 2.0 license, meaning that you can build off of it, iterate, sell it, use it commercially, pretty much do whatever you want with it.

Apache 2.0ライセンスの下でリリースされたため、それをベースにして構築したり、改良したり、販売したり、商用利用したり、ほぼ何でもできます。

We did learn when he open sourced it that it was 314 billion parameters.

オープンソース化された際に、それが3140億のパラメータであることを知りました。

That was something we hadn't previously known.

それは以前知らなかったことでした。

We also didn't know that it used that mixture of experts model.

また、そのモデルが専門家のミックスモデルを使用していることも知りませんでした。

The size of this model still makes it pretty difficult for most people to run on a local machine, but if you wanted to build around Grok-1, you'll be able to.

このモデルのサイズのため、ほとんどの人にとってはローカルマシンで実行するのはかなり難しいですが、Grok-1を中心に構築したい場合はできます。

And also we'll likely start seeing a lot more other products, things like Perplexity and mind studio, and some of these tools that use APIs and open source models, building these models into their platforms.

また、Perplexityやmind studioなどの他の製品がたくさん登場する可能性が高く、これらのツールはAPIやオープンソースモデルを使用して、それらのモデルを自社プラットフォームに組み込んでいます。

And another piece of pretty shocking news this week, Apple is reportedly exploring a partnership with Google for a Gemini powered feature on iPhones.

そして、今週のかなり衝撃的なニュースのもう1つは、AppleがiPhoneでGeminiを搭載した機能のためにGoogleと提携を模索していると報じられています。

Again, this is just reports rumors.

これはただの報告や噂です。

There's no actual confirmations from either of these companies that this is happening.

これが実際に起こっているという両社からの確認はありません。

It's quite possible that at WWDC this year, we're going to get a huge update on Siri and maybe Gemini 1.5 will be the model under the hood for Siri.

今年のWWDCでは、Siriに関する大規模なアップデートが行われる可能性が非常に高く、おそらくGemini 1.5がSiriのエンジンとして使用されるかもしれません。

Nobody really knows yet.

まだ誰も本当のことを知りません。

This article also says that the company has also held discussions with OpenAI to potentially use GPT models.

この記事によれば、同社はOpenAIとの議論も行っており、GPTモデルの潜在的な使用も検討しているとのことです。

We don't totally know what Apple is going to use, but it's looking fairly likely that the first iteration of AI inside of iPhones might not actually be AI developed by Apple, which is interesting because Apple has actually acquired more AI companies than any other company.

Appleが何を使用するかは完全にわかりませんが、iPhone内の最初のAIの実装が実際にはAppleが開発したAIではない可能性がかなり高いようです。これは興味深いことです。なぜなら、Appleは実際に他のどの企業よりも多くのAI企業を買収しているからです。

So fascinating that after acquiring all of these AI companies to help them develop AI tech in-house, they still might go use Google or OpenAI to power their AI on their phones and in their ecosystem.

これらのAI企業を買収して自社内でAIテクノロジーを開発するために協力しても、最終的にはGoogleやOpenAIを使用して、自社の電話やエコシステム内のAIを動かす可能性があるというのは非常に興味深いです。

This week, Stability AI introduced stable video 3D.

今週、Stability AIは安定したビデオ3Dを紹介しました。

This is a generative model based on Stable Video Diffusion, advancing the field of 3D technology and delivering greatly improved quality and view consistency.

これは、3D技術の分野を進化させ、大幅に向上した品質と視認性を提供する、Stable Video Diffusionに基づく生成モデルです。

Basically, it'll generate what they call orbital videos based off of an input image.

基本的に、入力画像に基づいて軌道ビデオと呼ばれるものを生成します。

You can see here's the input image.

ここに入力画像があります。

Here's what 0, 1, 2, 3 XL generated, different angles of this image.

これが0、1、2、3 XLが生成したもので、この画像の異なる角度です。

Here's what stable 0, 1, 2, 3 did.

これが安定した0、1、2、3が行ったことです。

And here's what stable video 3D did.

そして、これが安定したビデオ3Dが行ったことです。

You can tell that it seems like it's much more accurate than the previous models at taking a 2D image and sort of guessing what it looks like from other angles.

以前のモデルよりも、2D画像を取って他の角度からどのように見えるかを推測する際に、より正確であるように見えます。

And then down here, we have some examples of other 3D objects that were generated with this platform.

そして、ここでは、このプラットフォームで生成された他の3Dオブジェクトの例があります。

Right now it's available for non-commercial use, but the model weights are available over on Hugging Face.

現在は非商用で利用可能ですが、モデルの重みはHugging Faceで入手できます。

And if you do want to use it for commercial purposes, you can sign up for the Stability AI membership, which I believe is like 20 bucks a month to pretty much use any of their models.

もし商業目的で使用したい場合は、Stability AIのメンバーシップにサインアップすることができます。おそらく月額20ドルで、彼らのどのモデルでもほぼ使用できると思います。

And while we're on the topic of Stable Diffusion this week, key Stable Diffusion researchers leave Stability AI as company flounders.

今週はStable Diffusionについて話していますが、Stability AIの主要な研究者が会社が苦境に立たされる中、辞任しています。

Basically the people that helped develop Stable Diffusion that worked at Stability AI have kind of all left.

基本的に、Stability AIで働いていたStable Diffusionを開発した人々は、ほぼ全員が去ってしまいました。

Stability AI has been kind of in this weird area lately where people have been calling out the CEO, Ahmad Mastak, for things saying that the company's almost bankrupt and that he's making a lot of mistakes.

最近、Stability AIはCEOのAhmad Mastakを批判する人がいて、会社がほぼ破産寸前であり、彼が多くの間違いをしていると言われています。

Recently, they sold Clipdrop, which is a company that they bought like less than a year ago.

最近、彼らはClipdropを売却しました。これは彼らが1年未満前に買収した会社です。

They sold it to Jasper recently.

最近、それをJasperに売却しました。

The people that helped develop Stable Diffusion, the thing that Stability AI is probably most known for have kind of all left.

Stability AIがおそらく最も知られているStable Diffusionを開発した人々は、ほぼ全員が去ってしまいました。

Ahmad Mastak, the CEO, wasn't super involved in building Stable Diffusion, but he did have some of the researchers that worked on it there.

CEOのAhmad MastakはStable Diffusionを構築する際にはあまり関与していませんでしたが、それを開発した研究者の一部は彼の元にいました。

Some of the other researchers went to work for Runway.

他の研究者の一部はRunwayで働くことになりました。

Some of them were still at Stability AI.

一部はまだStability AIに残っています。

It seems that almost nobody that helped build Stable Diffusion is still actually at Stability AI.

Stable Diffusionを構築するのに役立ったほとんどの人が、実際にはStability AIには残っていないようです。

It kind of feels like our future is a little more uncertain now, but Stable Diffusion itself is open source.

私たちの未来は少し不確かに感じられますが、Stable Diffusion自体はオープンソースです。

Most of the weights that you use for it are publicly available.

それに使用するほとんどのウェイトは一般に公開されています。

Stable Diffusion isn't going anywhere, but who knows about the future of Stability AI?

Stable Diffusionはどこにも行かないでしょうが、Stability AIの未来は誰にもわかりません。

We'll just have to watch and see how that one plays out or drama to follow.

その展開を見守るしかないか、その後のドラマを見守るしかないでしょう。

Midjourney this week made a tweak to their terms and conditions, basically saying that if you get sued by creating art with Midjourney kind of on your own, a lot of the other companies have gone in the other direction.

今週、Midjourneyは利用規約を微調整し、Midjourneyを使ってアートを作成することで訴えられた場合、他の多くの企業は逆の方向に進んでいます。

Companies like Google, OpenAI, Adobe, have all basically said that if you get sued for using our platform, we'll actually help work with you.

Google、OpenAI、Adobeなどの企業は、プラットフォームを使用して訴えられた場合、実際に協力すると述べています。

Midjourney's new policies say this, to the extent permitted by law, you will indemnify and hold us harmless our affiliates and our personnel from and against any costs, losses, liabilities, and expenses, including attorney's fees from third party claims arising out of, or relating to your use of the service and assets or any violations of these terms.

Midjourneyの新しいポリシーは、法律で許可される範囲内で、サービスや資産の使用、またはこれらの条件の違反に関連する第三者の請求から生じるコスト、損失、責任、および弁護士費用を含む費用と損失から、私たち、私たちの関連会社、および私たちの人員を免責し、保護することになります。

If you're using Midjourney and you generate an image that might have something copyright in it, that's on you.

Midjourneyを使用して著作権のある画像を生成した場合、それはあなたの責任です。

Where if you use any of the other image generators, they might help protect you a little bit.

他の画像生成器を使用すると、少しでも保護されるかもしれません。

But Midjourney is saying, you use our service at your own risk.

しかし、Midjourneyは「自己のリスクでサービスを利用してください」と述べています。

I want to touch on this really quickly.

これについて触れてみたいと思います。

You may have seen a lot of other YouTube videos talking about Q-Star and this new Q-Star leak, but from everything I can tell, it's probably fake.

Q-Starやこの新しいQ-Starのリークについて他の多くのYouTubeビデオを見たかもしれませんが、私が見てきた限りでは、おそらく偽物だと思われます。

It seems very unlikely that anything we've seen recently has much merit.

最近見たもののほとんどがほとんど価値がないように思われます。

Basically the leak claims that it uses energy-based models.

基本的に、そのリークはエネルギーベースのモデルを使用していると主張しています。

This approach is different from what most AI systems use today.

このアプローチは、今日のほとんどのAIシステムが使用しているものとは異なります。

Instead of guessing the next word one at a time, energy-based models, look at the whole response at once.

一度に1つずつ次の単語を推測する代わりに、エネルギーベースのモデルは一度に全体の応答を見ます。

They try to find the answer that fits best with the question, like finding the missing piece of a puzzle.

彼らは、パズルの欠けている部分を見つけるように、質問に最も適した答えを見つけようとします。

This supposedly makes it easier for AI to understand and respond to complex questions, just like a human would.

これにより、AIが複雑な質問に理解し、応答するのが人間と同じように簡単になるとされています。

But again, what we've seen around Q-Star has all been pretty much total speculation.

しかし、再度言いますが、Q-Starについて見てきたものはほとんどが完全な推測に過ぎません。

Sam Altman did somewhat confirm that Q-Star exists and even kind of confirmed it again in a recent interview from Lex Fridman, but there's still no real accurate info around it.

サム・アルトマンはQ-Starが存在することをある程度確認し、最近のレックス・フリードマンのインタビューでも再度それをある程度確認しましたが、まだ正確な情報はありません。

Can you speak to what Q-Star is?

おっしゃるQスターについて話せますか?

We are not ready to talk about that.

それについてはまだ話す準備ができていません。

See, but an answer like that means there's something to talk about.

でも、そういう答えは話すべきことがあるということを意味します。

It's very mysterious, Sam.

とても神秘的ですね、サム。

We also got a little bit more details around Sora from both this Mera Mariotti interview with the Wall Street Journal, as well as the Sam Altman interview we just took a peek at.

また、このMera Mariotti氏によるウォールストリートジャーナルのインタビュー、そしてちょうど覗いたサム・アルトマン氏のインタビューから、Soraに関するさらなる詳細を得ました。

One thing neither of these tech leads would say is what Sora was actually trained on.

これらのテックリーダーのどちらも、Soraが実際に何に訓練されたのかということは言いませんでした。

What data was used to train Sora?

Soraを訓練するのにどのようなデータが使用されましたか?

We used publicly available data and licensed data.

公開されているデータとライセンスされたデータを使用しました。

Videos on YouTube?

YouTubeの動画?

I'm actually not sure about that.

実はそれについてはよくわかりません。

Videos from Facebook, Instagram?

ビデオはFacebookやInstagramからですか?

You know, if they were publicly available, available, yet publicly available to use, there might be the data, but I'm not sure.

もし彼らが一般に利用可能であれば、使用可能であり、使用可能であれば、データがあるかもしれませんが、私は確信がありません。

I'm not confident about it.

私はそれに自信がありません。

What about Shutterstock?

Shutterstockはどうですか?

I know you guys have a deal with them.

あなたたちと彼らとの取引があると聞いています。

I'm just not going to go into the details of the data that was used, but it was publicly available or licensed data.

使用されたデータの詳細には触れませんが、それは公に利用可能なデータまたはライセンスされたデータでした。

We also got some slight hints to when we might actually see Sora, albeit, there's not really much to go on here.

実際にSoraを見る時期のわずかなヒントも得ましたが、ここではあまり情報がありません。

You said eventually.

あなたは最終的にと言いました。

When is eventually?

いつが最終的になのですか?

I'm hoping definitely this year, but could be a few months.

私は確実に今年中を期待していますが、数か月かかるかもしれません。

There's an election in November, you think before or after that?

11月に選挙があるけど、それより前か後ろか、どう思う?

You know, that's certainly a consideration dealing with the issues of misinformation and harmful bias.

あなたは、誤情報や有害なバイアスの問題に対処することを考慮すべきです。

And we will not be releasing anything that we don't feel confident on when it comes to how it might affect global elections or other, other issues.

私たちは、世界の選挙やその他の問題にどのように影響するかに自信がないものは何もリリースしません。

Some of the creators of Sora actually went on the MKBHD podcast recently, and Marques asked them when we can expect Sora.

Soraのクリエイターの一部は最近MKBHDポッドキャストに出演し、MarquesがSoraをいつ期待できるか尋ねました。

I know you're not giving timelines, but you're in the testing phase now.

タイムラインを提供していないことはわかっていますが、今はテスト段階にあるんですよね。

Do you think it's going to be in a available for public use phase anytime soon?

近いうちに一般利用可能な段階になると思いますか?

Not anytime soon, I think.

近いうちにはないと思います。

Again, not really to go off of Mara says maybe within a few months, but they are taking elections into consideration.

再び、Maraが数ヶ月以内にかもしれないと言っていますが、選挙を考慮に入れています。

The team behind Sora is saying not publicly available anytime soon.

Soraのチームは、近いうちには一般には利用できないと言っています。

Who knows?

誰にもわからないですね。

And since we're on the topic of OpenAI, let's talk about the GPT store for a second.

OpenAIについて話しているので、GPTストアについても少し話しましょう。

It's filling up with junk apps.

それはジャンクアプリでいっぱいになっています。

I personally kind of saw this coming.

個人的には、これが起こると予想していました。

I made a tweet back when the GPT store came out that custom GPTS will be really cool for a few minutes.

GPTストアが登場したとき、カスタムGPTは数分間本当にクールだとツイートしました。

And then everybody's going to stop talking about them.

そして、その後誰もがそれについて話すのをやめるでしょう。

That kind of seems to be what happened, but don't get me wrong.

そのようなことが起こったようですが、誤解しないでください。

I do actually think custom GPTS are super powerful.

実際、カスタムGPTは非常に強力だと思います。

I've just personally never found a good reason to go use a custom GPT that somebody else has built.

個人的には、他の誰かが構築したカスタムGPTを使用する理由を見つけたことがありません。

I love building my own custom GPTS.

自分自身のカスタムGPTを作るのが大好きです。

I love making a GPT where I give it my own custom data, my own custom system prompt, and basically create a chat bot that's designed to do specifically what I ask it to do.

自分自身のカスタムデータを与え、自分自身のカスタムシステムプロンプトを与え、基本的に私が求めることを特に行うように設計されたチャットボットを作るのが大好きです。

But I've never really wanted to go and use other GPTS that other people have made.

他の人が作った他のGPTSを使いたいと思ったことはありませんが。

I've tested some of them.

私はいくつかをテストしてみました。

I've made past videos about them.

それについて過去のビデオも作りました。

There are some good ones out there, but I find myself often just going into the GPT store building my own GPT and making custom built workflows for things that I need in my business, as opposed to searching out GPTS that other people made.

良いものもありますが、私は自分のビジネスで必要なもののために独自のGPTを作成し、カスタムワークフローを作ることが多いです。他の人が作ったGPTSを探すよりも。

And part of the reason is there's just a lot of junk GPTS in there.

その理由の一部は、そこにはたくさんのジャンクGPTSがあるからです。

A lot of them even have the same names and it's very difficult to sift through and find the ones you're looking for.

多くのものは同じ名前さえ持っており、それらを見つけるのが非常に難しいです。

Yeah, right now, the GPT store has a lot of junk in it.

そうですね、今はGPTストアにはたくさんのジャンクがあります。

In other news, this week, Tennessee becomes the first state to protect musicians and other artists against AI.

その他のニュースとして、今週、テネシー州がミュージシャンや他のアーティストをAIから保護する最初の州となりました。

They created a new act called the ensuring likeness voice and images security act cleverly creating the acronym Elvis.

彼らは、Ensuring Likeness Voice and Images Security Actという新しい法律を作成しました。巧妙にアクロニムをElvisとして作成しました。

This was an existing law that was already in Tennessee.

これはすでにテネシー州に存在していた法律でした。

However, the old law protected an artist's name, photograph, and likeness.

しかし、古い法律は芸術家の名前、写真、肖像を保護していました。

The new legislation includes AI specific protections now prohibiting people from using AI to mimic an artist's voice without permission.

新しい立法には、AI固有の保護が含まれ、今では許可なしにAIを使用して芸術家の声を模倣することを禁止しています。

This to me seems kind of bizarre.

これは私にはどこか奇妙に思えます。

I understand why they're doing it.

なぜ彼らがそれをやっているのかは理解できます。

However, a lot of artists just sound similar.

ただ、多くの芸術家は似たような声をしているだけです。

If my voice randomly sounds exactly like Drake's voice, and I went and made a song where I sang and I just happened to sound like Drake, are they going to be able to sue me because my voice sounds like it just seems very unclear and very gray areas still.

もし私の声が偶然にもDrakeの声とまったく同じように聞こえ、私がDrakeのように聞こえる歌を作ったら、彼らは私を訴えることができるのでしょうか、私の声がただDrakeのように聞こえるだけなので、非常に不明瞭でグレーな領域です。

And also it being a Tennessee law, how does that apply outside of Tennessee?

そして、それがテネシー州の法律であることもあり、テネシー州外でどのように適用されるのか?

I don't know.

わかりません。

I do think we will see more and more laws pop up like this because artists don't want to be copied, but I also think it's going to be very difficult to enforce and not going to stop people from just creating music anyway.

私は、芸術家たちがコピーされたくないと思うので、このような法律がますます現れると思いますが、実施が非常に困難であり、人々が単に音楽を作り続けるのを止めないと思います。

And just not saying it was generated with AI.

そして、それがAIで生成されたものであるとは言わない。

If you're a YouTuber like me, you now have to disclaim when your video was generated with AI.

もしあなたが私のようなYouTuberであれば、動画がAIで生成されたことを明記する必要があります。

However, there are some caveats.

ただし、いくつかの注意点があります。

If it's obviously generated with AI or if it's like an animated series or something like that, you don't actually have to claim it was made with AI.

それが明らかにAIで生成されたものである場合や、アニメーションシリーズのようなものである場合、実際にAIで作成されたと主張する必要はありません。

Just anything that looks realistic, that people may not know is AI.

人々がAIであることを知らないかもしれない、リアルなものについては主張する必要があります。

You have to claim as AI, but as AI gets better, how is it going to know that it was AI if you didn't claim it?

AIとして主張する必要がありますが、AIが進化するにつれて、もし主張しなかった場合、それがAIであることをどうやって知るのでしょうか?

I guess it's honored system kind of thing, but that's a new rule on YouTube.

おそらくそれは名誉制度のようなものですが、それはYouTubeの新しいルールです。

And I'm sure they'll get that figured out over time and how to better enforce that.

時間が経過するにつれて、それをどのようによりよく施行するかを見極めるでしょう。

But just some interesting news for people that are creating YouTube videos.

YouTube動画を作成している人々にとって興味深いニュースです。

Jumping back to robotics real quick.

さっとロボティクスに戻ります。

I came across this on Reddit.

Redditでこれを見つけました。

Unitree created the first humanoid robot to do a backflip without any hydraulics because obviously this is exactly what we need our robots to do.

Unitreeは、明らかにこれがロボットに求められていることだから、どんな油圧も使わずにバク宙をする初の人型ロボットを作りました。

I mean, it is pretty cool looking, but I don't know the practical use cases other than possibly just for entertainment purposes.

確かに見た目はすごくクールだけど、エンターテインメント以外での実用的な使い道が思いつかないんですよね。

And finally there is a new AI gadget coming out from Open Interpreter called the Open Interpreter 01.

そして、Open InterpreterからOpen Interpreter 01という新しいAIガジェットが登場します。

It's basically this little circle device that you hold in your hand.

基本的には、手に持つ小さな円形のデバイスです。

And when you're at a computer, you train it to do stuff like, go check the weather for me or send a message to somebody or respond to emails or send a Slack message.

コンピューターの前にいるときに、天気をチェックしたり、誰かにメッセージを送ったり、メールに返信したり、Slackメッセージを送ったりするように、それを訓練します。

You train it on your computer, how to do stuff.

コンピューターで、どうやってそれをするかを訓練します。

And then later on, when you're away from your computer, you say send a message in Slack that says whatever into this little circle device.

そして後で、コンピューターから離れているときに、Slackで何々というメッセージを送るときに、この小さな円形のデバイスに話しかけます。

And because you already pre-trained it, it knows how to go do those steps.

あらかじめ訓練しているので、それがどうやってその手順を実行するかを知っています。

To me, it looks like it's designed to compete with the RABBIT R1.

私にとって、それはRABBIT R1と競合するように設計されているように見えます。

It does a lot of similar stuff where you train it.

多くの類似した機能を持っていますが、それを訓練するという点で異なります。

Once it's trained, it knows how to do that stuff in the future.

訓練されると、将来そのようなことをする方法を知っています。

However, the big difference for this one is that it is completely open source.

ただし、このデバイスの大きな違いは、完全にオープンソースであることです。

The code and even the plans, the CAD designs for it are all free and open source.

コードやCADデザインなど、すべて無料でオープンソースです。

You can build the device.

そのデバイスを作ることができます。

You can program it in the same way.

同じ方法でプログラムすることができます。

It's this cool little AI device that you can actually use right now, or you can preorder one from Open Interpreter for 99 bucks.

これは実際に今すぐ使用できるか、Open Interpreterから99ドルで予約することができるかもしれない、クールな小さなAIデバイスです。

But if you want to try to build one yourself, all the plans are available and open source to build one.

しかし、自分で作ってみたい場合は、すべての計画が利用可能でオープンソースであるため、自分で作ることができます。

It's pretty cool.

かなりクールです。

I will link up to their Twitter demo video.

彼らのTwitterデモ動画にリンクします。

It's an eight and a half minute demo.

それは8分半のデモです。

I didn't want to just run the whole thing in this video and turn this video into a crazy long video, although it's already getting pretty long, but it does look pretty cool.

このビデオで全体を走らせて、このビデオを狂ったほど長いビデオにするのは避けたかったんですが、もうかなり長くなっていますね。でも、かなりクールに見えます。

And I highly recommend watching the demo if you're interested in AI enabled devices that you can kind of take with you anywhere that will control things back at your computer.

そして、AIを活用したデバイスに興味があるなら、どこにでも持ち運べてコンピューターで物事をコントロールできるデバイスを見ることを強くお勧めします。

I do think eventually stuff like this will just be an app on your phone, but that's just my speculation.

最終的には、こういったものは単なるスマートフォンのアプリになると思いますが、それは私の推測です。

Those are my thoughts on that.

それが私の考えです。

That's all I got for you today.

今日はそれだけです。

I hope you enjoyed this video.

このビデオを楽しんでいただけたら嬉しいです。

There was a lot that happened this week.

今週はたくさんの出来事がありました。

I probably even missed some of it while I was over at NVIDIA's GTC conference.

NVIDIAのGTCカンファレンスにいる間に、何か見逃してしまったかもしれません。

I'm considering making a full breakdown of the GTC conference.

NVIDIA GTCカンファレンスの完全な解説を考えています。

If you're interested, I feel like I covered the biggest highlights from the conference in this video.

もしご興味があれば、このビデオでカンファレンスの最大のハイライトをカバーしたと感じています。

But if you want kind of that behind the scenes, like what the experience was like video, sort of like what I did for the CES event and the augmented world expo event, I might make one for NVIDIA GTC as well, if there seems to be interest.

しかし、もし興味があるようであれば、裏側のような、体験がどんな感じだったかのビデオ、CESイベントや拡張現実世界エキスポイベントでやったようなものをNVIDIA GTC用にも作るかもしれません、もし興味があるようであれば。

But what I've learned about this channel is a lot of you guys just want that high level news.

しかし、このチャンネルについて学んだことは、多くの方々が高いレベルのニュースを求めているということです。

Like you just want that here's everything you need to know for this week and the quickest possible way.

つまり、今週知っておくべきすべてを最も迅速な方法で知りたいということです。

And that's what I'm trying to provide for you.

そして、それを提供しようとしています。

But I do also love making those deep dive videos for you.

しかし、深い掘り下げのビデオも作るのが好きです。

Thanks again for tuning in.

再度チューニングしていただきありがとうございます。

You haven't already check out futuretools.io.

まだでしたら、futuretools.ioをチェックしてください。

This is where I curate all of the coolest, latest AI tools that I come across any news that I didn't talk about in this video, I shared on the latest AI news and articles page.

ここでは、私が出会った最もクールで最新のAIツールをまとめており、このビデオで話していないニュースは、最新のAIニュースと記事ページで共有しています。

There is a few smaller little bits of AI news that I shared here that didn't make the cut for this video.

こちらのビデオには収録されなかった、いくつかの小さなAIニュースがあります。

Check that out.

それをチェックしてください。

And I also have a free AI newsletter where I'll send you just the coolest tools I come across, just the most interesting AI news.

また、私は無料のAIニュースレターも持っています。そこでは、私が見つけた最もクールなツールや最も興味深いAIニュースをお送りします。

It's totally free.

完全に無料です。

When you sign up for free, I will send you an email to get access to the AI income database, a cool database of all sorts of interesting ways to make money with AI.

無料で登録すると、AI収入データベースにアクセスできるようにメールをお送りします。これは、AIを使ってお金を稼ぐさまざまな興味深い方法が収録されています。

You can test out some of these methods, find one that you like doing and make some side hustle and come from it.

これらの方法を試してみて、自分が好きなものを見つけて、副業を始めることができます。

You get access.

アクセス権が得られます。

All you got to do is go to futuretools.io, join the free newsletter and I'll hook you up.

やることは、futuretools.ioにアクセスして無料のニュースレターに参加するだけです。私がサポートします。

Thanks again for tuning in.

再度ご視聴いただきありがとうございます。

You like videos like this and you want to stay in the loop with AI news, AI tutorials, and the coolest AI tools.

このようなビデオが好きで、AIニュース、AIチュートリアル、そして最もクールなAIツールについて最新情報を知りたい場合は。

Subscribe to this channel.

このチャンネルに登録してください。

Like this video.

この動画を「いいね」してください。

I'll make sure more of it shows up for you.

もっと表示されるようにしますね。

I really, really appreciate you.

本当に、本当に感謝しています。

Thank you so much for tuning in.

ご視聴ありがとうございます。

Thank you to NVIDIA for sponsoring this video.

この動画のスポンサーであるNVIDIAに感謝します。

Really appreciate all of you.

皆さん、本当に感謝しています。

I'll see you in the next video.

次の動画でお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?