見出し画像

【2023年AI業界総括】英語解説を日本語で読む【2023年12月21日|@Matt Wolfe】

2023年はAI技術の大きな進歩と発展の年でした。年始にマイクロソフトはOpenAIに100億ドルを投資し、そのテクノロジーを自社製品に組み込むことができました。1月には11 Labsのベータ版がリリースされ、AIによる音声生成が進化しました。また、AIアートではInstructPix2Pixが登場し、画像の生成と編集が可能になりました。2月、GoogleはBardを発表し、AIのチャットボット市場に参入。3月にはGPT-4のリリースがあり、AI言語モデルの進歩を示しました。4月にはMetaがAIツールをリリースし、5月にはジェフリー・ヒントンがGoogleを退職しました。6月、Apple Vision Proが発表され、RunwayのGen-2がリリースされました。7月、ChatGPTにコードインタプリターが導入され、Anthropic Claude 2がリリースされました。8月は比較的静かでしたが、9月にChatGPTが音声入出力機能を獲得。10月にはDALL·E 3が登場し、AI画像生成モデルが進化しました。11月、イーロン・マスクはGrokを発表し、OpenAIのDevDayで新機能が発表されました。12月、GoogleのBardにGeminiが導入され、AIチャットボットの効率が向上しました。2023年はAIの急速な進歩を見せた年で、2024年にもさらなる発展が期待されています。
公開日:2023年12月21日
※動画を再生してから読むのがオススメです。


So, can you believe it?

信じられるだろうか?

2023 is almost over, and for the entire year, I've done my best to keep my finger on the pulse of all the latest AI news and tools, and then turn around and make videos and share what's been going on with you.

2023年ももうすぐ終わりますが、この1年間、私は最新のAIニュースやツールを常に把握し、ビデオを作成し、皆さんと共有することに全力を尽くしてきました。

I thought, since we're at the end of the year, it would be fun to make a recap of all the most major moments in the world of AI throughout the entire year.

今年も終盤にさしかかったので、今年1年を通してAIの世界で最も重要だった出来事をまとめてみるのも面白いのではないかと思い、この記事を書いた。

Now, there were literally hundreds, if not thousands, of announcements in the AI world for the entire year, so I can't break them all down.

さて、AIの世界ではその年に何百、もしくは何千もの発表がありましたので、すべてを細かく解説することはできません。

And I know there's going to be comments about, Hey, you forgot to mention this, or You forgot that tool, or This announcement.

また、「あれを忘れている」「あのツールを忘れている」「この発表を忘れている」といったコメントもあるだろう。

And there's going to be some stuff that I missed.

そして、私が見落としたものもあります。

But if you look at my tabs across the top of my Chrome here, I've narrowed it down to roughly 45 big announcements from throughout 2023.

でも、このChromeの上のタブを見ると、2023年中に発表される45の重大発表に絞られている。

I also don't want this video to be an hour long, so I'm going to Rapid Fire break down the year for you.

また、このビデオを1時間にしたくないので、この1年をRapid Fireで分解して紹介します。

Keep in mind that pretty much every single event that I'm going to talk about at some point in this channel history, I made a video where I deep dived into that specific topic.

このチャンネルの歴史の中で、これからお話しするほとんどの出来事は、私がその特定のトピックを深く掘り下げたビデオを作ったということを覚えておいてください。

This video is sponsored by Nido AI, a really cool AI video tool, but I'll talk about them more in a few minutes here.

このビデオのスポンサーはNido AIで、とてもクールなAIビデオツールなのですが、彼らについてはもう少し後でお話ししましょう。

So, let's go ahead and talk about what happened in 2023, starting with January.

それでは、2023年に何が起こったのか、まずは1月からお話ししましょう。

In January, Microsoft invested $10 billion into OpenAI, kicking off what seems to be one of the most brilliant moves from Microsoft because since then, they've been able to put all of OpenAI's Tech into their product.

1月には、マイクロソフトがOpenAIに100億ドルを投資し、これがマイクロソフトからの最も優れた動きの一つとなった始まりでした。それ以来、彼らはOpenAIのテクノロジーをすべて自社製品に組み込むことができました。

January also saw the launch of the ElevenLabs beta, giving us the first pretty good text-to-speech we've heard.

また、1月にはElevenLabsのベータ版がリリースされ、私たちが初めて耳にする非常に優れた音声合成が実現しました。

Up until ElevenLabs, all of the text-to-speech sounded really robotic and wasn't fooling anybody.

ElevenLabsが登場するまでは、すべての音声合成は本当にロボットみたいで、誰も騙せませんでした。

After ElevenLabs, people started having a hard time telling whether or not a voice was generated with AI, so much so that a whole bunch of scams and fake audio has started to come out because of Technology like what ElevenLabs released.

イレブンラボ以降、人々はAIで生成された音声かどうかを見分けるのが難しくなり、イレブンラボがリリースしたようなテクノロジーのせいで、詐欺や偽の音声が大量に出回るようになった。

In the AI art World in January, we saw InstructPix2Pix.

1月のAIアートの世界では、InstructPix2Pixが登場した。

This was released as open source and was really the first time we were able to do image editing with AI.

これはオープンソースとしてリリースされ、AIで画像編集ができるようになった最初のものです。

Up until this, we were able to generate images with things like DALL·E and Stable Diffusion in Midjourney.

それまでは、『DALL-E』や『Midjourney』の『Stable Diffusion』などで画像を生成していました。

But once this was released, we were able to take the images we generated and change them, swap sunflowers with roses, add fireworks to the sky, make his jacket out of leather.

しかし、これがリリースされると、生成した画像を取り込んで変更したり、ひまわりをバラに変えたり、空に花火を追加したり、彼のジャケットを革製にしたりすることができました。

What would it look like if it were snowing?

雪が降っていたらどう見えるだろう?

This was a huge advancement in the AI art World.

これはAIアートの世界における大きな進歩だった。

Moving into February, this is when Google started to get serious about trying to keep up with OpenAI and Microsoft, announcing the release of Google Bard.

2月に入ると、グーグルはOpenAIやマイクロソフトに追いつこうと本腰を入れ始め、Google Bardのリリースを発表した。

When Bard was released, it was exciting to see Google getting into the chatbot game along with OpenAI, but it still left a lot to be desired.

Bardがリリースされたとき、GoogleがOpenAIとともにチャットボットのゲームに参入するのを見るのはエキサイティングなことだったが、まだ多くのことを残していた。

Pretty much everybody that was out there experimenting with Bard was pretty unimpressed with what it could do because what we had to compare it to was ChatGPT, which at that point had become the gold standard in AI chatbots.

Bardで実験していたほとんどの人々は、それができることにかなり感心していませんでした。なぜなら、比較対象となるChatGPTがAIチャットボットのゴールドスタンダードになっていたからです。

Literally the day after Google announced Bard, Microsoft said, We're now doing Bing chat.

グーグルがBardを発表した文字通りその翌日、マイクロソフトがBingチャットを開始すると発表しました。

And not only was Bing chat starting to roll out almost immediately because of Microsoft's partnership with OpenAI, it was using the GPT technology underneath.

そして、マイクロソフトがOpenAIと提携したおかげで、Bingチャットはほとんどすぐに展開し始めただけでなく、その下にはGPTテクノロジーが使われていたのです。

And we would come to find out later that it was actually already using GPT-4 before we even got access to GPT-4 inside of ChatGPT.

そして、私たちがChatGPTのGPT-4にアクセスする前に、実はすでにGPT-4が使われていたことが後に判明するのです。

In the AI art World, February was the month where we got Control Nets.

AIアートの世界では、2月はコントロール・ネットを手に入れた月だった。

Control Net was a huge leap forward in AI art because it now allowed us to put our AI-generated images into custom poses and positions.

コントロールネットは、AIが生成した画像をカスタムポーズやポジションにできるようになったので、AIアートにおける大きな飛躍でした。

We were able to upload an input image and generate new images that follow the exact same pose of the original image that we uploaded.

入力画像をアップロードすると、アップロードした元画像とまったく同じポーズをとる新しい画像を生成できるようになったのだ。

It also gave us the ability to scribble images and get more realistic output images, as well as turn existing images into depth maps.

また、画像を落書きして、よりリアルな出力画像を得たり、既存の画像を深度マップに変えたりすることもできました。

And then, use those depth maps for our output image.

そして、その深度マップを出力画像に使用する。

Again, this uplevels the customizability of our AI AR art images.

ここでも、AI ARアート画像のカスタマイズ性が向上しました。

Moving into March, March was probably the biggest year for AI in all of 2023.

3月に入り、3月はAIにとって2023年最大の年でした。

This is when it was just announcement after announcement.

これは、発表が次々と行われた時期です。

During this time, I was doing my best to try to keep up, and I was putting out news videos almost every single day because the announcements just kept on rolling.

この時期、私は追いつくために最善を尽くし、発表が次々と行われるたびにほぼ毎日ニュースビデオを公開していました。

And it started with one of the biggest advancements in the world of large language models: the release of GPT-4.

そしてそれは、大規模言語モデルの世界における最大の進歩のひとつ、GPT-4のリリースから始まった。

GPT-4 was a huge leap over what we were getting with the previous GPT-3.5, and the demo that Greg Brockman gave when they made the announcement blew everybody's mind, especially when he showed this off.

GPT-4は、以前のGPT-3.5を大きく上回るもので、発表の際にグレッグ・ブロックマンが行ったデモは、特にこれを披露したときにみんなの度肝を抜きました。

So, I have here a nice handdrawn mockup of a joke website.

というわけで、ジョークサイトの手描きモックアップをお見せしよう。

Literally, take a photo of this mockup, and so we can actually take now this output.

文字通り、このモックアップを写真に撮って、実際に出力してみましょう。

And here we go, actual working JavaScript filled in the jokes.

そしてほら、実際に動くJavaScriptがジョークを埋めている。

For comparison, this was the original of our mockup, and at the time, we hadn't seen anything like that yet.

比較のために、これは私たちのモックアップのオリジナルで、当時はまだこのようなものは見たことがなかった。

Now, I did speed up that video to cut out some of the delay between him showing us the photo and us actually getting the output, but just what it can do was so much more advanced than what we were able to do with GPT-3.5.

彼が写真を見せてくれてから実際に出力されるまでの遅延をカットするために、このビデオはスピードアップしたんだけど、できることはGPT-3.5でできたことよりもずっと進んでいたんだ。

Before that, March was also the month that we got mid Journey version 5, which was a huge leap in realism from our AI photos.

その前の3月には、AI写真のリアリズムが大幅に向上したmid Journey version 5が登場しました。

We went from our AI generated images looking something like this to now all of a sudden looking like this or like this.

AIが生成した画像がこんな感じだったのが、突然こんな感じやこんな感じになったんだ。

The realism just took a huge leap with version 5.

バージョン5でリアリズムが飛躍的に向上したんだ。

You may even remember a lot of people on the internet getting fooled by this image that was created with mid Journey version 5.

インターネット上では、ミッドジャーニーのバージョン5で作成されたこの画像に騙された人がたくさんいたことを覚えているかもしれません。

It was also March when we got model scope, which up until that point was the absolute best text to video we've seen.

モデル・スコープが登場したのも3月のことで、それまではテキストからビデオへの変換が可能な最高のものだった。

Now, anybody could go and enter a prompt like an astronaut riding a horse and get a two-c clip that kind of looked like an astronaut riding a horse or kind of looks like Spider-Man surfing.

誰でも「宇宙飛行士が馬に乗っている」というようなプロンプトを入力すれば、宇宙飛行士が馬に乗っているように見えたり、スパイダーマンがサーフィンをしているように見えたりする2Cクリップを得ることができた。

But it was obviously trained on Shutterstock content, and every single video had this Shutterstock watermark on it.

しかし、それは明らかにシャッターストックのコンテンツで訓練されたもので、どの動画にもシャッターストックの透かしが入っていました。

But it also led us to some pretty amazing memes like this now pretty iconic meme of Will Smith just perpetually eating various spaghetti.

しかし、ウィル・スミスがスパゲッティを食べ続けるという、今ではかなり象徴的なミームのような、とても素晴らしいミームも生まれました。

March was also the month that Adobe entered the game with Adobe Firefly, where we could now generate AI art images from Adobe's platform.

3月はAdobeがAdobe Fireflyでゲームに参入した月でもあり、AdobeのプラットフォームからAIアート画像を生成できるようになった。

Now, did it really have a big leap and improvement over what we were getting over Stable Diffusion or mid Journey?

さて、Stable DiffusionやMid Journeyを超える大きな飛躍と改善はあったのだろうか?

Not yet.

まだそうではない。

But when Adobe starts rolling out Firefly into their Suite of tools like Photoshop, Illustrator, and Premiere, and things like that, that's when Firefly really starts to get exciting.

しかし、AdobeがFireflyをPhotoshop、Illustrator、Premiereなどのツール群に展開し始めたら、Fireflyは本当にエキサイティングなものになるでしょう。

March was also the month where OpenAI announced that ChatGPT would be getting plugins, extending the capabilities of what ChatGPT can do.

3月はOpenAIがChatGPTにプラグインを導入し、ChatGPTの機能を拡張することを発表した月でもあります。

And at launch, we got plugins like Expedia, Fiscal Note, Instacart, Kayak, OpenTable, ShopClara, WolfRams, Air, and more.

そしてローンチ時には、Expedia、Fiscal Note、Instacart、Kayak、OpenTable、ShopClara、WolfRams、Airなどのプラグインを手に入れました。

And the demo made these ChatGPT plugins look pretty exciting, like this demo where somebody was looking to eat vegan food in San Francisco and wanted a suggestion for a good restaurant.

デモでは、これらのChatGPTプラグインがとてもエキサイティングに見えました。例えば、ある人がサンフランシスコでビーガン料理を食べたいと思っていて、良いレストランを提案してほしいというデモです。

And then they used Open Table to book a table.

そしてOpen Tableを使ってテーブルを予約した。

They even got recipes, and it did all sorts of stuff with just a single prompt.

レシピまで出てきて、プロンプトひとつでいろんなことができる。

Plugins were really, really cool when they first came out, but later sort of got overtaken by GPTs, which I'll talk about later in the video.

プラグインは最初に登場したときは本当に素晴らしかったのですが、後にGPTに取って代わられてしまいました。それについては後でビデオで話します。

March was also when we got Runway's Gen One.

3月はRunwayのGen Oneが登場した時期でもある。

If you don't remember Gen One, Gen 1 was a tool that allowed us to upload an existing video and then completely change the style on that video to a style of a reference image or the style of a prompt that we gave it.

Gen Oneを覚えていないかもしれませんが、Gen 1は既存の動画をアップロードして、その動画のスタイルを参照画像やプロンプトのスタイルに完全に変更できるツールでした。

It was a pretty big leap for the world of AI video generation.

これは、AIビデオ生成の世界にとってかなり大きな飛躍でした。

You're able to pretty much take any other video and convert it to any style that you can imagine.

他のどんなビデオでも、想像できるどんなスタイルにも変換できるようになったのです。

And all of that happened in just March of 2023, which, in gears for just a second here, the sponsor of today's video also released something amazing in 2023.

そのすべてが2023年3月に起こったのですが、ここでちょっとだけギアを入れておくと、今日のビデオのスポンサーも2023年に驚くべきものを発表しています。

I'm talking about NID AI, and they released a platform that allows you to do text to entire video.

NID AIについてですが、彼らはビデオ全体にテキストを入力できるプラットフォームをリリースしました。

You enter a single text prompt, and it will generate a full video complete with script, voice over, b-roll, music, subtitles, all of it done for you.

テキストを1つ入力するだけで、スクリプト、ボイスオーバー、Bロール、音楽、字幕を含む完全なビデオを生成してくれます。

And they recently just released the NVIDIA AI mobile app.

そして最近、NVIDIA AIモバイルアプリがリリースされました。

It does everything the full version of the app does, but in your pocket.

このアプリは、フルバージョンのアプリが行うすべてのことを行いますが、あなたのポケットに入ります。

So imagine this, you have a brilliant idea for a brand new video, but you're at the coffee shop with a friend or out at the beach or something and not close to a computer.

想像してみてください。新しいビデオの素晴らしいアイディアがあるけれど、友人とコーヒーショップにいたり、ビーチに出かけていたりして、コンピュータが近くにない。

Well, with NVIDIA's AI mobile app, you can transform that idea into a polished video in no time.

NVIDIAのAIモバイル・アプリを使えば、そのアイデアをあっという間に洗練されたビデオに変えることができる。

Just type your idea, and the app does the rest.

アイデアを入力するだけで、あとはアプリがやってくれます。

So let's put it to the test.

では、実際に試してみましょう。

Here, I'll go ahead and type, Create a YouTube short about how far we've come when it comes to space travel.

YouTubeで、宇宙旅行に関して私たちがどこまで進歩したかを紹介するショートムービーを作ってください。

Make it silly and use an authoritative American male voice over.

バカバカしい内容で、権威あるアメリカ人男性のナレーションを使ってください。

I'll click generate video, and then the magic happens.

ビデオの生成をクリックすると、マジックが起こる。

Whoosh!

フーッ!

That's the sound of human ingenuity soaring through the cosmos.

それは、宇宙を飛び越える人類の創意工夫の音だ。

Back in the day, we thought the moon was made of cheese.

その昔、私たちは月がチーズでできていると思っていた。

Spoiler alert, it's not.

ネタバレ注意、違うよ。

Yep, generates a video complete with jokes and the perfect voiceover.

そう、ジョークと完璧なナレーションでビデオを完成させるのだ。

And if that first draft doesn't take you to the moon, don't worry about it.

もし最初の原稿があなたを月まで連れていかなくても、心配する必要はない。

You can hit regenerate for a new take, or you can press edit and add subtitles, switch the sound of the voiceover, or even change the background music.

再生を押して新しいテイクを作ることもできるし、編集を押して字幕を追加したり、ナレーションの音声を切り替えたり、BGMを変えたりすることもできる。

With Invid AI, you get to be the director and let it be the editor.

Invid AIを使えば、あなたが監督になり、AIに編集を任せることができる。

Maybe you don't like the footage it shows for you.

インビッドAIが見せる映像が気に入らないかもしれない。

They have a vast library of over 8 million stock video clips that you can use.

Invidには、800万以上のストックビデオクリップライブラリーがあります。

You need to tweak the script?

台本に手を加える必要がありますか?

You can do that right from your phone as well.

それは携帯電話からも行うことができます。

So if you're ready to shoot for the stars with your videos, you can get started with NID AI for free.

もしあなたが、自分のビデオでスターを目指す準備ができているなら、NID AIを無料で使い始めることができる。

But if you're really serious about video creation and you want to remove that watermark, I highly recommend upgrading to a paid plan, which starts as low as 20 bucks a month.

しかし、あなたが本当に真剣にビデオ制作に取り組んでいて、透かしを消したいのであれば、月額20ドルから始められる有料プランにアップグレードすることを強くお勧めします。

And if you get stuck anywhere along the line, they have 24/7 support.

そして、もしどこかで行き詰まっても、24時間365日のサポートがある。

So check out Invid AI today.

今すぐInvid AIをチェックしよう。

I'll make sure it is linked up below in the description.

説明文の下にリンクがあることを確認しておこう。

Thank you so much to NVIDIA AI for sponsoring this video.

このビデオをスポンサーしてくれたNVIDIA AIに感謝します。

Moving on to April, April feels like the month that Meta really started to get into the game, starting with Segment Anything, where you could upload images and have it segment out every aspect of that image so that you can edit and move things around and delete things.

4月に移りますが、4月はMetaが本格的にゲームに参入し始めた月のように感じます。まずはSegment Anythingから始まりました。ここでは、画像をアップロードしてその画像のすべての要素をセグメント化し、編集や移動、削除ができるようになりました。

It was a really powerful tool that could be implemented in both images and videos.

これは本当に強力なツールであり、画像と動画の両方に実装することができました。

April was also the month we got Wonder Dynamics and Wonder Studio.

4月はワンダーダイナミクスとワンダースタジオを手に入れた月でもありました。

This was a tool when I first saw a demo of it, I actually didn't believe it.

このツールは、私が初めてデモを見たとき、本当に信じられなかった。

I thought it was too good to be true.

本当にしては出来すぎだと思った。

It was a tool where you can upload a video of a real human.

本物の人間のビデオをアップロードできるツールだった。

And then, swap out that human with a computer-generated character, and it seemed to work really, really well.

そして、その人間をCGで作られたキャラクターと入れ替えると、本当に、本当にうまくいくように思えた。

AI video took another huge leap with Wonder Dynamics, and it was backed by people like Steven Spielberg and Joe Russo of the Russo brothers, and one of the co-founders, Tai Sheridan, the main character from Ready Player One.

AIビデオはワンダー・ダイナミクスでさらに大きな飛躍を遂げ、スティーブン・スピルバーグやルッソ兄弟のジョー・ルッソ、そして共同設立者の一人である『レディ・プレイヤー・ワン』の主人公、タイ・シェリダンといった人々が支援した。

April was also the month we started to see these new autonomous AI chat Bots, things like BabyAGI and AutoGPT.

4月はまた、BabyAGIやAutoGPTのような新しい自律型AIチャットボットを目にし始めた月でもありました。

These were tools where you can give it an end goal, and then it would keep on generating its own prompts over and over and over again until it finally got to the point where it achieved the end goal.

これらは、目標を与えると、それが独自のプロンプトを何度も何度も生成し続け、最終的に目標を達成するまで続けるツールでした。

That you saw these were huge back in April and May of 2023, but seemingly kind of faded away, and we haven't really heard about them more since.

これらは、2023年の4月と5月には非常に大きかったのですが、その後あまり話題にならず、それ以降あまり聞かれなくなりました。

But I do think in 2024, we're going to see this kind of Technology pop up once again because it really showed some promise.

しかし、2024年にはこのような技術が再び登場すると思います。なぜなら、それは本当に将来性を示したからです。

But the early versions didn't really have a lot of use cases that were very practical or useful yet.

しかし、初期のバージョンでは、まだあまり実用的で有用な使用例はありませんでした。

Shifting into May, at the very beginning of the month, the announcement came out that Jeffrey Hinton, The Godfather of AI, left his position at Google because he wanted to warn people of the dangers of AI.

5月に入り、月の初めに、AIのゴッドファーザーであるジェフリー・ヒントンが、AIの危険性を人々に警告するためにグーグルの職を辞したという発表があった。

Now, if you're not familiar with Jeffrey Hinton, he actually won the touring Award with Yan laon and Yoshua Bingo for his contributions in the world of AI.

ジェフリー・ヒントンのことをご存じない方もいらっしゃるかもしれないが、彼はAIの世界での貢献が認められ、ヤン・ラオン、ヨシュア・ビンゴとともに巡回賞を受賞している。

Almost everybody that's working on AI today traces their lineage back in some way to Jeffrey Hinton, who was really one of the founding fathers of what we currently know as AI.

今日AIに取り組んでいるほとんどの人々は、現在のAIとして知られているものの創始者の一人であるジェフリー・ヒントンに何らかの形で由来しています。

So, him leaving Google because he thought AI was getting too scary was a big deal.

だから、AIが怖くなりすぎたと考えた彼がグーグルを去ったことは、大きな出来事だった。

But speaking of Google, May was also the month that Google announced they're putting AI into everything.

しかし、グーグルといえば、5月はグーグルがあらゆるものにAIを導入すると発表した月でもあった。

Google Sheets, Gmail, Google search engine, Google phones, you name it, Google was going to put AI inside of it.

グーグル・シート、Gメール、グーグルの検索エンジン、グーグルの携帯電話、なんでもそうだ。

In fact, so much so that when they did their Google ioa event, the headline on CNET was Google said AI over 140 times in a 2-hour Google keynote.

実際、Google ioaイベントを開催した際、CNETの見出しは「Googleは2時間のGoogle基調講演で140回以上AIと言った」というものだったほどだ。

May was also the month where we got the Senate hearing with Sam mman and Gary Marcus and others where they basically pushed for the Senate to actually regulate AI.

5月はまた、サム・マンやゲイリー・マーカスらが上院で公聴会を開き、AIを実際に規制するよう迫った月でもあった。

In May, we saw OpenAI release Shapee, which was a text-to-3D model generator.

5月には、OpenAIがテキストから3Dモデルを生成するShapeeをリリースしました。

We were able to generate 3D images from a prompt like a penguin or a voxelized dog or a traffic cone.

私たちは、ペンギンやボクセル化された犬や交通コーンのようなプロンプトから3D画像を生成することができました。

The 3D images left quite a bit to be desired, but this technology eventually led to the types of things we get today from tools like Genie by Luma AI, where we're now getting 3D objects like this and like these and like these ones here.

3D画像はかなり望ましいものではありませんでしたが、この技術は最終的にはGenie by Luma AIのようなツールから得られる現在のものにつながりました。そこでは、このような3Dオブジェクトを取得できます。

It has come a long way since we first started playing around with Shape back in May.

私たちが最初にシェイプを使い始めた5月以来、シェイプは長い道のりを歩んできました。

It was also May when Adobe made one of their largest contributions to the AI art World in its new generative fill tool inside of Photoshop.

アドビがPhotoshopの新しいジェネレーティブ塗りつぶしツールでAIアートの世界に大きく貢献したのも5月でした。

This was mind-blowing.

これには驚かされました。

We were able to trace areas inside of Photoshop and have generative fill change those areas just by typing a text prompt.

Photoshop内で領域をトレースし、テキストプロンプトを入力するだけで、ジェネレーティブフィルがその領域を変更できるようになったのです。

This absolutely changed the game for everybody that used Photoshop because now we can just do so much more and really dial in any image we want.

これにより、Photoshopを使うすべての人が、より多くのことができるようになり、思い通りのイメージに仕上げることができるようになりました。

When it comes to my own AI art workflows, Adobe generative fill was just mind-blowing.

私自身のAIアート・ワークフローに関して言えば、Adobeのジェネレーティブ・フィルには本当に驚かされました。

It was so insane and it gave so much more power to Adobe Photoshop.

Adobeのジェネレイティブ・フィルは、Adobe Photoshopにさらなるパワーを与えてくれました。

Moving on to June, things slowed down a little bit in the AI World.

6月に入ると、AIの世界では少し動きが鈍くなった。

However, we did get the Apple Vision Pro announcement in June.

しかし、6月にはApple Vision Proが発表されました。

Not really AI, but it does have some generative AI features that will be built into it.

本当のAIではないが、いくつかのジェネレーティブAI機能が組み込まれている。

But one of the biggest things to come out of June was Runway's Gen-2.

しかし、6月に発表された最も大きなもののひとつは、RunwayのGen-2でした。

You remember Gen-1, you can upload a video and it would change the style on that video to the new style that you gave it.

Gen-1を覚えているだろうか、ビデオをアップロードすると、そのビデオのスタイルをあなたが与えた新しいスタイルに変えてくれる。

Now, Gen-2 had the ability to enter a text prompt or an image prompt and generate a video from it.

Gen-2には、テキストプロンプトや画像プロンプトを入力し、そこからビデオを生成する機能があった。

Now, these videos were kind of similar to what we were getting out of Model scope, but the quality seemed to have improved quite a bit, and we no longer had a Shutterstock Watermark going across the videos.

これらの動画は、モデルスコープから出力されるものと似ていましたが、品質はかなり向上しているようで、動画全体にシャッターストック・ウォーターマークが表示されることはなくなりました。

Here's an example of what people were getting out of Gen-2.

これは、Gen-2から人々が得ていたものの一例です。

Here's another video of somebody talking, a couple of horrifying-looking cartoon videos, but again, it was a giant leap over what we were getting out of Model scope.

これは誰かが話している別のビデオで、恐ろしく見えるアニメのビデオもありますが、繰り返しますが、私たちがモデル・スコープから得ていたものよりも大きな飛躍でした。

Moving on to July, we are now halfway through 2023, and July things started to pick up a little bit of momentum again.

7月に移りますが、2023年の半ばになると、再び少し勢いが増してきました。

ChatGPT rolled out Code Interpreter, which gave us all sorts of new abilities inside of ChatGPT.

ChatGPTはCode Interpreterをリリースしました。

We were now able to upload PDF files and have it read those PDFs for us.

PDFファイルをアップロードしてPDFを読むことができるようになりました。

We were able to upload spreadsheets and graphs and have it interpret those files for us and help us analyze them.

スプレッドシートやグラフをアップロードして、それらのファイルを解釈し、分析することができるようになりました。

It would even create graphs for us on things like where UFO sightings happened.

UFOが目撃された場所などのグラフを作成してくれたりもしました。

They've since rebranded Code Interpreter to data analysis, but to this day, it's still in there and still one of ChatGPT's most powerful features.

その後、コード・インタープリターはデータ解析にリブランディングされましたが、現在でもChatGPTの最も強力な機能の一つです。

July also saw the rollout of Anthropics clad 2.

7月にはAnthropics clad 2もリリースされました。

This gave us a 100,000 token context window, meaning that between the amount of words we input into the bot and the amount of words we outputted from the bot, we were able to get about 75,000 words, which was the largest available model.

これにより、10万トークンのコンテキスト・ウィンドウが利用できるようになりました。つまり、ボットに入力した単語量とボットから出力した単語量の間で、約75,000単語を得ることができ、これは利用可能な最大のモデルでした。

We were able to now copy and paste large documents directly into clad and have it summarize and give us bullet points and explain it like I'm five.

クラッドに大きな文書を直接コピー&ペーストして、要約や箇条書きをさせ、まるで私が5歳であるかのように説明させることができるようになりました。

This was back in July, and since then, Claude has upped their contact window to now 200,000 tokens.

これは7月のことで、それ以来、クロードはコンタクトウィンドウを20万トークンに増やした。

But when this came out in July, it caused a lot of people to jump ship from ChatGPT and start using Claude instead.

しかし、これが7月に発表されたとき、多くの人がChatGPTから飛び降り、代わりにクロードを使い始めました。

To this day, I still use Claude just about as much as I use ChatGPT because I just find it better at summarizing documents, especially long documents that ChatGPT still can't handle.

今日に至るまで、私はClaudeをChatGPTと同じくらい使っています。なぜなら、特にChatGPTがまだ扱えない長い文書を要約するのに、Claudeの方が優れていると感じるからです。

July was also the month we saw LLaMA 2, and not only did Microsoft and Meta team up to launch LLaMA 2, they launched it as free for research and commercial use.

7月はLLaMA 2が発表された月でもあり、マイクロソフトとメタが手を組んでLLaMA 2を発表しただけでなく、研究・商用利用向けに無料で発表しました。

This was really the month that we started to see a ramp-up of the open-source large language models because a lot of people started to iterate off of what LLaMA 2 had built.

多くの人々がLLaMA 2で構築されたものを反復し始めたため、オープンソースの大規模言語モデルが急増し始めた月でした。

Later in the month, ChatGPT got another upgrade with custom instructions.

月の後半には、ChatGPTがカスタム命令でさらにアップグレードされました。

We were now able to sort of pre-train our ChatGPT with additional information that we wanted it to have access to before we even type our first prompt.

最初のプロンプトを入力する前に、ChatGPTにアクセスさせたい追加情報を事前にトレーニングできるようになりました。

So, for instance, I gave it information about how I have a YouTube channel, I'm always looking for ideas for titles and thumbnails and video ideas, and the sort of demographics of my YouTube channel.

たとえば、私はYouTubeチャンネルを持っていること、タイトルやサムネイル、ビデオのアイデアを常に探していること、そして私のYouTubeチャンネルの人口統計情報などについての情報を与えました。

So now, when I talk to ChatGPT, it has all of that information for additional context before I even typed my first prompt.

ChatGPTは、私が最初のプロンプトを入力する前に、そのような情報をすべて持っています。

In July, it was also the month the AI art World got Stable Diffusion XL 1.0.

7月は、AIアートワールドがStable Diffusion XL 1.0を手に入れた月でもありました。

Prior to that, we had a Stable Diffusion XL 0.9, which wasn't really that great yet.

それ以前にはStable Diffusion XL 0.9があり、まだそれほど素晴らしいものではなかった。

But SDXL was a giant leap for our AI art generation.

しかし、SDXLはAIアートの世代にとって大きな飛躍だった。

Now, it still wasn't quite as good as what we were getting out of Midjourney version 5, but Midjourney is very closed.

それでもMidjourneyのバージョン5ほどではなかったが、Midjourneyは非常に閉鎖的だ。

They don't share their data with anybody.

彼らはデータを誰とも共有しない。

It's censored, and there's a lot that they won't let you prompt with it.

データは検閲され、それを使ってプロンプトを出させないこともたくさんある。

Stable Diffusion is open source.

Stable Diffusionはオープンソースだ。

You can install it on your own computer, and you can even train your own models to use your own face or your own styles.

自分のコンピューターにインストールして、自分の顔やスタイルを使って自分のモデルをトレーニングすることもできる。

And Stable Diffusion XL had huge quality improvements, but also had those additional abilities to them because you can use this right inside of something like Automatic 1111 or the new Comfy UI.

また、Stable Diffusion XLは、クオリティを大幅に向上させただけでなく、Automatic 1111や新しいComfy UIのようなものの内部で使用できるため、さらなる能力も備えていた。

AI art was truly getting to a place where no matter which tool you were using for AI art, they were kind of all catching up with each other.

AIアートは、AIアートのためにどのツールを使っても、お互いに追いつくことができるようになっていました。

And then, we moved to August, and August was another really slow month for the world of AI.

そして8月に入り、8月もまたAIの世界にとっては本当に低調な月だった。

I mean, a lot of marginal improvements happened, but there wasn't anything really major.

つまり、わずかな改善はたくさんあったが、特に大きなものはなかった。

The one thing that came out of August that I think is worth talking about was that Midjourney introduced Very Region, which was their version of inpainting.

8月に発表されたものの中で、私が話す価値があると思うものは、MidjourneyがVery Regionを発表したことです。

We were now able to take an image like this chipmunk wearing a crown, select just the crown, and then have Midjourney generate new styles for the crown while leaving the Chipmunk exactly the same.

王冠をかぶったシマリスのような画像を、王冠だけを選択し、Midjourneyにシマリスはそのままで、王冠に新しいスタイルを生成させることができるようになりました。

So, very similar to the Instruct Pix top in painting that we were getting earlier on, but now we also had it available to us directly inside of Midjourney.

つまり、ペインティングのインストラクター・ピック・トップと非常によく似ているのですが、Midjourneyの中で直接利用できるようになったのです。

Moving on to September, ChatGPT got another big upgrade.

9月に入り、ChatGPTはまた大きなアップグレードを行った。

This was the month where they announced that ChatGPT can now see, hear, and speak.

この月、ChatGPTは見たり、聞いたり、話したりできるようになったと発表されました。

We got the ability to speak directly to ChatGPT and have it listen, as well as get audio responses back from ChatGPT, and it was really good.

ChatGPTに直接話しかけると、ChatGPTがそれを聞き、ChatGPTから音声応答が返ってきます。

We also got ChatGPT with vision, meaning that we could upload pictures and ask questions about the pictures inside of ChatGPT, like help me lower my bike seat, and then it looks at the image and explains how to lower the bike seat.

また、ChatGPT with visionも手に入りました。これにより、画像をアップロードしてChatGPT内でその画像について質問することができるようになりました。例えば、「自転車のシートを下げるのを手伝って」と言えば、画像を見て自転車のシートを下げる方法を説明してくれます。

And then, you could circle a piece of the image and re-upload it and ask again, is this the lever?

そして、画像の一部を丸で囲んで再アップロードし、これがレバーですか?

ChatGPT would respond and give helpful information.

ChatGPTはそれに答え、役立つ情報を与えてくれる。

In the demo, they also showed an image of a toolbox and asked what tool it should use.

デモでは、工具箱の画像も表示され、どんな工具を使うべきか質問された。

ChatGPT went on to explain exactly how to fix it from there.

ChatGPTはそこから具体的な修理方法を説明してくれた。

This opened up a whole new world of possibilities in ChatGPT, and this was just back in September.

これはChatGPTの可能性の全く新しい世界を開くもので、9月に戻ったばかりです。

Moving on to October, we got DALL·E 3 from OpenAI, which, to this day, is the most prompt adherent AI image generator model.

10月に入り、私たちはOpenAIからDALL-E 3を手に入れました。これは今日に至るまで、最もプロンプトに忠実なAI画像生成モデルです。

You can do really complex prompts like an image of a three-headed monster wearing fedoras and watching a TV with bears on, and it would actually figure out how to generate something with all of the elements in your prompt.

3つの頭を持つモンスターがフェドーラをかぶり、クマが出ているテレビを見ている画像のような本当に複雑なプロンプトを出すことができ、プロンプトに含まれるすべての要素を使って実際に何かを生成する方法を見つけ出すことができます。

With Midjourney or Stable Diffusion, you're likely to only get one or two of the things that you ask for, still to this day.

Midjourney』や『Stable Diffusion』では、今日に至るまで、あなたが求めたものの1つか2つしか得られない可能性が高い。

Not to mention that they rolled it out directly inside of ChatGPT, so when you generate an image, instead of having to give a whole new prompt, I can say, give them pink hats, and it knows that I'm referring to the image that it just created.

ChatGPTの中に直接組み込まれたことも言及すべきです。ですので、画像を生成する際に新しいプロンプトを与える必要がなくなり、例えば「ピンクの帽子を付けて」と言えば、それが生成した画像を指していることを理解します。

And then, update the image for me.

そして画像を更新してくれる。

So, not only was it super prompt and adherent, it gave us a whole new way to generate images in a more conversational way.

つまり、非常に迅速で密着性が高いだけでなく、より会話的な方法で画像を生成するまったく新しい方法を提供してくれたのです。

October also saw the release of text to Vector inside of Adobe Illustrator.

また、10月にはAdobe Illustratorのtext to Vectorがリリースされました。

Now, to be fair, Adobe had a huge event where they announced all sorts of AI features.

さて、公正を期すために、アドビはあらゆる種類のAI機能を発表する大規模なイベントを開催した。

But, in my opinion, the biggest announcement that was also made available right away was their text to Vector.

しかし、私の意見では、すぐに利用可能になった最大の発表は、テキストをベクターに変換することでした。

We were now able to prompt images directly inside of Adobe Illustrator.

アドビ・イラストレーターの中で画像を直接プロンプトできるようになったのだ。

And instead of it being a flat image, it would generate it as an infinitely scalable Vector that we can edit, change colors of certain elements, and do whatever we want to it.

そして、フラットな画像ではなく、無限にスケーリング可能なベクターとして生成され、編集したり、特定の要素の色を変えたり、好きなようにできるようになった。

It was great for things like logo creation or creating multi-layered images that we can then later animate.

ロゴを作ったり、マルチレイヤーの画像を作ったりして、それを後でアニメーション化したりするのに最適でした。

And then, we move on to November.

そして、11月に移ります。

November started off with Elon Musk announcing grock, which was his own large language model.

11月は、イーロン・マスクが独自の大規模言語モデルであるgrockを発表したことから始まった。

It was trained on all of the available data on X or Twitter or whatever, and would even update in real time.

grockは、XやTwitterなどの利用可能なデータすべてで学習され、リアルタイムで更新される。

Making it a great large language model to have discussions about current events in the moment.

リアルタイムで更新もされるため、その時々の出来事についてディスカッションするのに最適な大規模言語モデルだ。

He also made it sort of Goofy and silly and tell really bad dad jokes and roast people.

彼はまた、グーフィーでおバカで、本当に悪い父親ジョークを言ったり、人をローストしたりもする。

But it's definitely an interesting model that I think will improve over time or maybe just be seen as a giant joke to people.

しかし、これは間違いなく興味深いモデルであり、時間の経過とともに改善されるか、またはただの大きな冗談として見なされるかもしれません。

Who knows?

それは誰にもわからない。

We'll see how it all plays out.

どうなるかはわからない。

November was also when OpenAI had their Dev day where they announced gpts.

11月はOpenAIのDev dayでもあり、そこでGptsが発表された。

Gpts are sort of like these custom bots that you can train directly inside of ChatGPT.

Gptsは、ChatGPTの中で直接トレーニングできるカスタムボットみたいなものです。

They can be tailored towards specific niches or specific end goals like creative writing coaches, Tech advisors, sticker whz, and laundry buddy.

クリエイティブ・ライティング・コーチ、テック・アドバイザー、ステッカー・ホーズ、ランドリー・バディなど、特定のニッチや特定の最終目標に合わせることができます。

You can upload your own documents and give it your own custom instructions.

自分のドキュメントをアップロードし、独自のカスタム指示を与えることができます。

And then, you can even allow other people to use your custom GPT.

そして、他の人があなたのカスタムGPTを使えるようにすることもできます。

And in the future, even sell your own custom GPT in the upcoming GPT store from OpenAI if it ever ends up happening.

将来的には、OpenAIのGPTストアで自分のカスタムGPTを販売することもできます。

Alongside gpts, OpenAI also rolled out assistants, which is pretty much the exact same thing as gpts, just in the API form.

OpenAIはgptsと並行して、assistantsも展開しました。これはgptsとほとんど同じもので、API形式になっているだけです。

You can develop your own assistant, give it functions, give it Code Interpreter ability, give it retrieval ability, upload your own files for it to reference.

自分でアシスタントを開発し、機能を持たせ、コード・インタープリター機能を持たせ、検索機能を持たせ、自分のファイルをアップロードして参照させることができる。

And then, use what you created in your own separate software or have conversations with it directly inside of OpenAI's Playground.

そして、作ったものを別のソフトウェアで使ったり、OpenAIのPlaygroundの中で直接会話したりすることができます。

We also got another big announcement in the world of AI-generated video with Gen-2's motion brush.

また、Gen-2のモーションブラシで、AI生成ビデオの世界でもう一つ大きな発表がありました。

This allowed us to mask out certain areas of the image and only animate and edit the areas that we masked out.

これは、画像の特定の領域をマスクアウトし、マスクアウトした領域のみをアニメーション化し編集することを可能にしました。

This made video editing much more powerful and much more customizable.

これにより、ビデオ編集がより強力に、よりカスタマイズ可能になった。

November was also the month where we saw the rise of these latent consistency models and real-time image editing like Leonardo's real-time canvas.

11月は、こうした潜在的一貫性モデルや、レオナルドのリアルタイム・キャンバスのようなリアルタイム画像編集が台頭してきた月でもあった。

Where I can draw on this image on the left and watch as the image on the right updates in real time.

左の画像に絵を描くと、右の画像がリアルタイムで更新されるのを見ることができる。

Over there, everything I add to this image, you'll see it update in real time as I scribble.

あそこでは、私がこの画像に追加したものはすべて、私が落書きしている間にリアルタイムで更新されるのがわかります。

This is happening as I'm drawing.

これは私が描いている最中に起こっていることなのだ。

We also saw similar tech released by Korea.

同じような技術が韓国からも発表されました。

AAI, where as I draw on the left here, you'll see my image start to update on the right in real time with what I'm drawing into it.

AAIでは、左側に描いている間に右側の画像がリアルタイムで更新されるのが見えます。

November also saw the event that rocked the AI world when Sam Altman was fired, then offered a job by Microsoft, and then subsequently a couple of days later rehired on by OpenAI.

11月には、サム・アルトマンが解雇され、その後マイクロソフトから職を斡旋され、その数日後にOpenAIに再雇用されるという、AI界を揺るがす出来事もあった。

And then OpenAI's entire ire board was booted and completely reconfigured.

そして、OpenAIの理事会全体がブーイングされ、完全に再構成された。

I made a ton of videos about that whole scenario and was almost breaking it down in real time.

私はそのシナリオ全体について大量のビデオを作成し、ほとんどリアルタイムで分解していた。

But that just happened in November.

しかし、それは11月に起こったばかりだ。

And when it comes to AI video, Runway couldn't get all of the love in November.

そしてAIビデオに関して言えば、ランウェイは11月にすべての愛を得ることはできなかった。

P 1.0 was released in November, which brought us some amazing AI text-to-video that is better than anything we've seen to date.

11月にリリースされたP 1.0は、私たちがこれまで見てきたものよりも優れた、驚くべきAIテキスト・トゥ・ビデオを私たちにもたらした。

We were able to enter text prompts, get really, really good videos.

私たちはテキストプロンプトを入力し、本当に、本当に良いビデオを得ることができました。

We got image-to-video that was really high quality.

画像から動画への変換は本当に高品質でした。

We were able to change the motion in the videos, do video-to-video, and it even had video out painting where you can take a video of one size and change it to a whole other size, and it would fill in the rest.

私たちは動画のモーションを変えることができ、ビデオからビデオへの変換もでき、ビデオを塗りつぶすこともできました。

It also got this really awesome video in painting where we can select an area of a video and change the color or add glasses.

また、ビデオ・イン・ペイントでは、ビデオの領域を選択して色を変えたり、メガネを追加したりすることができます。

This is another huge leap in AI video, and that came in November.

これはAIビデオにおけるもうひとつの大きな飛躍であり、11月に実現した。

And that brings us to December, the month that I'm actually recording this video, and it's been kind of a slower month so far, which is to be expected as we get closer and closer to the holidays and people want to wind down and spend time with their family.

このビデオを実際に収録している12月に入って、これまでのところ、ちょっと低調な月になっています。これは、祝日が近づくにつれ、人々がゆっくりと家族と過ごしたいと思うようになるため、予想されることです。

But we did get the announcement of Gemini.

しかし、ジェミニの発表はあった。

We even got access to Gemini inside of Google's Bard.

グーグルのバードの中でジェミニにアクセスすることもできた。

However, the way Google did it was a bit deceptive, with them using this video footage and getting a response in real time when they actually didn't use video footage to get these prompts.

ただし、Googleがそれを行った方法は少し欺瞞的であり、実際にはビデオ映像を使用してリアルタイムで応答を得たわけではありませんでした。

They actually used completely different PRS than what they said, and it wasn't anywhere near to real time.

彼らは実際に、彼らが言ったこととはまったく違うPRSを使い、リアルタイムに近いものではなかった。

It can do what it says it's going to do, just not the way they demonstrated it in the video.

ビデオで実演していたのとは違うだけで、彼らが言うようなことはできるのだ。

And finally, the last sort of big thing that I think happened in December of 2023 was the release of Mixl of Experts, which was a new way of doing large language models, which I explained in last week's AI news video.

そして最後に、2023年12月に起こった大きな出来事の一つは、Mixl of Expertsのリリースでした。これは大規模な言語モデルを行う新しい方法であり、私は先週のAIニュースビデオで説明しました。

Which is a new OP Source large language model where you can give an input, it passes your input through a router.

これは新しいOPソースの大規模言語モデルで、入力を与えると、ルーターを経由します。

And then, sends your question to various large language models or experts to get the answer.

そして、あなたの質問を様々な大規模言語モデルや専門家に送り、答えを得ます。

Each one of these experts might be trained on different information.

これらの専門家はそれぞれ、異なる情報に基づいて訓練されているかもしれない。

It's a much more efficient way for these chat bots, so that instead of asking a huge large language model, it's asking a smaller, more dialed in language model that's tailored to the prompt that you asked it.

これはチャットボットにとって、より効率的な方法で、巨大な言語モデルに質問する代わりに、あなたが質問したプロンプトに合わせた、より小さく、よりダイヤル化された言語モデルに質問するのです。

And this is a big leap in how I feel AI chatbots will probably be handled in the future.

これは、AIチャットボットが将来的にどのように扱われるようになるかという点で、大きな飛躍だと思います。

So, I felt like this was probably worth mentioning.

ですから、これはおそらく言及する価値があると感じました。

Now, now again, I know there was a lot that happened in the world of AI in 2023.

さて、繰り返しになりますが、2023年のAIの世界ではいろいろなことが起こりました。

I probably could have listed 30 things for every single month of the year, but felt like I should probably keep it more high level to the things that I felt made the biggest impact.

おそらく、その年のすべての月について30個のことをリストアップすることもできただろうが、私が最も大きな影響を与えたと感じたことについて、もっとハイレベルに保つべきだと思った。

I missed a lot of open-source stuff, I know that, but these are the things that, in my opinion, drove the AI world forward the most and the fastest.

オープンソースのものをたくさん見逃してしまったことは承知しているが、これらは、私の意見では、AIの世界を最も前進させ、最も速く前進させたものである。

And there you have it, that's my recap of 2023 and AI.

以上、2023年とAIを振り返ってみた。

I am so excited about 2024.

私は2024年をとても楽しみにしている。

I'll be making a video here pretty soon about my predictions of where it's all going in 2024.

2024年に何が起こるかについての私の予測については、近々ここでビデオを作成する予定だ。

So, if you want to see that video, make sure you're subscribed to the channel and you like this video.

そのビデオをご覧になりたい方は、チャンネル登録とこのビデオへの「いいね!」をお忘れなく。

CU, that'll make sure videos like this show up in your YouTube feed.

そうすれば、このようなビデオがYouTubeのフィードに表示されるようになります。

And if you want to keep your finger on the pulse of AI, similar to how I do, check out Future Tools.

また、私と同じようにAIの動向を知りたい方は、Future Toolsをチェックしてください。

This is where I curate all the cool tools that I come across.

ここでは、私が出会ったクールなツールをキュレーションしている。

I made it really easy to sort and find the exact tools that you're looking for.

並べ替えがとても簡単で、探しているツールを正確に見つけることができる。

I keep the AI news page up to date on a daily basis.

AIニュースのページは毎日更新しています。

Every day, you can keep your finger on the pulse of the latest news.

毎日、最新ニュースをチェックすることができます。

And I have a free AI newsletter where I'll send you just a handful of the coolest AI tools that I come across and the most important pieces of AI news that I come across directly to your email inbox.

また、無料のAIニュースレターでは、私が出会った最もクールなAIツールのほんの一握りや、最も重要なAIニュースを、あなたのメールボックスに直接お送りします。

You can find that all over at Future Tools.

このニュースレターはFuture Toolsでご覧いただけます。

And thanks for hanging out with me as I kind of go down memory lane of 2023 and what felt like 5 years condensed down into one.

そして、2023年の記憶をたどりながら、5年間を凝縮したような私の話にお付き合いいただきありがとうございました。

This was the fastest, most rapid advancements we've ever seen in AI, possibly in any tech technology ever.

これは、AIの世界で最も速く、最も急速な進歩であり、おそらくどんな技術でも最も急速な進歩でした。

So, what an exciting year 2024.

だから、2024年はなんとエキサイティングな年なのだろう。

I can only imagine it's going to accelerate further.

さらに加速していくことは想像に難くない。

And hopefully, you're here for it.

そして願わくば、あなたがそのためにここにいることを願っています。

So, thank you for tuning in and I hope I see you in the next video.

それでは、ご視聴いただきありがとうございました。次のビデオでお会いできることを願っています。

And thanks again to Enid for sponsoring this video.

そして、このビデオをスポンサーしてくれたイーニッドに改めて感謝する。

That was a lot of videos.

たくさんのビデオだったね。

Anyway, thanks again.

とにかく、本当にありがとう。

I really appreciate you.

本当にありがとう。

See you in the next one.

また次のビデオでお会いしましょう。

Bye-bye.

バイバイ。


この記事が気に入ったらサポートをしてみませんか?