見出し画像

【AIニュース】英語解説を日本語で読む【2023年8月20日|@Matt Wolfe】

この動画は、AI関連のニュースを紹介しています。OpenAIのChat GPTの運営コストや利用者数の変動、2024年末の破産の可能性、AmazonやGoogleのAI活用の取り組み、OpenAIのGPT 4 APIの発表、そして「Be Fake」アプリの立ち上げなどが報告されています。さらに、AI Botsによるキャプチャの解読能力の向上も取り上げられています。
公開日:2023年8月20日
※動画を再生してから読むのがオススメです。


I just got back from the artificial conference in LA, and it was an awesome event.

ちょうどLAで開催された人工知能の会議から帰ってきたばかりで、素晴らしいイベントでした。

But I'm ready to get into the news.

しかし、今はニュースに入る準備ができています。

This week, a report came out that ChatGPT is costing $700,000 per day.

今週、ChatGPTの1日のコストが70万ドルであるという報告が出ました。

Most likely, Microsoft's $10 billion investment in OpenAI is what's keeping the company afloat at the moment.

おそらく、MicrosoftがOpenAIに100億ドルを投資していることが、現時点で会社を浮かせている要因です。

But since ChatGPT's peak in May, the number of users has steadily declined each month.

しかし、ChatGPTのピーク時から、ユーザー数は毎月着実に減少しています。

However, those have been the summer months when students are out of school.

ただし、これらは学生が学校を休んでいる夏の月でした。

So now that schools are getting back into session, it'll be interesting to see if we see a rise in ChatGPT usage again.

したがって、学校が再開する今、ChatGPTの利用が再び増加するかどうかは興味深いです。

However, this report that's in businessstandard.com claims that OpenAI could end up going bankrupt by the end of 2024 if they don't start to turn a profit.

ただし、businessstandard.comに掲載されているこの報告書によれば、OpenAIは利益を上げない限り、2024年末までに破産する可能性があるとされています。

And if Microsoft turns off the faucet of cash flow to them.

そして、Microsoftが彼らへの資金供給を停止した場合。

Amazon recently announced that they're going to continue to improve the customer reviews experience with generative AI.

最近、Amazonは生成AIを使って顧客レビューの体験を改善し続けると発表しました。

Now, this is rolling out to a subset of mobile shoppers in the US across a broad section of products.

現在、これは米国の一部のモバイルショッパーに対して、幅広い製品カテゴリーで展開されています。

We can see in this screenshot here, an AI-generated review that seems to be a summary of the overall customer reviews on a specific product.

このスクリーンショットで見るように、特定の製品に関する顧客レビューの要約のように見えるAIによるレビューが表示されています。

They're also adding some buttons for some commonly searched things about various products like performance, ease of use, and stability.

また、パフォーマンス、使いやすさ、安定性など、さまざまな製品に関する一般的な検索事項に対するボタンも追加されています。

And you can click on it and get an idea of what users are saying about that specific point of the product.

そして、それをクリックして、その製品の特定のポイントについてユーザーがどのように言っているかを把握することができます。

So if you click on ease of use, for example, it will write you up an AI-generated summary of what people said across all of the reviews about ease of use.

例えば、「使いやすさ」をクリックすると、AIが生成した「使いやすさ」に関するレビューの要約が表示されます。

That seems like it'll be pretty handy.

それはかなり便利になるようです。

However, if people keep on gaming the Amazon reviews like they do now, we're just gonna have a gamed summary.

しかし、今のようにアマゾンのレビューをゲーム化する人が増え続ければ、ゲーム化された要約が出来上がるだけだ。

So we'll have to see how Amazon deals with that as well.

アマゾンがこの問題にどう対処するか見ものだ。

Also, this week, Google updated their generative search experience, making it that if you hover over certain words, it'll actually give you a definition of the word that you hover over.

また今週、グーグルはジェネレーティブ検索をアップデートし、特定の単語にカーソルを合わせると、その単語の定義を表示するようにした。

And also allowing you to generate summaries of articles that you're reading to just get a quicker look at what the article says.

また、読んでいる記事の要約を生成して、その記事に何が書かれているのかを素早く知ることもできる。

They've also updated the coding capabilities.

また、コーディング機能もアップデートされた。

Now, if you do have access to the generative search experience already, you should have access to these new features as well.

すでにジェネレーティブ検索エクスペリエンスにアクセスしているのであれば、これらの新機能にもアクセスできるはずだ。

Although you will have to make sure you update to the latest version of Chrome to get them to work.

ただし、Chromeの最新バージョンにアップデートしていることを確認する必要がある。

However, this summary feature is only available on the Chrome iOS and Android apps.

ただし、この要約機能はChromeのiOSアプリとAndroidアプリでのみ利用できる。

It's not available on the Chrome browser yet.

Chromeブラウザではまだ利用できない。

In other Google news, they've added an AI update to Google Photos.

その他のGoogleニュースとしては、GoogleフォトにAIアップデートが追加された。

Now, if you use Google Photos at all, you've probably seen it resurface memories from this day in the past.

Googleフォトを使っている人なら、過去のこの日の思い出が蘇るのを見たことがあるだろう。

Well, they just added a new memories view.

今回、新しい思い出ビューが追加された。

It's a home for your memories that is automatically curated and organized with the help of AI.

これは、AIの助けを借りて自動的にキュレーションされ、整理された思い出の家だ。

It lets you easily relive, customize, and share your most memorable trips, celebrations, and daily moments with your loved ones.

これにより、最も思い出深い旅行、お祝い、日々の瞬間を簡単に追体験し、カスタマイズし、大切な人と共有することができる。

It started rolling out this week in the US and will be available globally in the coming months.

今週から米国で展開が開始され、今後数カ月で全世界で利用可能になる予定だ。

You can actually rename the memories using AI, so it will look through the photos and actually suggest a title for your memories, like a desert adventure.

AIを使って思い出の名前を変更することができるので、写真を見て、砂漠の冒険のような思い出のタイトルを提案してくれる。

And should just overall make it easier to resurface photos that you've taken in the past, because I mean, how many photos on your phone have you taken that you never ever go back and look at?

そして、過去に撮影した写真を再び見ることがほとんどないでしょうから、全体的に見ても写真の再発掘が容易になるはずですよね?

Something like this will bring them back to your attention again.

このようなものがあれば、それらの写真に再び目を向けることができるだろう。

This week, OpenAI announced a new GPT-4 API feature where you can actually use GPT-4 for moderation.

今週、OpenAIは新しいGPT-4 APIの機能を発表しました。それにより、実際にGPT-4をモデレーションに使用することができます。

Typically, content policy changes can take months to roll out because they require training a large number of human moderators.

通常、コンテンツポリシーの変更は、多数の人間のモデレーターを訓練する必要があるため、展開に数ヶ月かかることがあります。

In contrast, GPT-4 reduces the cycles to hours and is significantly more flexible.

これに対してGPT-4は、そのサイクルを数時間に短縮し、柔軟性も大幅に向上します。

Our vision is a world where AI, guided by humans, can create a safer environment as content scales more and more.

私たちのビジョンは、コンテンツがどんどんスケールしていく中で、人間がガイドするAIがより安全な環境を作り出せる世界です。

So the idea being, you can use their API to build moderation tools for communities and things like that, freeing up time and catching things that human moderators might not otherwise catch.

つまり、彼らのAPIを使ってコミュニティのモデレーション・ツールなどを構築することで、時間を解放し、人間のモデレーターが捕捉できないようなものを捕捉できるようになるということです。

Also, in OpenAI news this week, OpenAI acquired Global Illumination.

また、今週のOpenAIのニュースとして、OpenAIはGlobal Illuminationを買収した。

They put out a short press release on their website about how the entire team has joined OpenAI to work on core products, including ChatGPT.

チーム全体がOpenAIに加わり、ChatGPTを含むコアプロダクトに取り組むという短いプレスリリースが彼らのウェブサイトに掲載されています。

Now, we don't actually know what the Global Illumination team is going to do for OpenAI, but what we do know is that they've created games in the past, like this Biomes game, which, if we take a peek, looks very similar to Minecraft or maybe the sandbox game.

現在、Global IlluminationチームがOpenAIのために何をしようとしているのか、実際のところはわかりませんが、わかっているのは、彼らが過去にゲームを作ってきたということです。たとえば、このBiomesというゲームは、ちょっと覗いてみると、Minecraftやサンドボックスゲームにとても似ています。

It's leaving the AI world speculating: is OpenAI getting into the gaming world, or was OpenAI just a fan of their development team and wanted their development team working on ChatGPT instead?

OpenAIがゲームの世界に参入しようとしているのか、それともOpenAIが単に彼らの開発チームのファンで、代わりに彼らの開発チームにChatGPTに取り組んでほしかっただけなのか。

Speaking of gaming, Take-Two shuts down an AI GTA 5 mod.

ゲームといえば、Take-TwoがAI GTA 5 modを閉鎖した。

Now, there was a playable mod for GTA 5 that used in-world AI's character speech generation tool, so that you can walk around inside of Grand Theft Auto and actually talk to other characters, and those characters would respond to you using AI.

GTA 5のプレイアブルMODでは、インワールドAIのキャラクター・スピーチ生成ツールを使って、Grand Theft Autoの中を歩き回って、実際に他のキャラクターと会話することができ、それらのキャラクターはAIを使ってあなたに反応します。

And you can have conversations with characters in the Grand Theft Auto world.

グランド・セフト・オート』の世界のキャラクターと会話ができるのだ。

Now, Take-Two is the company that owns Rockstar Games, the creator of Grand Theft Auto, and Take-Two Games apparently just took this mod down without any rhyme or reason.

テイクツーはグランド・セフト・オートの生みの親であるロックスター・ゲームスを所有する会社で、テイクツー・ゲームスはこのMODを何の理由もなく削除したようだ。

The creator of the mod said, As far as I'm aware, the mod is not violating Grand Theft Auto or YouTube policy, referring to the fact that people have made YouTube videos playing this mod, and some of those videos have even been taken down off of YouTube.

私が知る限り、このMODはグランド・セフト・オートやYouTubeのポリシーに違反していない」とMODの作成者は語っている。これは、このMODをプレイする人々がYouTube動画を作成し、そのうちのいくつかはYouTubeから削除されていることを指している。

Still, as of right now, there's no official word as to why the mod was taken down or what rules were actually broken by the creator of the mod.

しかし、現時点では、MODが削除された理由や、MODの作成者によって実際にどのようなルールが破られたのかについての公式発表はない。

Also, this week, Adobe Express with Firefly built-in is now available worldwide and for free.

また今週、Fireflyを組み込んだAdobe Expressが世界中で無料で利用できるようになった。

If you head over to adobe.com/express, you can click Get Express for Free and use all sorts of creation tools like their text-to-image generator, their text effects generators, and much more.

adobe.com/expressにアクセスし、Get Express for Freeをクリックすれば、テキスト画像ジェネレーターやテキストエフェクトジェネレーターなど、さまざまな作成ツールを使うことができる。

They even have things like AI background removers.

彼らはAIの背景除去機能なども持っています。

One of my favorite features of Adobe Firefly is this sort of texturing feature that uses AI to generate textures.

Adobe Fireflyのお気に入りの機能のひとつに、AIを使ってテクスチャを生成するテクスチャリング機能があります。

So, for example, I put some text like this on the screen and type shiny black metal and click generate.

例えば、このようなテキストを画面上に配置し、黒光りする金属と入力して生成をクリックします。

It changes all the text to a shiny black metal effect.

すると、すべてのテキストが光沢のあるブラックメタルのエフェクトに変わります。

But you can also just use Adobe Firefly completely for free and generate any images you can imagine right with their text-to-image generator.

でも、Adobe Fireflyを完全に無料で使うこともできるし、テキストから画像へのジェネレーターを使って、思いつく限りの画像を生成することもできる。

So, pretty cool that they made that available for free right now worldwide.

世界中で今すぐ無料で利用できるようになったのは、とてもクールなことだ。

Also, this week, Runway, the company behind Gen1 and Gen2, the cool video-to-video effect creator, as well as the now text-to-video and image-to-video creator that I've talked about in past videos, they just rolled out a new feature called Watch.

Gen1やGen2の開発元であるRunwayは、クールなビデオからビデオへのエフェクト作成ツールであり、テキストからビデオ、画像からビデオへのエフェクト作成ツールでもある。

If I jump into my Runway account here, you can see there's a new button over here on the left that says Watch.

ランウェイのアカウントに飛び込むと、左側にWatchという新しいボタンがあるのがわかる。

We can check out some really cool videos that have been made with RunwayML.

RunwayMLで作られたクールなビデオをチェックできる。

For example, this Echoes of the Valley video made by my friend Amar, which I highly recommend checking out.

例えば、友人のアマルが作ったEchoes of the Valleyのビデオ。

It is just absolutely amazing and really, really well done.

本当に素晴らしく、本当によくできている。

But if you need some inspiration or you want to see some of the cool types of things people have been making with Runway, log into your account.

でも、インスピレーションが必要だったり、みんながRunwayを使って作ったクールなものを見たい場合は、アカウントにログインしてください。

I believe this Watch feature is available for free.

このWatch機能は無料で利用できると思います。

This week, the Associated Press also set some AI guidelines for journalists.

今週、AP通信もジャーナリスト向けのAIガイドラインを設定した。

Journalists that are part of the Associated Press should follow these guidelines that say, although you're allowed to use OpenAI, you cannot use it to create publishable content.

AP通信の一員であるジャーナリストは、OpenAIの使用は許可されているが、出版可能なコンテンツを作成するために使用することはできないというガイドラインに従うべきである。

Any output from generative AI should be treated as unvetted source material.

生成AIからの出力は、未検証のソースとして扱われるべきである。

So whatever the AI says, they still need to vet it, which is probably pretty sound advice.

つまり、AIが何を言おうと、それを吟味する必要があるということだ。

Regardless, journalists aren't allowed to alter any elements of their photos using generative AI.

いずれにせよ、ジャーナリストはジェネレーティブAIを使って写真の要素を変更することは許されない。

They're not allowed to transmit any AI-generated images that are suspected or proven to be false depictions of reality.

また、現実の虚偽描写であることが疑われる、あるいは証明されたAI生成画像を送信することも許されていない。

However, if an AI-generated illustration or work of art is the subject of the news story, it can be used.

ただし、AIが生成したイラストや芸術作品がニュース記事の主題である場合は、それを使用することができる。

Their worry is that generative AI makes it easier for people to intentionally spread misinformation.

彼らが懸念しているのは、ジェネレーティブAIによって、人々が意図的に誤った情報を広めることが容易になるということだ。

And overall, reading these guidelines, I'd say they're pretty solid guidelines for anybody that's creating content online that they want to be taken seriously.

これらのガイドラインを読むと、真面目に受け止められたいコンテンツをオンラインで作成する人にとっては、かなり堅実なガイドラインだと言える。

Don't try to pass off fake images as real images.

偽の画像を本物の画像と見せかけないこと。

Don't intentionally try to spread misinformation.

意図的に誤った情報を広めようとしないこと。

And if you are going to use AI to help create content, use it as a rough draft and definitely check all of the information to make sure it's actually accurate.

そして、もしAIを使ってコンテンツを作成するのであれば、それを下書きとして使い、すべての情報が実際に正確かどうかを必ずチェックすること。

It's probably good advice for anybody.

誰にとっても良いアドバイスだろう。

This week, there was also a string of announcements from ex-company employees starting new AI companies.

今週、元社員が新しいAI企業を立ち上げるという一連の発表もありました。

For example, Google's old CEO, Eric Schmidt, is launching a new AI company.

例えば、グーグルのかつてのCEO、エリック・シュミットは新しいAI会社を立ち上げる。

His new company is aimed at modeling what OpenAI originally stood for, in that it's a non-profit designed to use AI for scientific breakthroughs.

彼の新会社は、OpenAIが元々目指していたものをモデル化することを目的としており、AIを科学的ブレークスルーのために利用することを目的とした非営利団体である。

He's hoping to recruit some of the top AI scientists to come over to this company that might have had those initial ideals that OpenAI started with before they became a for-profit company.

彼は、OpenAIが営利企業になる前に掲げていた最初の理想を持つような、トップクラスのAI科学者たちをこの会社に引き入れたいと考えている。

Two ex-Google researchers also created a new startup called Sakana AI.

元グーグルの研究者2人も、サカナAIという新しいスタートアップを設立した。

The company was founded by Leon Jones, who actually co-authored a breakthrough paper called Attention is All You Need back in 2017.

この会社は、2017年に「Attention is All You Need」という画期的な論文を共同執筆したLeon Jonesによって設立された。

It was also co-founded by David Ha, who was previously the head researcher at Stability AI and also formerly worked at Google Brain.

また、以前はStability AIの主任研究員であり、以前はGoogle Brainで働いていたDavid Haも共同設立した。

They founded the company in Tokyo, and they're hoping to take a different approach to generative AI.

彼らは東京で会社を設立し、生成AIに対して異なるアプローチを取りたいと考えている。

They claim that this new model, instead of using a single large language model, they want to create numerous smaller AI models that collaborate, much like a swarm, to deliver complex results.

この新しいモデルは、単一の大きな言語モデルを使う代わりに、複雑な結果を出すために、群れのように協力する多数の小さなAIモデルを作りたいと主張している。

It sounds like over time, they could be an alternative to companies like OpenAI that create models that generate text, images, code, and multimedia content, just from this newer approach that they're suggesting.

いずれは、テキスト、画像、コード、マルチメディアコンテンツを生成するモデルを作成するOpenAIのような企業に取って代わる存在になるかもしれない。

Keeping with the theme of people leaving companies to go start new AI companies, the ex-CEO of Machine Zone is launching a new AI-based social media app called BeFake.

Machine Zoneの元CEOは、会社を辞めて新しいAI会社を立ち上げるというテーマに沿って、BeFakeという新しいAIベースのソーシャルメディアアプリを立ち上げている。

Now, Machine Zone was a company best known for making mobile app games that were premium, that had all sorts of paid upgrades in the games.

現在、Machine Zoneは、プレミアムで、ゲームにあらゆる種類の有料アップグレードがあるモバイルアプリゲームを作ることで有名な会社である。

This new app is designed to take pictures of yourself, but then actually transform them with generative AI and post fake pictures of yourself instead of all the constant selfies of your real life.

この新しいアプリは、自分の写真を撮り、それを生成AIで実際に変換し、実生活の自撮り写真の代わりに偽の写真を投稿するように設計されている。

It's a social media app where they encourage sharing your fake life, I guess.

偽の人生を共有することを奨励するソーシャルメディアアプリなのだろう。

And some interesting research this week, it was found that AI bots are so good at mimicking the human brain and vision that captchas are now useless.

そして今週は、AIボットが人間の脳と視覚を模倣することに長けているため、キャプチャが役に立たないという興味深い研究結果が発表された。

Now, captchas are these annoying things where it asks you to click the images of buses or bikes or whatever.

キャプチャーとは、バスや自転車などの画像をクリックするよう要求される厄介なものだ。

And then you click them all, and then it takes you to another page where you got to do it again.

で、全部クリックすると、また別のページが表示され、そこでまたクリックしなければならない。

And you know, they're annoying.

そして、あなたは、それらが迷惑だとわかっています。

And in the near future, they're going to be completely pointless because AI can solve them for you.

近い将来、AIがそれを解決してくれるから、それらはまったく無意味なものになるだろう。

And if you didn't know, captcha actually stands for completely automated public tiering test tell computers and humans apart.

ご存じないかもしれませんが、captchaとは、コンピューターと人間を区別するための、完全に自動化された公開階層テストの略です。

So if you're like me and didn't even know that that was an acronym, now you know.

もしあなたが私のように、それが頭字語であることさえ知らなかったとしても、今ならわかるだろう。

Now the fact that these AI Bots can actually beat captchas is sort of a huge risk.

このAIボットが実際にキャプチャを破ることができるという事実は、ある意味大きなリスクだ。

If people create autonomous Bots that can brute force crack into websites and solve captchas, it could wreak havoc on a lot of websites.

もしウェブサイトをブルートフォース(総当たり)でクラックし、キャプチャを解くことができる自律型ボットが作られたら、多くのウェブサイトが大混乱に陥る可能性がある。

We're gonna have to come up with some sort of new proof of humanity really quickly.

私たちは、ある種の新しい人間性の証明を本当に素早く考え出さなければならないだろう。

And something that I kind of considered non-news, but I see other AI people talking about it, so I might as well talk about it as well.

そして、私はニュースではないと思っていたのだが、他のAIの人たちがそれについて話しているのを見たので、私もそれについて話そう。

Snapchat's my AI chatbot glitched out this week and actually posted a random story that looked like a corner of a wall and a ceiling.

SnapchatのAIチャットボットが今週不具合を起こし、壁と天井の角のようなランダムなストーリーを投稿した。

When people actually tried to chat with Snapchats my AI, it just wasn't responding to them.

人々が実際にSnapchatsのmy AIとチャットしようとしたところ、反応がなかったのだ。

But a spokesperson for Snapchat basically said, Yep, it experienced a temporary outage, but it got resolved real quick.

しかし、Snapchatの広報担当者は、「一時的な障害が発生しましたが、すぐに解決しました。

So again, in my opinion, sort of non-news.

というわけで、私見ではあるが、ニュースではないようなものだ。

A few weeks ago, I talked about neuroangelo, a technology from NVIDIA that is not quite a Nerf, but it uses very similar technology to a Nerf.

数週間前に、NVIDIAの技術であるneuroangeloについて話しました。それは完全にNerfではありませんが、非常に似た技術を使用しています。

Where if you take a whole bunch of images around a location or an object, it will actually turn that into a 3D image.

ネルフとは違いますが、ネルフに非常によく似た技術を使っています。ある場所や物体の周りの画像をたくさん撮ると、それが実際に3D画像になります。

And with neuroangelo, it actually creates a real smooth cohesive image.

そしてニューロアンジェロでは、実際に滑らかなまとまりのある画像を作成する。

This neuroangelo technology has now been made available by NVIDIA, and you can actually download it and run it on your own local machines if you want.

このニューロアンジェロ・テクノロジーは現在NVIDIAによって提供されており、必要であればダウンロードして自分のローカルマシンで実行することができます。

And along a similar vein, Luma AI just launched fly throughs.

同様の流れで、Luma AIはフライスルーを発表したばかりだ。

This is a mobile app where you can actually just walk around, film a video of a location, and it will actually turn that location into a 3D Nerf and make it look like a drone camera is flying around that location.

これはモバイルアプリで、実際に歩き回り、その場所のビデオを撮影するだけで、その場所を3Dのネルフに変え、ドローンカメラがその場所を飛び回っているように見せることができる。

Now, as of right now, it's very limited.

今のところ、非常に限定的だ。

You can't really control the camera or the speed or, you know, set up keyframes of what the video looks like.

カメラやスピードをコントロールしたり、映像のキーフレームを設定したりすることはできません。

It's actually just going to show whatever you showed on your camera and just turn it into something that looks like a drone shot.

実際には、カメラに映したものがそのまま表示され、ドローン撮影のようなものに変わるだけだ。

But over time, this is going to be very interesting because I imagine they're planning on turning this into something where you can actually virtually walk through the houses and move a character around in first person view in whatever 3D room you create.

しかし、時間が経てば、これは非常に興味深いものになるでしょう。実際に家の中をバーチャルに歩いたり、作成した3Dの部屋の中で一人称視点でキャラクターを動かしたりできるようなものに変えていくつもりなのでしょう。

Now, you can already do stuff like this with Luma Labs regular AI tool.

ルマ・ラボの通常のAIツールを使えば、すでにこのようなことができる。

However, this fly throughs tool is, at the moment, being sort of angled towards real estate and showing off houses and stuff.

しかし、このフライ・スルー・ツールは、今のところ、不動産や家の紹介などに向けたものです。

But the technology is really cool.

しかし、この技術は本当にクールだ。

That'll be a fun one to watch and see how it plays out.

それは見て、どのように展開するかを見るのが楽しいものになるでしょう。

You can actually download it right now on the Apple Store and use it on your iPhone.

アップルストアで今すぐダウンロードしてiPhoneで使うことができる。

I imagine it'll be available for Android in the near future as well.

近い将来、アンドロイドでも使えるようになると思う。

But if you have an iPhone, you can download it for free and play with it right now.

しかし、もしあなたがiPhoneを持っているなら、今すぐ無料でダウンロードして遊ぶことができる。

And that's what I got for you today.

それが今日の私の提供です。

Over the last several weeks, I've spent a lot of time at very just conferences.

ここ数週間、私は非常に限られたカンファレンスに多くの時間を費やしてきた。

I was at siggraph.

シググラフにも行った。

I was at the artificial conference.

人工のカンファレンスにも行った。

I've been on a lot of podcasts.

ポッドキャストにもたくさん出演した。

I've been taking a lot of meetings.

会議にもたくさん出席した。

And I feel like I've sort of fallen behind on this YouTube channel, actually only posting two videos a week for the last few weeks.

そして、実際には過去数週間、このYouTubeチャンネルで週に2本の動画しか投稿していませんでした。

I want to ramp it up again.

またもっと増やしたい。

I have so many ideas for videos.

動画のアイデアはたくさんあるんだ。

I've just been traveling so much and going to all these conferences.

ただ、出張が多くて、いろいろなカンファレンスに行っているんだ。

But I've completely cleared my schedule.

でも、スケジュールは完全にクリアした。

I'm getting better at saying no to conferences and podcasts and all these other things that people are asking me for.

カンファレンスとかポッドキャストとか、みんなから頼まれることを断るのがうまくなってきた。

I'm going to put my head down and just focus on creating cool AI content, staying deep in the research, deep in learning about the new tools, updating the Future tools website, and making better and better videos and AI tutorials and news and research breakthroughs and all the cool stuff that I was doing a few months ago.

私は頭を下げて、ただクールなAIコンテンツを作ることに集中し、研究に没頭し、新しいツールについて深く学び、Future toolsのウェブサイトを更新し、より良いビデオやAIのチュートリアル、ニュース、研究のブレークスルーなど、数ヶ月前にやっていたクールなものすべてを作っていくつもりだ。

I'm gonna get back on track with making those style of videos, and I'm excited to share some of the stuff and some of the ideas that I've got for videos.

私は、そのようなスタイルのビデオを作ることに再び軌道に乗せるつもりです。私は、ビデオのために持っているいくつかのものといくつかのアイデアを共有することに興奮しています。

So if you haven't already, subscribe to this channel, give this video a thumbs up, and one thing that would really, really help is if you click the little bell notification button.

もしあなたがまだ購読していないなら、このチャンネルに購読し、この動画にいいねをして、本当に本当に助かるのは、小さなベルの通知ボタンをクリックしていただくことです。

That'll make sure that whenever I put a new video out, you will see it on your YouTube feed.

そうすれば、私が新しいビデオを公開するたびに、YouTubeのフィードに表示されるようになります。

Just by subscribing, YouTube sort of changed the rules.

登録するだけで、YouTubeはルールを変えたようなものです。

You don't see the videos automatically if you subscribe.

購読しても動画は自動的に表示されません。

You gotta hit the Bell if you want to see them for sure.

確実に見たければ、ベルを押す必要がある。

But I am planning on ramping up the cool AI videos, and there is a lot of cool stuff in the works from all of these conferences I've been to.

しかし、私はクールなAIの動画を増やす予定ですし、これまでに参加したこれらのカンファレンスからはたくさんのクールなものが進行中です。

There is some amazing, amazing AI tools and technology that is about to be released really soon that I'm excited to deep dive in and show off for you and play around with and make tutorials around.

私が参加したこれらのカンファレンスから、たくさんのクールなものが生まれています。驚くべき、素晴らしいAIツールやテクノロジーが、本当に間もなくリリースされる予定です。

So expect that in the near future.

だから、近い将来にそれを期待している。

And if you haven't already, like and subscribe.

まだの方は、「いいね!」と「購読」をお願いします。

I really appreciate you.

本当にありがとう。

Check out futuretools.io.

futuretools.ioをチェックしてね。

Lots of cool stuff over there if you're into the AI stuff and nerding out.

AIに興味があるなら、クールなものがたくさんあるよ。

And again, that's all I got for you.

それが私が持っている全てです。

I'm done rambling.

とりとめもなく話してしまった。

Appreciate you.

ありがとう。

See you in the next video.

また次のビデオで。

Bye. Thank you.

ではまた。 ありがとう。


この記事が気に入ったらサポートをしてみませんか?