見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2024年2月3日|@Matt Wolfe】

この動画では、最近のAI技術の進展について紹介されています。画像生成が可能なBardや、GoogleのTest Kitchen、アニメスタイルの画像生成ができるMidjourney、ShopifyのMagic AI Image Editor、子供の絵のような画像を生成するMicrosoftのStrokeNUWA、画像に合わせた音声生成ができるHugging FaceのImage to SFXなどの新しいツールが登場しています。また、複数のGPTsを同時に使用できるChatGPT、新しいオープンソースの大規模言語モデル、MetaのCodeLlama-70Bモデルなども紹介されています。AppleはAI関連企業の買収を進めており、新しいSiriのバージョンを発表する可能性があると述べられています。
公開日:2024年2月3日
※動画を再生してから読むのがオススメです。


AI news has actually been kind of slow so far for the last couple weeks.

AIニュースはここ数週間、実際にはあまり進展がありませんでした。

We had CES where a whole bunch of big announcements were made and a whole bunch of cool products were revealed, and then it was just kind of quiet.

CESがあり、たくさんの大きな発表が行われ、たくさんのクールな製品が公開されましたが、その後は静かな状態が続きました。

There wasn't a lot to talk about.

話題があまりありませんでした。

However, things are really starting to pick up steam again, and as we roll into February here, there's really been some kind of exciting new developments and tools that we get to play with now.

ただし、ここ最近は本当に勢いが戻ってきており、2月に入ってからは、興奮するような新しい開発やツールがいくつか出てきています。

So let's jump right in.

それでは、さっそく始めましょう。

Starting with the fact that we can now generate images directly inside of Bard.

Bardの内部で直接画像を生成できるという事実から始めましょう。

Bard is finally catching up with ChatGPT, at least in the ability to generate images directly within the chat platform.

Bardは、少なくともチャットプラットフォーム内で画像を直接生成する能力において、ChatGPTに追いついてきました。

If we take a peek inside of the bard.google.com/updates pages here, you could see on February first, they rolled out the update where we can now create images with Bard.

bard.google.com/updates のページをここでちょっと覗いてみると、2月1日にアップデートが行われ、私たちは今、Bardを使って画像を作成できるようになったことがわかります。

Now, it is important to keep in mind that it's not yet available in all countries.

ただし、すべての国で利用できるわけではありませんので、それは念頭に置いておくことが重要です。

According to the support docs, it says image generation in Bard is available in most countries, except in the European economic area, Switzerland, and the UK.

サポートドキュメントによると、Bardでの画像生成は、欧州経済圏、スイス、イギリスを除くほとんどの国で利用可能です。

And right now, it only works with English prompts.

そして現時点では、英語のプロンプトのみで動作します。

But if you want to start generating images within Bard, it's simple.

しかし、Bard内で画像を生成し始めたい場合は、簡単です。

Just head on over to bard.google.com.

bard.google.comにアクセスしてください。

You'll get the chatbot that you're used to directly in Bard, and you just tell it what you want from it.

Bard内でお使いのチャットボットが直接利用できますので、それに対して欲しいものを伝えるだけです。

For example, generate an image of Mario kitesurfing.

例えば、マリオがカイトサーフィンをしている画像を生成してください。

This time, it generated just one image.

今回は、たった1つの画像が生成されました。

Usually, it generates two images.

通常は、2つの画像が生成されます。

Not sure why it only generated one, but it does give you this button to generate more.

なぜ1つしか生成されなかったのかはわかりませんが、もっと生成するためのボタンが用意されています。

And after a few seconds, it'll generate more.

数秒後に、さらに生成されます。

Once again, it only generated one instead of two more, but those are clearly Mario kite surfing.

再び、2つではなく1つだけ生成されましたが、それは明らかにマリオがカイトサーフィンをしているものです。

Now, one thing that I've noticed when using Bard is it denies a lot of prompts, like prompts that it doesn't seem like it should be denying.

Bardを使用する際に気付いたことの一つは、それが否定的なプロンプトを多く拒否することです。それが拒否するべきではないようなプロンプトも拒否します。

When I posted about it on X today, that was pretty much the number one complaint people had about it.

私がXでそれについて投稿したとき、それは人々がそれについて持っていた主な不満でした。

Cyris here gave an example where he says, I want images of a brown cow drinking chocolate milk in a field.

サイリスは、例として「私は、牧場でチョコレートミルクを飲んでいる茶色い牛の画像が欲しい」と言っています。

And it said, Unfortunately, I can't generate images that are physically impossible or misleading, like a cow drinking chocolate milk. Cows are lactose intolerant, meaning they can't digest milk properly. While the image is a fun thought experiment, it wouldn't be accurate to reality.

そして、それは「残念ながら、牛がチョコレートミルクを飲んでいるような物理的に不可能または誤解を招くような画像は生成できません。牛は乳糖不耐症であり、ミルクを正しく消化することができません。この画像は楽しい思考実験ですが、現実には正確ではありません」と述べています。

Like, what if I try to ask it to generate an image of any sort of real person, like generate an image of Tom Hanks? It says, I can't generate images of that. Try asking me to generate images of something else.

例えば、実在の人物の画像を生成するように頼んだ場合、例えばトム・ハンクスの画像を生成してもらおうとした場合、それは「それの画像は生成できません。他の何かの画像を生成するように頼んでみてください」と言います。

Yet, when I ask it to generate something that's clearly trademarked IP, like Sonic the Hedgehog, it has no problem with that.

しかし、ソニック・ザ・ヘッジホッグのような明らかに商標登録された知的財産の画像を生成するように頼んだ場合、それには何の問題もありません。

Very hit or miss on what it will actually let you generate.

実際に生成できるかどうかはまちまちです。

There's been some really random prompts that it should have no problem generating, nothing offensive about them, and it just says it can't for some reason.

生成できるものとできないものの判断が非常に曖昧です。生成できるはずのもので、何の問題もないものについても、何らかの理由で生成できないと言われることがあります。

My buddy MattVidPro actually made a video all about what Imagen 2 is capable of, and he was getting a lot of the same results in his video where he was asking to create images with a human with eight arms and things like that, and it was saying, I can't generate that. That's outside of our policies or whatever.

私の友人であるMattVidProは、実際にImagen 2が何ができるのかについてのビデオを作成しましたが、彼も同じ結果を多く得ていました。彼は8本の腕を持つ人間の画像を作成するように頼んだりしていましたが、それに対して「それは私たちのポリシーの範囲外です」と言われました。

I also learned from this video from MattVidPro that you can generate images directly inside of Google's Test Kitchen, inside of their tool called ImageFX.

私はまた、MattVidProのこのビデオから学んだことですが、GoogleのTest Kitchen内でも直接画像を生成することができるということです。それはImageFXというツールの中にあります。

Google's AI Test Kitchen is where they release a lot of their AI projects early, and they allow testers to come in and play around with them before they are pushed out to the whole world.

GoogleのAI Test Kitchenは、彼らが多くのAIプロジェクトを早期にリリースし、それらを世界中に広める前にテスターが試して遊ぶことを許可している場所です。

And if I go to Test Kitchen and scroll down, I can see that we have ImageFX here, and this is a purpose-built image generator.

Test Kitchenに移動してスクロールダウンすると、ここにImageFXがあります。これは特別に作られた画像生成ツールです。

Obviously, Bard is a chatbot with image built into it. ImageFX appear to be a user interface solely for the purpose of generating images with Imagen 2.

明らかに、Bardは画像を組み込んだチャットボットですが、ImageFXはImagen 2を使用して画像を生成するためのユーザーインターフェースのようです。

I'd like to say it gives you a little bit more control than trying to generate the images directly in Bard, but really the only additional options it gives you are the ability to set a seed down here, a I'm feeling lucky button which will generate a random image for you, such as a turtle made of potato chips.

直接Bardで画像を生成しようとするよりも、少しはコントロールできると言いたいですが、本当に追加されるオプションは、ここでシードを設定することができる能力と、ランダムな画像を生成する「I'm feeling lucky」ボタンくらいです。例えば、ポテトチップスでできた亀のようなものです。

Actually pretty good.

実際にはかなり良いです。

And it's got these extra little prompt helpers down here, so I can add things like handmade 35mm film.

また、ここには追加のプロンプトヘルパーもあります。例えば、handmade 35mmフィルムなどを追加することができます。

So it gives some suggestions to improve the prompt, and under each suggestion, it also gives you a little drop-down, so instead of made of, you can try sculpted out of, painted on, drawn on.

プロンプトを改善するための提案がいくつかあり、それぞれの提案の下にはドロップダウンがあります。made ofの代わりにsculpted out ofやpainted on、drawn onなどを試すことができます。

Instead of handmade, digital, painted, sculpted.

handmadeの代わりにdigitalやpainted、sculptedなどがあります。

Instead of 35mm film, we've got some other options here.

35mmフィルムの代わりに他のオプションもあります。

But other than letting you set the seed and giving you some sort of prompt helpers, there's not really much more control.

ただし、Seedを設定したりプロンプトヘルパーを提供したりする以外には、あまり制御できません。

But it does generate four images at a time instead of two without you needing to press the generate more button.

しかし、生成ボタンを押さなくても、2枚ではなく4枚の画像を一度に生成することができます。

And if you're curious what this prompt looks like, a turtle made of potato chips, handmade 35mm film, there you go.

もし気になるなら、ポテトチップスで作られた亀、手作りの35mmフィルム、それがそれです。

I actually thought the original was better.

実際、私は元の方が良いと思いました。

One thing the other Matt figured out in his video was that Imagen is really good at sort of photo-realistic images, almost Midjourney version six level, but not quite as creative and also not quite as prompt adherent as DALL·E 3 inside of ChatGPT.

他のマットが彼のビデオで見つけたことの一つは、Imagenが写真のようなリアルな画像を生成するのが得意であること、ほぼMidjourneyバージョン6レベルですが、DALL·E 3のように創造的でなく、またPromptに忠実ではないことです。

And to sort of pile on the negatives, he also found that a lot of random prompts that should have worked, it told him it couldn't generate for some reason.

そして、ネガティブな点を積み重ねるように、彼は多くのランダムなプロンプトが動作するはずのものでも、何らかの理由で生成できないと言われたことも見つけました。

So I don't know, play around with it yourself, have some fun with it, see what you can generate.

だから、自分で試してみて、楽しんでみて、何が生成できるか見てみてください。

It's free to use right now.

今は無料で使えます。

What's not free to use is Midjourney, and Midjourney just rolled out a brand new AI image generation model.

無料で使えないのはMidjourneyですが、Midjourneyは新しいAI画像生成モデルを導入しました。

If you're into generating cartoon and sort of anime images, they just rolled out the Niji V6 model, which generates these sort of anime-style images.

もしカートゥーンやアニメの画像を生成するのが好きなら、Niji V6モデルが導入されました。これはアニメ風の画像を生成します。

If you have a Midjourney account, you want to play around with this, jump into Midjourney, type/settings, click on the model drop-down here, and we can see Niji model 6 Alpha.

Midjourneyアカウントを持っている場合、Midjourneyに入り、タイプ/設定をクリックし、ここでモデルのドロップダウンをクリックすると、Nijiモデル6アルファが表示されます。

Select that, dismiss the message, and now when I generate a prompt, it will prompt it in this Niji mode.

それを選択し、メッセージを閉じると、プロンプトを生成するときにこのNijiモードでプロンプトが表示されます。

I could prompt something like a human cyborg battling a human ninja, and you can see it added niji 6 at the end.

人間のサイボーグが人間の忍者と戦っているようなものをプロンプトすることができ、末尾にniji 6が追加されるのがわかります。

And alternatively, if you don't want to change it in the settings, you just want to generate one image, you can also add this --niji 6 to the end of your prompt to force it into this Niji mode.

また、設定を変更せずに1つの画像を生成したい場合は、プロンプトの末尾に--niji 6を追加して、これをNijiモードに強制することもできます。

And here's what we get when we generate a cyborg battling a ninja.

ここでは、サイボーグが忍者と戦っている場面を生成した結果です。

While we're on the topic of AI image generation, Shopify is rolling out the Magic AI Image Editor, and here's what that does, using Shopify's own words.

AI画像生成の話題についてですが、ShopifyはMagic AI Image Editorを導入しており、これが何をするか、Shopifyの言葉で説明します。

Starting today, we are rolling out new Shopify Magic features in the media editor that use generative AI to make product image editing and enhancement easier than ever, right here in the admin.

本日から、私たちは管理画面内で、製品画像の編集と向上を今まで以上に簡単にするために、生成AIを使用した新しいShopify Magic機能を展開しております。

With these new AI-powered background editing features, you can select from common style presets for an instant boost of professionalism or reimagine the scene altogether with a short description of what you'd like to see or instantly match the background of your existing photo shoots to make your storefront feel more on brand and cohesive.

これらの新しいAIパワードの背景編集機能を使用すると、一般的なスタイルのプリセットから選択して、プロフェッショナルな仕上がりを瞬時に得ることができます。または、見たいものの短い説明を入力して、シーンを完全に再構築することもできます。または、既存の写真撮影の背景を瞬時にマッチさせて、ストアフロントをブランドに合わせて統一感のあるものにすることもできます。

For today's video, I partnered with HubSpot to tell you about their free campaign assistant powered by AI.

今日のビデオでは、HubSpotと提携して彼らの無料のキャンペーンアシスタントを紹介します。

So check this out.

ぜひこれをチェックしてください。

If I click on get started, it brings me inside my campaign assistant here.

「はじめる」をクリックすると、キャンペーンアシスタントに入ることができます。

If I click on create new asset, I have the option to create a landing page, Google Search ad, marketing email, Facebook ad, or LinkedIn ad.

「新しいアセットを作成」をクリックすると、ランディングページ、Google検索広告、マーケティングメール、Facebook広告、LinkedIn広告のいずれかを作成するオプションがあります。

Let's go ahead and create a Google Search ad.

では、Google検索広告を作成しましょう。

Over on the left side here, it asks me a few questions to get an idea of what my business is all about.

こちらの左側では、私のビジネスについてのアイデアを得るためにいくつかの質問があります。

So I filled in some details about my website, a website that curates all the latest tools in the artificial intelligence space.

私のウェブサイトについての詳細を入力しました。人工知能の最新ツールをまとめたウェブサイトです。

I added three bullets of what I want my audience to know about my business: we review all the latest tools in the AI space, we sort through the bad and sketchy tools and only surface the good stuff, and we try to work out discounts and deals with the creators of the tools to save you money.

私のビジネスについて知ってほしいことを3つの項目で説明しました。AIスペースの最新ツールをすべてレビューし、悪いツールや怪しいツールを選別し、良いものだけを紹介し、ツールの作成者と割引や取引を試みてお金を節約しようとします。

I can add some keywords here.

ここにいくつかのキーワードを追加できます。

I added a handful.

いくつか追加しました。

And then, what do you want your audience to do?

そして、あなたのオーディエンスに何をしてほしいですか?

I'll use the call to action browse for free today.

無料で今日ブラウズするというコール・トゥ・アクションを使用します。

Under writing style, we have all sorts of options: witty, creative, humorous, friendly, positive, etc.

文章のスタイルでは、ウィットに富んだ、創造的な、ユーモアのある、フレンドリーな、ポジティブなど、さまざまなオプションがあります。

I like to go with creative, humorous, and friendly because that's how I like to think of my brand.

私はクリエイティブでユーモアのある、フレンドリーなスタイルが好きなので、それを選びます。

Let's generate content.

コンテンツを生成しましょう。

After just a few seconds, it generated three Google Search ads for me: Discover all the latest AI tools, Find and share unique AI tools at Future Tools, Save money with discounts from creators.

わずか数秒で、3つのGoogle検索広告が生成されました。最新のAIツールを発見しましょう、Future ToolsでユニークなAIツールを見つけて共有しましょう、クリエイターからの割引でお金を節約しましょう。

Browse for free today.

今日無料でブラウズしましょう。

Now, I can just simply copy these ads and quickly paste them into a notepad here so that I could use them in my Google ads account.

今では、これらの広告を簡単にコピーして、メモ帳に貼り付けることができますので、Google広告アカウントで使用することができます。

Now, if I go to create a marketing email, it actually already remembered everything that I've already entered about my business.

さて、マーケティングメールを作成する場合、実際には私がすでにビジネスについて入力したすべてを覚えています。

So, all I have to do is click generate content and a few seconds later, I have a marketing email that I can copy and paste and send to my email list audience.

したがって、私がやるべきことは、コンテンツを生成するボタンをクリックするだけで、数秒後にはマーケティングメールが生成され、コピーをコピー&ペーストしてメールリストの受信者に送信できるということです。

And it works the same way for LinkedIn ads, Facebook ads, and even landing pages.

LinkedIn広告やFacebook広告、さらにはランディングページでも同じように機能します。

All of my details are pre-filled in.

私の詳細はすべて事前に入力されています。

I just generate content, it generates the copy for my landing page.

コンテンツを生成するだけで、ランディングページのコピーが生成されます。

I can click create free landing page and with a single click, I have a landing page with my copy already loaded in.

無料のランディングページを作成するボタンをクリックするだけで、コピーがすでに読み込まれたランディングページが作成されます。

Now, all I got to do is start fine-tuning it and swapping out some images.

今は、微調整を始めて、いくつかの画像を交換するだけです。

HubSpot's free AI campaign assistant really speeds up the process of creating your marketing assets for your business and makes it super easy to generate everything you need to get eyeballs on your product.

HubSpotの無料のAIキャンペーンアシスタントは、ビジネスのマーケティング資産を作成するプロセスを本当にスピードアップし、製品に注目を集めるために必要なすべてを簡単に生成することができます。

Again, campaign assistant is totally free to use.

また、キャンペーンアシスタントは完全に無料で使用できます。

I will make sure the link is available in the description for you so you can try it out today.

リンクを説明欄に用意しておきますので、今日試してみることができます。

And thank you so much to HubSpot for sponsoring this video.

そして、このビデオのスポンサーであるHubSpotに本当に感謝しています。

Now, this next thing isn't something we actually have access to yet, but I thought it was pretty cool.

さて、次のことは実際にはまだアクセスできるものではありませんが、かなり面白いと思いました。

Microsoft released some research called StrokeNUWA or StrokeNUWA and basically, it's a new way of sort of prompting images, more like prompting drawings, I guess, where it turns certain line shapes into vectors in a vector database.

MicrosoftがStrokeNUWA(ニューワ)またはStrokeNUWAという研究を発表しましたが、基本的には画像を促す新しい方法です。おそらく、特定の線の形状をベクトルデータベース内のベクトルに変換するものです。

And then, you prompt it using a Large Language Model.

そして、それを大規模言語モデルを使って促します。

It's sort of like generating AI images in the same way you generate text with something like GPT-4 and ChatGPT.

これは、GPT-4やChatGPTのようなテキストを生成する方法と同じように、AI画像を生成する方法です。

Instead of a diffusion model or a GAN (generative adversarial network) model like what the other image generators use, again, this is still early research.

他の画像生成器が拡散モデルやGAN(生成的対抗ネットワーク)モデルを使用するのとは異なり、これはまだ初期の研究です。

We don't really have access to play around with this yet, but there are some cool examples of the type of images this will be able to generate.

私たちはまだこれで遊ぶことはできませんが、このような画像のタイプを生成できるクールな例がいくつかあります。

And yes, they kind of look like children's drawings right now, but we're basically asking a Large Language Model that's similar to a ChatGPT-type model to actually draw pictures for us and not generate them through the standard diffusion models.

そして、はい、今のところそれらは子供の絵のように見えますが、私たちは実際にChatGPTタイプの大規模言語モデルに絵を描かせて生成させているのです。標準の拡散モデルを通じて生成するのではありません。

It's a completely new approach to generating these images, and I'm really excited to see how this plays out and how this improves in the future.

これは完全に新しい画像生成のアプローチであり、これがどのように進展し、将来どのように改善されるかを見るのが本当に楽しみです。

Here's some more interesting research that was recently made available on Hugging Face for us to actually play with.

ここに、最近Hugging Faceで利用可能になった興味深い研究のいくつかがあります。

It's called Image to Sound FX or Image to SFX.

それは「Image to Sound FX」または「Image to SFX」と呼ばれています。

You upload an image, submit the image, and it will generate a little sound clip to go along with that image.

画像をアップロードし、画像を送信すると、その画像に合わせた小さな音のクリップが生成されます。

And that audio was generated with nothing more than the image that was uploaded.

そして、その音声はアップロードされた画像だけで生成されました。

This week, ChatGPT rolled out a brand new feature where you can actually call upon GPTS in your chat and have multiple GPTS all inside of a single chat.

今週、ChatGPTでは、実際にチャット内でGPTSを呼び出し、複数のGPTSを1つのチャット内に持つという新しい機能が導入されました。

I actually did an entire video breakdown of this new feature.

私は実際にこの新機能の完全なビデオ解説を行いました。

You can find it by looking for this video right here.

このビデオを探してみることで見つけることができます。

But basically, when I'm inside of the ChatGPT user interface, I can type @, and it will bring up a list of all of the various GPTS I've used recently.

基本的に、ChatGPTのユーザーインターフェース内にいるときに、@を入力すると、最近使用したさまざまなGPTSのリストが表示されます。

I can select one, prompt it with something like What's the most recent paper about AI?, it gives me a response to that.

私はそれを選択し、"最新のAIに関する論文は何ですか?"のようなプロンプトを与えると、それに対する応答が得られます。

And without ever leaving this chat window, I can call upon another GPT.

そして、このチャットウィンドウを離れることなく、別のGPTを呼び出すことができます。

For example, the diagrams show me GPT and tell it to create a diagram based on the last response.

たとえば、図を表示してGPTに最後の応答に基づいて図を作成するように指示することができます。

Just like that, it generated a diagram for me, all in the same flow and the same chat as the first prompt that I gave to Consensus.

たったそれだけで、図が生成されました。すべて同じフローと同じチャット内で、最初のプロンプトをConsensusに与えたのと同じです。

So, you can actually start to tie and blend various GPTS together to get really cool final outputs and do some really interesting things inside of ChatGPT.

したがって、実際にはさまざまなGPTSを組み合わせて結びつけ、ChatGPT内で本当にクールな最終出力を得たり、興味深いことを行ったりすることができます。

But again, I have a full breakdown video of it.

ただし、私はそれの完全な解説ビデオを持っています。

It looks like that while we're on the topic of Large Language Models, something really interesting happened this week.

大規模言語モデルの話題になっている間に、今週は本当に興味深いことが起こりました。

A new open-source Large Language Model appeared on Hugging Face for people to use, and it was giving outputs that were near GPT-4 level outputs.

人々が使用できるようになった新しいオープンソースの大規模言語モデルがHugging Faceに現れ、GPT-4レベルの出力を提供していました。

The model was called Miqu (MIQU), and according to this post from N8 Programs here, it gets an 83.5 on the EQ Benchmark, surpassing every other Large Language Model in the world except for GPT-4.

そのモデルはMiqu(MIQU)と呼ばれ、N8 Programsのこの投稿によると、EQベンチマークで83.5を獲得し、GPT-4以外の世界の他のすべての大規模言語モデルを上回っています。

It even beats Mistral Medium, which is supposedly ML's best model right now.

それは現在のところMLの最高のモデルであると言われているMistral Mediumさえも上回っています。

Now, when this model appeared on Hugging Face, there was a lot of speculation that this was actually a leaked version of the Mistral Medium model.

このモデルがHugging Faceに現れたとき、これは実際にはMistral Mediumモデルのリークバージョンである可能性が非常に高いという憶測がありました。

That's kind of a tongue twister.

それは少し舌を噛むようなものです。

And that possibly Mistral themselves leaked it.

そして、おそらくMistral自体がそれをリークしたのかもしれません。

And when people started doing tests with it, comparing it to the Mistral Media model that's available on Perplexity, it was pretty much giving the exact same outputs, which all but confirmed that it was a leaked version of this Mistral Medium.

そして、人々がそれをテストし始め、Perplexityで利用可能なMistral Mediaモデルと比較すると、ほぼ同じ出力を提供していました。これにより、これがMistral Mediumのリークバージョンであることがほぼ確定しました。

Well, this week, the Mistral CEO then confirmed that the leak of this open-source AI model is actually one of their Mistral models.

さて、今週、MistralのCEOはこのオープンソースのAIモデルのリークが実際に彼らのMistralモデルの1つであることを確認しました。

In this article, it says, Today, it appears we finally have confirmation.

この記事では、今日、私たちはついに確認できるようです。

Mistral co-founder and CEO Arthur Mensch took to X to clarify,An overenthusiastic employee of one of our Early Access customers leaked a quantized and watermarked version of an old model we trained and distributed quite openly.

Mistralの共同創設者兼CEOであるアーサー・メンシュは、Xに投稿して、次のように明確に述べました。「私たちのアーリーアクセスの顧客の熱狂的な従業員が、私たちがかなり公然とトレーニングし配布した古いモデルの量子化されたウォーターマーク付きバージョンをリークしました。」

We retrained this model from LLaMA 2 the minute we got access to our entire cluster.

私たちは、私たちのクラスタ全体にアクセスできるようになった瞬間から、このモデルをLLaMA 2から再トレーニングしました。

The pre-training finished on the day of Mistral 7B release.

事前トレーニングはMistral 7Bリリースの日に終了しました。

We've made good progress since.

私たちはそれ以来、良い進展を遂げています。

Basically, all of this to say that Mistral took a version of LLaMA 2, sort of beefed it up, made it better, started getting near GPT-4 results.

基本的に、これらすべてを言いたいのは、MistralがLLaMA 2のバージョンを取り、それを強化し、より良くし、GPT-4の結果に近づけ始めたということです。

And then somebody over on the Mistral team leaked it onto Hugging Face, and now it's accessible for people to actually play around with.

そして、Mistralのチームの誰かがHugging Faceにそれをリークし、今では人々が実際に遊ぶことができるようになりました。

According to the CEO, it's actually one that they trained a while ago, and they actually have better models now.

CEOによると、これは彼らが以前にトレーニングしたものであり、彼らは実際にはもっと良いモデルを持っています。

So Mistral probably has some game-changing AI in the works that could be pretty exciting.

したがって、Mistralはおそらく非常に興奮するような画期的なAIを開発中であり、非常に興味深いものになる可能性があります。

While we're on the topic of open-source Large Language Models, this week Meta released their CodeLlama-70B model.

オープンソースの大規模言語モデルに関する話題についてですが、今週、Metaが彼らのCodeLlama-70Bモデルをリリースしました。

According to one of Meta's own posts here, CodeLlama-70B instruct achieves a 67.8 on human eval, making it one of the highest performing open models available today.

Meta自身の投稿によると、CodeLlama-70Bは人間の評価で67.8を達成し、現在利用可能なオープンモデルの中で最も高いパフォーマンスを発揮しています。

CodeLlama-70B is the most performant base for fine-tuning code generation models.

CodeLlama-70Bは、コード生成モデルのための最も優れたベースです。

And if you don't know what that means, don't worry, I didn't really either.

それが何を意味するかわからない場合は心配しないでください、私も実際にはわかりませんでした。

But here's a post from Philipp Schmid here on X basically explaining it.

しかし、こちらのフィリップ・シュミットの投稿がありますが、基本的にはそれを説明しています。

As CodeLlama-70B was able to reach initial GPT performance, so when GPT-4 first came out, it was pretty dang good at code, quite a leap from GPT-3.5.

コードLLaMA 70bは初期のGPTのパフォーマンスに達することができたため、GPT-4が最初に登場したとき、コードにおいてはかなり優れていました。GPT-3.5からの大きな飛躍です。

We do now have GPT-4 turbo, which is probably a little bit better at writing code, but this CodeLlama-70B is about as good as that initial GPT-4, and it's open source.

現在、GPT-4 turboがありますが、おそらくコードの書き方においては少し優れていますが、このCodeLlama-70Bは初期のGPT-4とほぼ同じくらい優れており、オープンソースです。

Anybody can use it and anybody can fine-tune it to their own coding needs.

誰でも使用することができ、自分のコーディングのニーズに合わせて微調整することができます。

Commercial uses allowed, so you can build your own software with it and resell it if you want.

商用利用も許可されているため、必要に応じて独自のソフトウェアを構築し、販売することができます。

There's also been a lot of talk lately around Apple and them getting deeper and deeper into the AI game.

最近、AppleがAIの領域にますます深く関与しているという話題もあります。

Now this article here on qz.com is actually from September of 2023, so this may actually have changed a little bit since this article came out.

実際、このqz.comの記事は2023年9月のものであり、この記事が公開されて以来、少し変わっている可能性があります。

But if we look at this graph, Apple has actually acquired more AI companies than pretty much any other company.

しかし、このグラフを見ると、Appleは実際にはほかのほとんどの企業よりも多くのAI企業を買収しています。

We can see since 2017, Apple had acquired 21 AI companies versus 19 from Ascenture, 12 from Microsoft, 11 from Meta, and then Alphabet's all the way down here at 8.

2017年以来、Appleは21社のAI企業を買収しており、Ascentureは19社、Microsoftは12社、Metaは11社、そしてAlphabetは8社です。

So although Apple doesn't talk about AI quite as much as the rest of these companies, they're quietly accumulating all of these AI companies.

したがって、Appleは他のこれらの企業ほどAIについて話すことはありませんが、静かにこれらのAI企業を蓄積しています。

And this week on February 1st, Tim Cook confirmed that Apple's generative AI features are coming later this year, saying that they're putting tremendous time and effort into integrating AI into its software platforms.

そして、2月1日にティム・クックが発表したところによると、Appleの生成型AI機能は今年後半に導入される予定であり、AIをソフトウェアプラットフォームに統合するために膨大な時間と労力を費やしていると述べています。

Now Apple sort of comically never mentions AI in any of their keynote presentations, but in a recent earnings call with Tim Cook, he apparently mentioned generative AI several times, but never really actually got too specific.

Appleは基本的にはキーノートプレゼンテーションでAIについて言及しませんが、最近のティム・クックとの収益発表の電話会議では、彼は生成型AIについて何度か言及したようですが、具体的な内容はあまり明らかにされませんでした。

So we don't actually know what that means.

したがって、実際にはそれが何を意味するのかはわかりません。

We don't really know what sort of generative AI is going to be added into Apple products.

私たちは実際にどのような生成AIがApple製品に追加されるのかを本当に知りません。

But the biggest speculation right now is that we're going to get a new version of Siri, most likely announced at this year's WWDC event.

しかし、現在最も大きな憶測は、おそらく今年のWWDCイベントで発表されるであろう新しいバージョンのSiriが提供されることです。

But Tim Cook was very hush-hush on exactly what AI is rolling out, so we're just going to have to wait and see.

しかし、Tim CookはAIが展開される具体的な内容について非常に秘密主義であり、私たちはただ待つしかありません。

And since we're on the topic of Apple, this week is a fairly historic week for Apple.

そして、Appleに関する話題についてですが、今週はAppleにとってかなり歴史的な週です。

They are launching a brand new product, a brand new gamble for their company with the Apple Vision Pro.

彼らはApple Vision Proという全く新しい製品を発売し、会社のための新しい賭けになります。

It seemed to get into a lot of other YouTubers' hands, not mine, but it's going to be available for general consumers starting this week.

多くの他のYouTuberの手に渡ったようですが、一般消費者も今週から利用できるようになります。

In fact, the day that this video goes live is the day that most people who pre-ordered the Apple Vision Pro is going to get access to theirs.

実際、この動画が公開される日は、Apple Vision Proを予約したほとんどの人々がアクセスできる日です。

I'm a huge sucker for new tech, so I ordered one, and I'm expecting to have mine hopefully by the time you're seeing this video.

私は新しいテクノロジーが大好きなので、私も注文しましたし、この動画を見ている時点で私のものを手に入れることを期待しています。

And along with the Apple Vision Pro release, Apple did announce that more than 600 new apps that are purpose-built for the Apple Vision Pro are going to be available at launch.

Apple Vision Proのリリースと共に、AppleはApple Vision Pro向けに特別に開発された600以上の新しいアプリがローンチ時に利用可能になることを発表しました。

So they should be available when we get access to our Apple Vision Pros.

したがって、Apple Vision Proにアクセスできるようになると同時に、これらのアプリも利用可能になるはずです。

I'm not going to go into too much detail on the Apple Vision Pro in this video.

この動画ではApple Vision Proについて詳細には触れません。

Since by the time I make it another video, I will have had access to one.

次の動画を作成する時点では、私はすでにアクセスできるようになっているはずです。

I should be able to dive a little bit deeper into what I know about Apple Vision Pro at that point.

その時点で私がApple Vision Proについて知っていることをもう少し詳しく説明できるはずです。

This week, we also saw a new mobile browser called Arc Search.

今週、新しいモバイルブラウザのArc Searchも登場しました。

In fact, if you watch my other video, All About really cool AI apps available on mobile phones, which looks like this video right here, you've already seen me play around with Arc Search.

実際、私の他の動画「モバイル電話で利用可能な本当にクールなAIアプリについてのすべて」をご覧いただければ、Arc Searchを使って遊んでいる様子をすでに見ているかもしれません。

It's basically a browser where you can enter any prompt you want.

それは基本的には、任意のプロンプトを入力できるブラウザです。

For example, I type San Diego Padres, I click browse for me.

たとえば、私は「サンディエゴ・パドレス」と入力し、ブラウズボタンをクリックします。

And then, it generates a pre-built web page for me with everything I would want to know about the Padre's, including images of the stadium, details about the team, their home stadium, their achievements, the top search results, details about the franchise history, details about the current season, details about notable players, upcoming games.

すると、スタジアムの画像、チームの詳細、ホームスタジアム、成果、トップの検索結果、フランチャイズの歴史の詳細、現在のシーズンの詳細、注目の選手の詳細、今後の試合など、私が知りたいすべての情報が含まれた事前に作成されたウェブページが生成されます。

It basically creates a single web page with everything you'd want to know, all on that web page, so you don't need to click around and browse different web pages to find what you're looking for.

それは、必要な情報を見つけるために異なるウェブページをクリックして閲覧する必要がなく、すべての情報が1つのウェブページにまとめられるため、非常に便利です。

If I'm honest, I think it's a really cool app.

正直なところ、私はこれが本当にクールなアプリだと思います。

I think this is sort of what end users want.

これはエンドユーザーが望むものだと思います。

I don't think people want to have to dig through a whole bunch of websites to find the exact thing that they're looking for.

人々は自分が探している正確なものを見つけるために、たくさんのウェブサイトを探し回る必要はないと思います。

It's nice to just type in a topic and just get all of the details about that topic presented right in front of you.

トピックを入力するだけで、そのトピックに関するすべての詳細が目の前に提示されるのは素晴らしいことです。

However, it does sort of present a problem to content creators.

ただし、これはコンテンツクリエーターにとって問題を提起することもあります。

If I'm creating content and tools like this are just surfacing the information people are looking for, there's no incentive to click over to my website, which means I might miss out on ad revenue and the ability to build my mailing list and the ability to offer products on my website.

もし私がコンテンツを作成していて、このようなツールが人々が探している情報を提供してくれるのであれば、私のウェブサイトに移動する動機がなくなります。それはつまり、広告収入やメーリングリストの構築、ウェブサイトでの商品提供の機会を逃す可能性があるということです。

It kind of disincentivizes content creators.

コンテンツクリエイターのやる気をそぐような感じですね。

While I like the concept and from a user standpoint, it does seem to make my life easier, but from a content creator standpoint, I have some concerns.

コンセプトは好きですし、ユーザーの立場からすると、私の生活を楽にしてくれるように思えますが、コンテンツクリエイターの立場からすると、いくつかの懸念があります。

But I'm curious what you think.

でも、あなたの意見を聞きたいですね。

Let me know in the comments.

コメントで教えてください。

This week, the New York Times announced that they're building a team to explore AI in The Newsroom.

今週、 New York TimesはニュースルームでAIを探求するためのチームを結成すると発表しました。

If you remember, the New York Times is one of the companies suing OpenAI right now for scraping content from The New York Times, but they're putting together their own internal AI team so that they can explore the genre of AI and what it could possibly be used for within the New York Times.

覚えているかもしれませんが、 New York Timesは現在OpenAIを訴えている企業の一つであり、 New York Times内でAIのジャンルを探求し、それが New York Times内でどのように使用される可能性があるかを調査するために、独自の内部AIチームを結成しています。

They do, however, say that journalists will still write, edit, and report the news.

ただし、彼らはジャーナリストが依然としてニュースを執筆、編集、報道すると述べています。

If I had to guess, it sounds to me like the New York Times wants to build a New York Times bot.

推測すると、 New York Timesは New York Timesのボットを作りたいのだと思います。

So instead of you prompting to find news inside of ChatGPT, if you want to find information specifically from The New York Times, you can go and ask the New York Times bot, and it will be trained on all the various New York Times articles and respond based on the information that's solely within the New York Times database.

つまり、ChatGPT内でニュースを検索する代わりに、New York Timesから特定の情報を検索したい場合は、New York Timesのボットに質問することができ、それはNew York Timesのデータベース内の情報に基づいて応答します。

That's sort of my guess of what's going on here.

これが何が起こっているのかの私の推測です。

Here's something that I don't think anybody's going to complain about, except for maybe scammers and spammers, but the FCC is moving to outlaw AI-generated robo calls.

ここで、詐欺師やスパマー以外の誰も文句を言わないと思われることがありますが、FCCはAIによるロボコールを禁止する動きを始めました。

Now, they're doing this to try to prevent and minimize scams and spam calls and things like the fake Biden calls.

これは詐欺やスパムの電話、フェイクのバイデンの電話などを防止し、最小限に抑えるために行われています。

But if I'm being honest here, bad actors are going to be bad actors, and even if it's illegal, they're just going to do it anyway.

しかし、正直なところ、悪意のある行為者は悪意のある行為者であり、違法であってもそれをやり続けるでしょう。

So, I don't know if outlawing it is really going to have an impact on the people that are using this technology to scam others.

だから、それを違法にすることが本当にこの技術を悪用している人々に影響を与えるのかどうかはわかりません。

But pretty soon, it's going to be on the books that it's illegal to do that, although I already think most people see it as pretty highly unethical.

しかし、まもなくそれが違法であることが法律に明記されるでしょうが、私は既にほとんどの人がそれを非常に非倫理的だと見なしていると思います。

This week, we also got a robot that was trained to read Braille at twice the speed of humans.

今週、ケンブリッジ大学の研究チームが、人間の2倍の速さで点字を読むロボットを開発したという重要なニュースがありました。

The research team from the University of Cambridge used machine learning algorithms to teach a robotic sensor to quickly slide over lines of Braille text.

彼らは機械学習アルゴリズムを使用して、ロボットのセンサーに点字のテキストを素早くスライドさせることを教えました。

The robot was able to read the Braille at 315 words per minute at close to 90% accuracy.

そのロボットは、約315語を1分間で、正確さが90%近くで点字を読むことができました。

Now, they say that the robot Braille reader was not developed as an assistive technology, and it was really designed as more of this like test to find out how good sensors are, almost like a benchmarking system to test future systems to see how well they can read Braille.

ただし、このロボット点字リーダーは支援技術として開発されたものではなく、将来のシステムのテストにおいてセンサーの性能を評価するためのベンチマーキングシステムとして設計されたものです。

However, this article does go on to say that they are thinking about putting this technology inside of the fingertips of humanoid robots so that they can read Braille as well as into things like prosthetics.

ただし、この記事では、この技術をヒューマノイドロボットの指先に入れて、点字を読むことができるようにしたり、義肢などにも応用することを検討していると述べています。

But it does sound like the initial use case for this is more for robots than for humans.

ただし、初期の使用目的はロボットよりも人間向けではないかと思われます。

In the last week, we learned about a new AI model called Morpheus 1, which claims to induce lucid dreaming.

先週、ルシッドドリーミングを誘発すると主張する新しいAIモデル「Morpheus 1」について知りました。

It's basically this headband that they call the Halo, and the Halo sends sound waves or ultrasound holograms into the brain to connect with the current brain state and combined can put the mind into a lucid state.

これは「Halo」と呼ばれるヘッドバンドで、Haloは音波や超音波ホログラムを脳に送り込み、現在の脳の状態と結びつけて、脳をルシッド状態にすることができます。

Now, if you're not familiar with lucid dreaming, lucid dreams are a type of dream where the dreamer becomes aware that they're actually asleep.

もしルシッドドリーミングについて詳しく知らない場合、ルシッドドリームは夢を見ている間に夢を見ていることに気付くタイプの夢です。

So when you're in the dream, you realize that you are asleep and in the dream, effectively giving you control over the dream.

つまり、夢の中で自分が眠っていることに気付き、夢の中で夢をコントロールすることができるのです。

The company also says they're going to start beta testing this thing in Spring of this year, 2024.

この会社はまた、今年の春からこの製品のベータテストを開始する予定だと述べています。

This is one of those technologies that I think is really cool, but I have a hard time sort of comprehending it working, if I'm honest.

これは本当にクールな技術の一つで、でも正直なところ、それが機能することを理解するのは難しいです。

Like, I would love to see it, but for some reason, I still feel very skeptical about it.

見てみたいと思いますが、なぜかまだ非常に懐疑的な気持ちがあります。

Hopefully, I could be an early beta tester on something like this because I would love to try it and be proven wrong and be able to have more control over my dreams because that just seems really cool.

もし可能なら、私はこのようなものの早期のベータテスターになりたいです。間違っていることが証明され、夢をより自由にコントロールできるようになれるといいなと思います。

And finally, this week, in some pretty major news, Neuralink from Elon Musk was implanted in the first human patient.

最後に、今週、イーロン・マスクのNeuralinkが初めて人間の患者に埋め込まれました。

Now, the Neuralink itself is this little circular chip that's about the size of a quarter that's actually designed to be implanted in your skull and actually help your brain interface with a computer.

Neuralink自体は、実際には頭蓋骨に埋め込まれ、脳がコンピュータとインターフェースするのを助けるために設計された直径約25セントの円形のチップです。

Now, the first use cases for this product are for quadriplegics to help them regain some sort of functionalities that they lost.

さて、この製品の最初の使用例は、四肢麻痺の人々が失った機能の一部を取り戻すのに役立つことです。

But I feel like it's only a matter of time before we start getting that like Matrix scenario where you could just download how to do kung fu into your brain.

しかし、私は時間の問題だと思いますが、まるでマトリックスのようなシナリオが現実になることでしょう。脳にカンフーのやり方をダウンロードできるようになるとか。

Okay, so there's one last thing that I want to do in this video today.

さて、今日のビデオで最後にやりたいことがあります。

Inside of the Future Tools Discord, we ran an AI video generation contest for the new year, and January 31st was the deadline to get in your video submission for the chance to win 500 bucks inside of the Discord.

Future Tools Discord内で、新年のためにAIビデオ生成コンテストを開催し、1月31日はDiscord内で500ドルを獲得するチャンスのためにビデオを提出する締め切りでした。

We got tons of amazing submissions, and John, my creative director, compiled the best ones here into a little video reel so that we can watch them.

たくさんの素晴らしい提出物がありました。そして、私たちのクリエイティブディレクターであるジョンは、最も優れたものをまとめて、少しのビデオリールにしてみなさんがご覧いただけるようにしました。

I have not watched these yet.

私はこれらをまだ見ていません。

I have no idea what these videos are going to look like, but I thought I would watch them for the first time on this video.

これらのビデオがどのようなものになるのか全くわかりませんが、このビデオで初めて見ることにしました。

And then, John, Zeno, and I, inside of the Future Tools Discord, we're going to narrow it down to like our three favorite videos.

そして、ジョン、ゼノ、私はFuture Tools Discord内で、私たちのお気に入りの3つのビデオを絞り込みます。

And then, we're going to put it to a vote to see who wins the $500.

それから、$500を獲得するために投票を行います。

So, if you're not in the Future Tools Discord yet, jump in there.

まだFuture Tools Discordに参加していない場合は、参加してください。

If you are in the Future Tools Discord and you're watching this right now, we'd love your say so. Make sure you get into the Discord when we announce our top favorite videos and be a part of the vote to pick the winner of the top AI generated video for this month.

もしもあなたがFuture ToolsのDiscordにいて、今この動画を見ているなら、ぜひ意見を聞かせてください。私たちがトップのお気に入りの動画を発表するときには、Discordに参加して、今月のトップAI生成動画の勝者を選ぶ投票に参加してください。

But let's go ahead and take a peek right now.

しかし、今すぐ中をのぞいてみましょう。

You see, that was some really, really impressive stuff.

それは本当に、本当に印象的なものでしたね。

I love those videos.

私はあの動画が大好きです。

I love the pixel art.

私はピクセルアートが大好きです。

I love the theme of the fireworks and so many of them.

花火のテーマが大好きで、たくさんの花火があります。

There was one video in there where somebody was looking out a window with fireworks and there were little like transparent displays around there like feature.

その中には、誰かが窓から花火を見ていて、周りに透明なディスプレイがあるような映像がありました。

Oh man, I think we've got a freaking task ahead of us to try to figure out which video is going to be the winner among those.

まあ、どの動画が勝者になるのかを決めるのは、私たちにとって本当に大変な課題だと思います。

So, thank you so much for participating in that contest, sharing them in the Discord.

だから、そのコンテストに参加してくれて本当にありがとう。Discordでそれらを共有してくれてありがとう。

We're going to narrow it down a little bit, somehow pick our favorites, and then let the community pick the winner.

私たちは少し絞り込んで、お気に入りを選び、その後コミュニティに勝者を選んでもらいます。

So, thanks again.

だから、再びありがとう。

And if you're not in the Discord, get in.

もしもあなたがDiscordに入っていないなら、入ってください。

Because, we're doing contests like this constantly and giving away cool gadgets, access to software, and cash prizes.

なぜなら、私たちはこうしたコンテストを頻繁に行い、かっこいいガジェット、ソフトウェアへのアクセス、そして現金賞をプレゼントしているからです。

And by cash, I mean I'll PayPal you.

現金と言っても、私がPayPalで支払います。

We're doing some really cool stuff in the Discord.

私たちはDiscordで本当にクールなことをやっています。

You guys do impressive work.

みなさんは素晴らしい仕事をしています。

We've got a talented community in there.

私たちのコミュニティには才能ある人々がいます。

So, thank you again for submitting.

だから、再び提出してくれてありがとう。

That was awesome.

それは素晴らしかったです。

I am going to be at South by Southwest out in Austin on March 12th and 13th for this content hacker live event.

私は3月12日と13日にオースティンで開催されるSouth by Southwestに参加します。

We're doing a whole VIP experience on March 12th where myself and a handful of other really smart futurist people are all going to be on stage for hours sharing our thoughts on content creation and the future of marketing and the future of AI and where all of this is heading and how you can use it in your business and your content creation process.

3月12日には、私自身と他の数人の未来派のスマートな人々がステージに立ち、数時間にわたってコンテンツの作成、マーケティングの未来、AIの未来、そしてこれらすべてがどこに向かっているのか、それをビジネスやコンテンツの制作プロセスでどのように活用できるのかについての考えを共有します。

It's going to be a really, really fun night.

それは本当に楽しい夜になるでしょう。

And if you're out in Austin for South by Southwest, you're going to want to attend this.

もしもあなたがSouth by Southwestのためにオースティンにいるのなら、ぜひ参加してください。

If you're thinking about going to Austin for South by Southwest, make sure you get yourself set up pretty soon because those hotels do book up quick.

South by Southwestのためにオースティンに行く予定なら、早めにホテルの予約をしてください。すぐに埋まってしまいますから。

Again, the event's called content hacker live.

イベントの名前は「content hacker live」と言います。

I'll make sure the Link's in the description if you're interested in learning more about it.

詳細については、リンクを説明欄に記載しますので、興味があればご覧ください。

It's going to be a fun evening and I'm hoping to meet some of you in person.

楽しい夜になることを期待していますし、皆さんの中のいくつかにお会いできることを願っています。

But that's what I got for you today.

しかし、今日はこれでおしまいです。

Thank you so much for tuning in.

ご視聴いただき、本当にありがとうございました。

If you have already, check out Future Tools.

もしまだであれば、Future Toolsをチェックしてみてください。

I curate all of the coolest AI tools that I come across on this website every single day.

私はこのウェブサイトで、毎日出会った最もクールなAIツールを厳選しています。

I curate all of the most interesting news in the AI world, and I have a free newsletter where I will just send you the coolest tools and the most important news in the AI world every single week.

AIの世界で最も興味深いニュースも厳選していますし、無料のニュースレターもあります。そこでは、毎週最もクールなツールと最も重要なAIのニュースをお送りします。

And when you sign up, I'm going to give you free access to the AI income database.

そして、登録すると、AI収入データベースへの無料アクセスをプレゼントします。

It's a whole database of interesting ways to use AI to generate some side hustle income, just a cool little free bonus for joining the newsletter.

それは、AIを使って副業の収入を得るための興味深い方法がまとめられたデータベースです。ニュースレターに参加してくれたお礼のちょっとしたボーナスです。

You'll get it immediately after signing up, and you can find it all over at futuretools.io.

登録後すぐに入手できますし、すべてはfuturetools.ioで見つけることができます。

Thanks again for tuning in.

再びご視聴いただき、ありがとうございました。

If you love staying in the loop with AI news, AI tools, you want some AI tutorials, make sure you like this video and you subscribe to this channel because I'm making videos like this constantly.

AIのニュースやAIのツールについて常に最新情報を知りたい場合は、この動画を「いいね」し、チャンネルに登録してください。私は常にこのような動画を作っています。

I'm doing my best to keep you in the loop, keep you informed, keep you educated, and I just love nerding out about this stuff.

あなたを最新情報でお知らせし、教育するために最善を尽くしていますし、このようなことについて熱く語るのが大好きです。

So once again, thanks for tuning in.

だから、再びご視聴いただき、ありがとうございました。

I shoot these on Thursdays, release them on Fridays, so there's probably AI news that I missed, but if I did, I'll try to get it into next week's news video.

私は木曜日に撮影し、金曜日に公開していますので、私が見逃したAIのニュースがあるかもしれませんが、もし見逃していたら、次の週のニュース動画に入れるようにします。

I really, really appreciate you.

本当に、本当に感謝しています。

Thanks again to HubSpot for sponsoring this video, and I'll see you all in the next one.

この動画のスポンサーであるHubSpotにも再び感謝します。次の動画でお会いしましょう。

Bye-bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?