見出し画像

【マット・ウルフのAIニュース:より便利になったチャットツール】英語解説を日本語で読む【2024年6月29日|@Matt Wolfe】

最近、AIに関するニュースが急増しており、特に注目すべきはAnthropic社のClaudeが新機能を追加したことです。Claudeでは、Projectsと呼ばれる新機能が導入され、ユーザーはファイルをアップロードして常に同じ情報を基に対話できます。Projectsは他のチームメンバーと共有可能で、UIも改善されました。また、設定変更やお気に入りチャットの星付けも簡単にできるようになっています。さらに、GoogleもGemini 1.5 Proという新モデルを発表し、これには200万のコンテキストウィンドウが特徴で、非常に大きなデータセットと対話が可能です。OpenAIからは、CriticGPTと呼ばれる新モデルがトレーニングされ、ChatGPTのコード出力のエラーを検出する機能が備わっています。AI技術はメディアとの関係も変えており、Time誌はOpenAIとの戦略的パートナーシップを結び、過去101年間のアーカイブへのアクセスをOpenAIに提供しました。また、ElevenLabsはテキストをリアルな音声に変換する新しいリーダーアプリを発表し、Character.aiはAIアバターとの電話会話機能を追加しました。その他、AI音楽ツールやビデオ編集ツールの進化も目覚ましく、SynthesiaやCaptionsといった企業から新機能が発表されました。最後に、Googleは新しい言語をGoogle Translateに追加する計画を発表し、これにはAI技術が用いられています。
公開日:2024年6月29日
※動画を再生してから読むのがオススメです。


There has been a ton of AI news this week, and I don't want to waste your time, so let's just get right into it.

今週はたくさんのAIニュースがありましたが、あなたの時間を無駄にしたくないので、すぐに始めましょう。

Starting with the fact that Anthropic's Claude rolled out even more cool features.

AnthropicのClaudeがさらにクールな機能を展開したという事実から始めます。

You can now create what they call projects, and a project is kind of similar to a custom GPT over on ChatGPT.

今、彼らがプロジェクトと呼ぶものを作成できます。プロジェクトは、ChatGPT上のカスタムGPTに似ています。

You can upload a whole bunch of files for context, and then every time you log into that project and have a chat with it, it's going to use that same uploaded information every single time.

コンテキストのためにたくさんのファイルをアップロードでき、そしてそのプロジェクトにログインしてチャットするたびに、毎回同じアップロードされた情報を使用します。

You can even give it custom instructions, so it knows how to handle any prompts that you enter into this specific project.

さらに、カスタムな指示を与えることもできます。そのため、この特定のプロジェクトに入力したプロンプトをどのように処理するかを知っています。

They added the ability to share projects with other team members, and it also got a slight user interface update.

彼らは他のチームメンバーとプロジェクトを共有する機能を追加し、またわずかなユーザーインターフェースの更新も行われました。

We can see our standard chat box here, select our model here, use any of the projects we created by clicking on this little projects drop down here, and we can see all of our recent chats here.

ここには標準のチャットボックスが表示され、ここでモデルを選択し、ここで小さなプロジェクトのドロップダウンをクリックすることで作成したプロジェクトを使用できます。また、ここで最近のチャットをすべて見ることができます。

You'll notice your profile button is no longer up here in the top right of the screen.

画面右上にプロフィールボタンがなくなったことに気づくでしょう。

Instead, if you move your mouse to the left of the screen, the sidebar automatically pops in.

代わりに、画面の左側にマウスを移動すると、サイドバーが自動的に表示されます。

We can see all of our recent chats here.

ここで最近のチャットをすべて見ることができます。

You have the ability to star chats that you come back to often.

あなたはよく戻ってくるチャットに星を付ける能力を持っています。

We can access our projects through here as well, and if you need to change any of your settings on your account, your profile link is now in the bottom left.

ここからプロジェクトにアクセスすることもでき、アカウントの設定を変更する必要がある場合は、プロフィールリンクが今は左下にあります。

I can click here and access settings, change the appearance, go to the feature preview, and turn the new artifacts feature on or off.

ここをクリックして設定にアクセスし、外観を変更したり、機能プレビューに移動したり、新しいアーティファクト機能をオンまたはオフにしたりすることができます。

We talked about that last week.

私たちは先週それについて話しました。

It's a new sort of right side window of your screen that shows the sort of code output and things like that, that you do with Claude.

それは、画面の右側に表示されるコードの出力などを示す新しい種類のウィンドウで、あなたがClaudeと一緒に行うようなことを示します。

If you want to use Claude collaboratively with team members, you can also upgrade to a team plan over here, but let's go ahead and play with projects real quick and see what it's capable of.

Claudeをチームメンバーと協力して使用したい場合は、こちらでチームプランにアップグレードすることもできますが、まずはプロジェクトを作成して、その機能を確認してみましょう。

We can create a project up here in the top right, name the project.

右上にプロジェクトを作成できます。プロジェクトに名前を付けましょう。

I'll name it research papers and I'll give it the description, analyze and respond to questions about uploaded research papers and create our project.

私はそれを研究論文と名付け、アップロードされた研究論文に関する質問に分析し、回答し、プロジェクトを作成します。

We have our project window here and we can set some custom instructions.

ここにプロジェクトウィンドウがあり、カスタム指示を設定できます。

I'll tell it to answer any questions I have as concisely as possible about the research papers that are within the project knowledge, start every response with no problem, Matt.

プロジェクト内の知識にある研究論文についてできるだけ簡潔に質問に答えるように指示します。すべての回答を「問題ありません、マット」と始めるようにします。

We'll go ahead and save the instructions here.

ここに指示を保存しておきます。

I have a handful of research papers that I've downloaded and saved.

私はダウンロードして保存した研究論文がいくつかあります。

Let's go ahead and grab a few of them, dump them into our knowledge base like this.

これらのうちいくつかを取得して、このように知識ベースに投入しましょう。

You can see I've uploaded six PDFs here of various research papers and I've used 80% of the knowledge size.

さまざまな研究論文のPDFを6つアップロードしており、知識サイズの80%を使用しています。

They give you a maximum of 30 megabytes.

最大30メガバイトまで利用できます。

It's not based on how many files, but the size of the overall knowledge base you're uploading.

ファイルの数ではなく、アップロードする全体の知識ベースのサイズに基づいています。

Let's go ahead and ask what papers are available inside my project knowledge.

さあ、私のプロジェクト知識の中にどんな論文があるか尋ねましょう。

It starts with no problem, Matt.

問題なく始めましょう、マット。

The papers are available inside your project knowledge are generative agents, interactive simulacra of human behavior, game-based platforms, et cetera, et cetera.

あなたのプロジェクト知識の中にある論文は、生成エージェント、人間の行動のインタラクティブなシミュラクラ、ゲームベースのプラットフォームなどです。

We can say what correlations can you find between these papers?

これらの論文の間にどんな相関関係が見つかるかを言えますか?

No problem, Matt.

問題ありません、マット。

The main correlations between these papers are AI and machine learning.

これらの論文の主な相関関係はAIと機械学習です。

All papers are focused on advanced AI and machine learning techniques, generative models, papers one, four, and five deal with generative AI models, particularly diffusion models, papers one and two emphasize interactive AI models.

すべての論文は高度なAIと機械学習技術、生成モデルに焦点を当てており、論文1、4、5は生成AIモデル、特に拡散モデルに取り組んでおり、論文1と2は対話型AIモデルを強調しています。

It found the relationships between these five documents that I uploaded.

私がアップロードしたこれらの5つの文書の関係を見つけました。

What's cool is if I come back to my homepage on Claude and I want to use that same set of knowledge that I've already updated, I can just click use project click on the research papers.

面白いのは、Claudeのホームページに戻って、すでに更新した同じ知識を使用したい場合、研究論文をクリックしてプロジェクトを使用するだけで済むことです。

You can see that it is set to the research papers project and any prompt that I give it here will reference that knowledge that I already uploaded as well as the custom instructions that I gave it.

ここで設定されているのは、研究論文プロジェクトであり、私がここで与えるプロンプトは、すでにアップロードした知識と私が与えたカスタム指示を参照します。

This to me seems really handy, especially combined with the artifacts feature, which I showed off in last Friday's video.

私にとって、これは本当に便利に思えます。特に、先週金曜日のビデオで披露したアーティファクト機能と組み合わせた場合です。

But just as a quick reminder of this new artifacts feature, I can type something like create the HTML for a sales page about surfboards.

この新しいアーティファクト機能の簡単なリマインダーとして、例えばサーフボードについてのセールスページのHTMLを作成するといったことを入力できます。

You'll notice it opens up a new right-hand side of my screen where it actually writes all of the code.

画面の右側が新しく開いて、実際にすべてのコードを書いていますので、お気づきになるでしょう。

I can continue to have conversations on the left while the code is generated on the right.

コードが右側で生成される間、左側で会話を続けることができます。

I can actually preview the website.

実際にウェブサイトのプレビューができます。

It generated right here on the right flip between the code and the website preview without ever actually leaving Claude.

コードとウェブサイトのプレビューを右側で切り替えることができ、実際にClaudeを離れることなく生成されます。

I don't know about you, but I really feel like these new features in Claude make it really, really useful.

あなたはどうかわかりませんが、私はClaudeのこれらの新機能が本当に、本当に役立つと感じています。

Google also made a bunch of updates and announcements this week, including the fact that Gemini 1.5 Pro has a 2 million context window.

Googleも今週、Gemini 1.5 Proが200万のコンテキストウィンドウを持つことなど、多くの更新と発表を行いました。

That's a combined 1.5 million words between the amount of text inputted and outputted back to you.

入力されたテキストの量とあなたに返されるテキストの合計で150万語が組み合わされています。

The entire set of Harry Potter books is about 1.1 million words.

ハリーポッターシリーズ全体の単語数は約110万語です。

The entire set of game of Thrones books, a song of fire and ice are roughly 1.7 million words.

ゲームオブスローンズシリーズ全体、炎と氷の歌はおおよそ170万語です。

You can almost upload that entire series of books and have conversations with it.

その全シリーズの本をほぼすべてアップロードして、それと会話をすることができます。

That's how large this model is.

このモデルの規模がどれほど大きいかというと、そういうことです。

It's basically to a point where context windows are no longer really an issue.

基本的に、文脈ウィンドウがもはや本当に問題ではないレベルに達しています。

If you're willing to use Gemini 1.5 Pro right now.

もし今すぐGemini 1.5 Proを使用することにご興味があるのであれば、

Gemini already let us have a 1 million token context window.

Geminiはすでに100万トークンのコンテキストウィンドウを提供してくれています。

I would say probably 99.9% of people didn't even need that large of a context window, a 2 million context window, while a huge leap and insane that we can do it, probably still not going to be applicable to most people, but still a really killer feat.

おそらく99.9%の人々はそのように大きなコンテキストウィンドウを必要としないでしょう。200万のコンテキストウィンドウは、大きな進歩であり、それが可能であることは狂気だと言えますが、おそらくほとんどの人々には適用されないでしょう。それでも、本当に素晴らしい偉業です。

Gemini 1.5 Pro can also execute code now as well.

Gemini 1.5 Proは今、コードの実行も可能です。

The Gemma 2 open source model from Google was also made available this week.

GoogleからのGemma 2オープンソースモデルも今週公開されました。

Based on the benchmark tests here, we can see that this new Gemma 2 model, both the 9 billion parameter model and the 27 billion parameter model outperform LLaMA 3 in most benchmarks as well as Grok in most benchmarks.

こちらのベンチマークテストに基づくと、新しいGemma 2モデル、9兆パラメータモデルと27兆パラメータモデルの両方が、LLaMA 3やGrokを多くのベンチマークで上回っていることがわかります。

This week, Google also announced that 110 new languages are coming to Google Translate.

今週、GoogleはGoogle翻訳に110の新しい言語が追加されることも発表しました。

They're using AI to add these new languages, including Cantonese and Co.

彼らはAIを使用して広東語やCoなどの新しい言語を追加しています。

I don't know how to pronounce that.

それの発音の仕方はわかりません。

Tamazight, who's also announced this week that Google is rolling out their sidebar inside of Gmail.

また、今週、GoogleがGmail内にサイドバーを展開していることを発表したタマジクトもいます。

We can see their example here.

彼らの例をここで見ることができます。

The Gmail window is on the left and on the right.

Gmailウィンドウは左側にあり、Geminiは右側に表示されます。

Gemini pops out and offers the ability to summarize conversations, show me emails that are unread, draft an email, or get more suggestions.

Geminiがポップアップして、会話を要約したり、未読のメールを表示したり、メールの下書きを作成したり、さらなる提案を受け取ることができます。

But basically it opens up a chat window that can interact directly with your Gmail emails.

基本的には、Gmailのメールと直接やり取りできるチャットウィンドウが開きます。

It looks like in order to use it, you've got to be a Gemini business or enterprise, Gemini education, or have the Google 1 AI premium.

それを使用するには、Geminiビジネスまたは企業、Gemini教育、またはGoogle 1 AIプレミアムを持っている必要があるようです。

We can see that the rollout's already started.

展開は既に始まっていることがわかります。

I checked my own Gmail.

自分のGmailをチェックしました。

I don't have it yet.

まだ持っていません。

I am a Google 1 subscriber.

私はGoogle 1の加入者です。

As soon as I have it available, I'll show it off.

手に入り次第、それを披露します。

Moving on to OpenAI news, it was announced this week that that advanced voice assistant, you know the one they demoed several weeks back that they got in trouble for because it sounded a little too much like Scarlett Johansson, but everybody thought the feature was really cool.

OpenAIのニュースに移りますが、今週、先週数週間前にデモを行い、スカーレット・ヨハンソンに似すぎて問題になった進化した音声アシスタントが発表されましたが、みんなその機能が本当にクールだと思っていました。

They've decided to push it out even further.

彼らはさらに進展させることを決定しました。

They say they had planned to start rolling this out in alpha to a small group of ChatGPT Plus users in late June, but need one more month to reach our bar to launch.

彼らは、6月下旬にChatGPT Plusの一部のユーザーにアルファ版を提供する予定だったが、立ち上げの基準に達するために1か月追加が必要だと述べています。

They're improving the model's ability to detect and refuse certain content.

モデルの特定のコンテンツを検出して拒否する能力を向上させています。

They're also working on improving the user experience and preparing their infrastructure to scale to millions while still being able to maintain real-time responses.

彼らはユーザーエクスペリエンスの向上と、数百万人規模にスケールするためのインフラ準備に取り組んでいますが、依然としてリアルタイムの応答を維持することができます。

However, it does appear that some people have been starting to get access to it.

ただし、いくつかの人々がそれにアクセスし始めているようです。

I came across this X post here that shows that it even generates background sound effects while narrating.

ここで見つけたXの投稿では、語りながら背景音効を生成することさえ示しています。

It appears that somebody asked it to tell it a story.

誰かがそれに物語を語るように頼んだようです。

In the story actually included sound effects.

物語には実際に効果音が含まれていました。

One night a storm rolls in thunder, lightning, the whole shebang, a couple of teens trying to be brave or just plain stupid decided to check out the house during the storm.

ある夜、嵐が雷と稲妻を伴ってやってきました。勇敢を装ったり、単に愚かなティーンエイジャーのカップルが、嵐の中で家を調査することに決めました。

They sneak in through a broken window and start exploring with nothing but a flashlight and their phones for light.

彼らは壊れた窓から忍び込み、懐中電灯と携帯電話の光だけを頼りに探検を始めました。

Pretty crazy as it's telling the story you hear like thunder going on in the background.

背景で雷のような音が聞こえる中、かなりクレイジーな状況です。

OpenAI also announced that they trained a new model based on GPT-4 called CriticGPT.

OpenAIはまた、GPT-4に基づいた新しいモデルであるCriticGPTを訓練したことを発表しました。

It's basically designed to catch errors in ChatGPT's code output.

基本的には、ChatGPTのコード出力のエラーをキャッチするために設計されています。

We can see in their example here that they're asking it to write a Python function.

彼らの例をここで見ると、Pythonの関数を書くように要求しています。

It writes the Python function and then CriticGPT, then reviews the Python function and points out any issues with it.

Pythonの関数を書いた後、CriticGPTがそのPythonの関数をレビューし、問題点を指摘します。

You can see that in this specific function, it points out that checking if an absolute path of a file is within a directory by using starts with is insecure.

この特定の関数では、ファイルの絶対パスがディレクトリ内にあるかどうかをstarts withを使用してチェックすることは安全ではないことが指摘されています。

Users could exploit this with SIM links or by naming directories similarly.

ユーザーはSIMリンクを利用したり、ディレクトリを同様に命名することでこれを利用することができます。

It does say that CriticGPT suggestions are not always correct, but we find that they can help trainers to catch many more problems with model written answers than they would without AI help.

CriticGPTの提案が常に正しいとは限らないと述べていますが、私たちは、AIの支援なしで行うよりも、CriticGPTの提案がモデルの回答に含まれる多くの問題をトレーナーが見つけるのに役立つことがわかります。

I'm not sure exactly when this is going to be available for everybody to use in their blog post here.

具体的にいつこれがここでのブログ投稿で利用可能になるかはまだわかりません。

They say we're planning to scale this work further and put it into practice.

この作業をさらに拡大し、実践に移す計画だと言っています。

The Mac desktop app is now available for all users.

Macデスクトップアプリはすべてのユーザーに利用可能です。

I did actually make a tutorial on how to use this desktop app.

実際にこのデスクトップアプリの使い方についてチュートリアルを作成しました。

If you want to learn how to use it yourself, if you were a plus user, you've probably already had access to it and been able to use it.

自分で使い方を学びたい場合、プラスユーザーであれば、おそらくすでにアクセス権を持っており、使用することができていたかもしれません。

But now if you're a free ChatGPT user, you can now download the Mac app and use it as well.

しかし、今では無料のChatGPTユーザーでも、Macアプリをダウンロードして使用することができます。

If you press option plus space bar, it opens up a little chat box kind of like the spotlight window that you already have in your Mac, except whatever you type into it will ask the question or give the prompt to ChatGPT.

Optionキーとスペースバーを押すと、スポットライトウィンドウのような小さなチャットボックスが開きますが、Macにすでにあるものとは異なり、入力した内容はChatGPTに質問をしたりプロンプトを与えたりします。

Speaking of ChatGPT and their desktop app, OpenAI actually purchased another company this week.

ChatGPTとそのデスクトップアプリについて話すと、OpenAIは実際に今週別の会社を買収しました。

They bought a remote collaboration platform called multi.

彼らは、multiというリモートコラボレーションプラットフォームを購入しました。

If you're not familiar with multi it's a collaboration software where somebody can actually share their screen and work collaboratively on the same desktop.

もしmultiに慣れていないなら、それは実際に誰かが自分の画面を共有し、同じデスクトップで共同作業を行うコラボレーションソフトウェアです。

You can see it's got shared cursors and drawing simultaneous screen sharing.

共有されたカーソルや同時に描画される画面共有ができます。

You can click and type into somebody else's app.

他の人のアプリにクリックして入力することができます。

This is owned by OpenAI.

これはOpenAIが所有しています。

It's not too hard to see where OpenAI is likely going with this.

OpenAIがこれをどのように活用する可能性があるかは、それほど難しくはありません。

We might see a future where when we run into a problem on our computer, we hand over control to ChatGPT.

将来、コンピュータで問題に遭遇したときに、制御をChatGPTに委ねることができるかもしれません。

It views your screen and then collaboratively solves the problem with you.

ChatGPTはあなたの画面を表示し、共同で問題を解決します。

Imagine this if you're a coder as well and you're having ChatGPT write the code.

もしもあなたがコーダーであり、ChatGPTにコードを書かせている場合を想像してみてください。

You're opening up the output of the code, and it's not working properly.

コードの出力を開いてみると、正しく動作していないことがあります。

ChatGPT will likely in the future be able to see your screen, offer suggestions, and point out solutions, and likely even iteratively update the code based on what it's seeing on the screen.

ChatGPTは将来、おそらく画面を見ることができ、提案を提供し、解決策を指摘し、おそらくは画面で見ている内容に基づいてコードを反復的に更新することができるでしょう。

I'm just speculating here, but to me, this seems like the logical conclusion of where OpenAI is probably going with this.

ここでは推測の域を出ませんが、私にとっては、OpenAIがおそらくこれに向かっているという論理的な結論のように思えます。

Toys R Us this week, which I didn't even know still existed, leveraged OpenAI's Sora to make a brand new Toys R Us commercial.

今週、私がまだ存在しているとは知らなかったトイザらスは、OpenAIのSoraを活用して全く新しいトイザらスのCMを制作しました。

But here's a peek at what the actual ad looks like.

しかし、実際の広告がどのように見えるかをご覧いただけます。

Did you ever wonder how Toys R Us and Jeffrey the giraffe came to be the son of a bike shop owner?

トイザらスとジェフリー・ザ・ジラフが自転車店の息子になった経緯について、あなたは考えたことがありますか?

Charles Lazarus had a vision that would go on to change toy stores forever.

チャールズ・ラザルスは、おもちゃ店を永遠に変えるビジョンを持っていました。

That's just a snippet of the commercial.

それは広告の一部分に過ぎません。

It's not the whole thing, but opinions have been very mixed on it.

全体ではありませんが、それに対する意見は非常に分かれています。

A lot of people hate the fact that companies are using AI to create commercials, and a lot of people are talking about how maybe this is the future of commercials.

多くの人々が企業がAIを使用して広告を作成していることを嫌っており、多くの人々がこれが広告の未来かもしれないと話しています。

Also, it hasn't been claimed that a hundred percent of this commercial was made with AI, but we do know that a large majority of it was created with Sora.

また、この広告の100%がAIで作成されたと主張されているわけではありませんが、その大部分がSoraを使用して作成されたことはわかっています。

I'm sure somebody came back in and did some editing and cleanup on it.

きっと誰かが戻ってきて編集やクリーンアップをしたと思います。

Today's video is sponsored by LTX Studio, which is perfect because they recently rolled out a bunch of new updates.

今日のビデオはLTX Studioの協賛であり、最近たくさんの新しいアップデートがリリースされたので、完璧です。

This new pack of updates is called visions.

この新しいアップデートパックは「visions」と呼ばれています。

This update gives you a ton more flexibility over creating your videos, like the ability to completely start from scratch with a new video or paste in a script and let LTX Studio make the video based on your script.

このアップデートにより、ビデオの作成についてより柔軟性が増し、新しいビデオを完全にゼロから始めることや、スクリプトを貼り付けてLTX Studioにスクリプトに基づいてビデオを作成させることができます。

With my script broken down into scenes, I can simply click start.

私のスクリプトがシーンに分割されているので、単にスタートをクリックするだけで済みます。

In less than a minute, I have a complete storyboard created from the script that I just uploaded.

わずか1分以内に、私はちょうどアップロードした台本から作成された完全なストーリーボードを持っています。

But check this out.

でも、これを見てください。

Maybe I want to turn my whole video into a completely different style.

もしかしたら私は自分のビデオ全体をまったく異なるスタイルに変えたいかもしれません。

As part of the new visions update, I have the ability to drag and drop an image like this into the style reference in LTX Studio.

新しいビジョンズアップデートの一環として、私はLTX Studioのスタイルリファレンスにこのような画像をドラッグアンドドロップする能力を持っています。

Watch as it reworks my entire storyboard to match that new style that I just uploaded.

新しくアップロードした新しいスタイルに合わせて、私の全体のストーリーボードを再構築する様子を見てください。

Once I'm happy with every single shot in every single scene of my video, I can generate each video clip individually, or I can come up here to export and click generate missing shots to generate the entire video all at once.

ビデオの各シーンの各ショットに満足したら、各ビデオクリップを個別に生成することもできますし、ここでエクスポートして「欠落しているショットを生成」をクリックして一度に全体のビデオを生成することもできます。

They also rolled out a pitch deck feature with this latest update, where you can export your entire storyboard and it will turn it into a beautiful pitch deck that you can use to sell the story that you're creating here.

また、この最新のアップデートでピッチデッキ機能も導入され、全体のストーリーボードをエクスポートすると、それを美しいピッチデッキに変換して、ここで作成しているストーリーを売るために使用できます。

This is just scratching the surface of what you can do with LTX Studio.

これはLTX Studioでできることの一部に過ぎません。

It'll also create voiceovers, create a musical soundtrack, allow you to use a consistent character throughout your video, edit the location, the lighting, and the weather of every single scene, and so much more.

また、ナレーションを作成したり、音楽のサウンドトラックを作成したり、ビデオ全体で一貫したキャラクターを使用したり、各シーンの場所、照明、天候を編集したり、さらに多くのことができます。

It's actually a pretty impressive suite of AI video editing tools.

実際、これはかなり印象的なAIビデオ編集ツールのスイートです。

You can join the waitlist for LTX Studio today by clicking the link in the description below.

以下の説明文のリンクをクリックして、今日LTX Studioの待機リストに参加できます。

They're accepting users now.

彼らは現在ユーザーを受け入れています。

Thank you so much to LTX Studio for sponsoring this video and even more OpenAI news.

このビデオのスポンサーであるLTX Studioに、そしてさらにOpenAIのニュースに感謝します。

They partnered with Time magazine on a strategic content partnership.

彼らはTime誌と戦略的なコンテンツパートナーシップを組んだ。

Time and OpenAI announced a multi-year content deal and strategic partnership to bring Time's trusted journalism to OpenAI's products, including ChatGPT.

TimeとOpenAIは、Timeの信頼できるジャーナリズムをChatGPTを含むOpenAIの製品にもたらすための複数年のコンテンツ契約と戦略的パートナーシップを発表した。

OpenAI will gain access to current and historic content from Time's extensive archives from the last 101 years.

OpenAIは、過去101年間のTimeの広範なアーカイブから現在のコンテンツや歴史的なコンテンツにアクセスすることができる。

The partnership will also enable Time to gain access to OpenAI's technology to develop new products for its audiences.

このパートナーシップにより、TimeはOpenAIの技術にアクセスして、自身の観客向けに新しい製品を開発することができるようになる。

It is very interesting to me how the sort of media narrative has really shifted lately.

最近、メディアの物語が本当に変化しているのは非常に興味深いです。

Obviously, the New York Times is still in the middle of a lawsuit with OpenAI, but almost all of the other media companies are coming out and saying, We're partnering with OpenAI, we're partnering with OpenAI.

明らかに、ニューヨーク・タイムズはまだOpenAIとの訴訟の最中ですが、ほとんどの他のメディア企業はOpenAIと提携していると発表しています。

But in the early days, most of these media companies were really, really resistant to this AI technology, saying, Why would people come and read our websites anymore if they can just go talk to ChatGPT?

しかし、初期の段階では、これらのほとんどのメディア企業はこのAI技術に非常に抵抗しており、「ChatGPTと話すことができるなら、なぜ人々が私たちのウェブサイトを読みに来るのか」と言っていました。

We know that ChatGPT most likely trained on all of this data from all of these sites.

ChatGPTはおそらくこれらすべてのサイトからのデータでトレーニングされていることを知っています。

ChatGPT is getting ahead of even more potential lawsuits by partnering up with a lot of these companies that create this content so that there is still some sort of incentive for all of these companies to continue to create content, report on the news, do deep dive research.

ChatGPTは、このコンテンツを作成する多くの企業と提携することで、さらなる潜在的な訴訟に先んじています。これにより、これらの企業が引き続きコンテンツを作成し、ニュースを報道し、深い調査を行うための何らかのインセンティブが残されるようにしています。

Even if people find that information through OpenAI, it's still in some ways going to benefit the media house because OpenAI is apparently licensing this content in some way.

人々がOpenAIを通じてその情報を見つけても、OpenAIがどうやらこのコンテンツをある程度ライセンス供与しているため、メディアハウスには何らかの利益があると言えるでしょう。

That wasn't the only partnership that Time made this week.

今週、Timeが結んだ提携はそれだけではありませんでした。

Time also partnered with ElevenLabs, the company that does really realistic text-to-speech.

Timeはまた、非常にリアルなテキスト読み上げを行う企業であるElevenLabsと提携しました。

Apparently, Time is trying to go audio-native.

どうやら、Timeはオーディオに特化しようとしているようです。

Basically, it looks like if you go to the Time website, they're going to have embedded audio players with realistic voiceovers that you can just click play on.

基本的に、Timeのウェブサイトにアクセスすると、リアルなナレーションが付いた埋め込みオーディオプレーヤーがあり、再生ボタンをクリックするだけで再生できるようです。

It's going to sound like a real human is reading that Time article back to you.

そのTimeの記事を読み返しているかのように、本当の人間が読んでいるように聞こえるでしょう。

Here's an actual example that's live right now on the Time website.

現在Timeのウェブサイトでライブで見られる実際の例をご紹介します。

If I scroll down, we can see this player here.

下にスクロールすると、このプレーヤーが表示されます。

If I press play, headline, We are the world power.

再生ボタンを押すと、見出しは「私たちは世界の覇権です」。

How Joe Biden leads by author Massimo Calabresi, Salish Washington.

ジョー・バイデンがマッシモ・カラブレーシ、サリッシュ・ワシントンによってリードしている方法。

You can read the transcript of the interview here and the fact check here.

こちらでインタビューの記録を読むことができますし、事実を確認することもできます。

We can see in the corner, it's got the ElevenLabs link.

画面の隅には、ElevenLabsのリンクが表示されています。

In the future, I think most websites are probably going to go this direction, not just Time.

将来、私はほとんどのウェブサイトがこの方向に進むと思います。Timeだけでなく。

I think even like WordPress blogs and things like that, you're going to see a lot more and more of them integrate tech from companies like ElevenLabs.

WordPressのブログなどでも、ElevenLabsのような企業のテクノロジーがますます多く統合されるのを見るでしょう。

You have the option to either read the article or blog posts or listen to it in a realistic voice.

記事やブログ投稿を読むか、リアルな声で聞くかの選択肢があります。

ElevenLabs even allows you to do things like train your own voice into the system.

ElevenLabsでは、自分の声をシステムにトレーニングするなどのこともできます。

When I create blog posts, you might be able to go to that blog post, press play on it, and hear the blog post as if it was read by me, which is pretty cool.

私がブログ投稿を作成するとき、そのブログ投稿に行って再生ボタンを押すと、私が読んだかのようにブログ投稿を聞くことができるかもしれません。それはかなりクールです。

That's not the only news we got out of ElevenLabs this week.

それが今週のElevenLabsから得た唯一のニュースではありません。

They also introduced a new reader app where you can listen to any text on the go with the highest quality voices.

彼らはまた、最高品質の声でいつでもテキストを聞くことができる新しいリーダーアプリを紹介しました。

It's ElevenLabs reader app lets you listen to any text content on the go.

ElevenLabsのリーダーアプリでは、移動中にどんなテキストコンテンツでも聞くことができます。

Any article, PDF, EPUB, newsletter, or any text on your phone can now be turned into an audio that you can listen to with a realistic voice.

記事、PDF、EPUB、ニュースレター、または携帯電話のどんなテキストでも、リアルな声で聞くことができるオーディオに変換できます。

The app is available right now on iOS and coming to Android really soon.

このアプリは現在iOSで利用可能であり、Androidにもすぐに登場します。

I haven't played around with it too much yet, but I am excited to use this to listen to a lot of the news articles and research papers that I've been meaning to get around to reading.

まだそれをあまり使っていませんが、これを使ってたくさんのニュース記事や研究論文を聞くことができるので、とても楽しみです。

Also this week, Character.ai rolled out a new feature that allows you to talk to the AI avatars.

今週も、Character.aiは新機能を導入しました。この機能により、AIアバターと会話することができます。

Character.ai is a very interesting company.

Character.aiは非常に興味深い会社です。

They are huge, especially among the younger demographics.

特に若い世代の間で非常に人気があります。

Character.ai is probably the most popular AI tool for younger generations, but they just rolled out this feature where you can have phone calls essentially with fictional AI characters.

Character.aiはおそらく若い世代向けの最も人気のあるAIツールですが、最近、架空のAIキャラクターと実質的に電話で会話できる機能を導入しました。

If, for example, I wanted to have a conversation with Spiderman, I can try with voice, ask it something like, What's your favorite food?

例えば、スパイダーマンと会話したい場合、声で試して、「好きな食べ物は何ですか?」などと尋ねることができます。

Oh man, that's tough.

ああ、それは大変ですね。

I love a good pizza.

私は美味しいピザが大好きです。

That's pretty much the standard, but I'll also never say no to dumplings or just generally spicy stuff.

それがほとんどの基準ですが、私は餃子や一般的に辛いものにも断ることはありません。

How about you?

あなたはどうですか?

This voice feature isn't a new feature.

この音声機能は新機能ではありません。

The new feature is that you can actually call and have this conversation over the phone.

新機能は、実際に電話で通話してこの会話をすることができるということです。

You can see here when I hover over this little phone icon, it says calls available on the app.

この小さな電話アイコンの上にカーソルを合わせると、アプリで通話が可能であると表示されます。

I'm not going to download the app to demonstrate it because I'll probably never use it again, but you get the idea.

私は再度使用することはないかもしれませんが、それを実証するためにアプリをダウンロードするつもりはありませんが、アイデアはわかります。

Same concept, just like you're on a phone call instead of in a text chat.

テキストチャットではなく、電話で通話しているような同じコンセプトです。

While we're on the topic of AI and audio, all those fun AI music tools that we've been playing with lately, Sony and Udio and things like that, well, the record labels are starting to sue those companies, claiming that they were trained on copyrighted music that they didn't have the right to use.

AIとオーディオの話題についてですが、最近遊んでいる楽しいAI音楽ツール、ソニーやUdioなど、レコードレーベルは、それらの企業を訴え始めています。彼らは、著作権のある音楽で訓練されたと主張し、使用する権利がなかったとしています。

This is sort of like a muddy area because they're going to claim that that was fair use.

これは、彼らがそれが合理的な使用だったと主張するだろうという点で、まるで泥のような領域のようです。

The record companies are going to fight that it was a massive infringement on copyright, but there really is no precedent for this yet.

レコード会社は、これが著作権の大規模な侵害だったと主張するでしょうが、実際にはこれに先例はまだありません。

It's going to be interesting to see how it plays out.

どのように展開されるかを見るのは興味深いでしょう。

If you want my opinion on it, I feel like the record labels are going to really, really be fighting for relevance in a world where anybody can kind of produce their own music these days, and record labels actually do less and less of the marketing for musicians.

私の意見を言えば、今日では誰でも自分の音楽を制作できる世界で、レコードレーベルが実際にはミュージシャンのためのマーケティングをますます少なく行う中で、レコードレーベルが存続を求めて本当に、本当に戦うことになると感じています。

I feel like record labels are losing relevance really, really quickly.

私は、レコードレーベルが非常に速く、本当に速く、関連性を失っていると感じています。

Some of these lawsuits are kind of them trying to stay relevant and grasp for the power and the control that they currently have, but it's going to be something fascinating to watch and see how it plays out because it is another area where I can kind of see both sides and understand the arguments on either side.

これらの訴訟のいくつかは、彼らが関連性を保ち、現在持っている権力とコントロールを掴もうとしているものですが、どのように展開するかを見守るのは非常に興味深いものになるでしょう。私は両方の側を見て、双方の主張を理解できる部分もあるので、興味深いと思います。

YouTube, on the other hand, is trying to avoid this exact scenario.

一方、YouTubeはこの具体的なシナリオを避けようとしています。

This week, it was announced that YouTube is trying to make AI music deals with the major record labels and get in front of this.

今週、YouTubeが主要なレコードレーベルとAI音楽取引をしようとしていることが発表されました。

According to the Financial Times, YouTube is offering to pay Universal Music Group, Sony Music Entertainment, and Warner Records lump sums of cash in exchange for licensing their songs to legally train its AI music tools.

Financial Timesによると、YouTubeは、Universal Music Group、Sony Music Entertainment、Warner Recordsに現金一括払いを提供し、彼らの楽曲のライセンスを取得してAI音楽ツールを合法的に訓練することを提案しています。

This apparently isn't for their existing Dream Track feature, but it's going to be used to train new AI tools that YouTube is planning to launch later this year.

これは既存のDream Track機能ではなく、YouTubeが今年後半に発売予定の新しいAIツールを訓練するために使用される予定です。

This is a flip side of the coin from the last article, which is going to be interesting to watch to see how this one plays out because if these record labels are willing to sign some of these licensing deals to allow music to be trained, well, then that could be the solution for companies like Suno and Udio.

前回の記事とは逆の側面ですが、これがどのように進展するかを見守るのは興味深いでしょう。なぜなら、これらのレコードレーベルがいくつかのライセンス契約に署名することを意欲的であれば、それはSunoやUdioのような企業にとって解決策となるかもしれません。

Go and agree to terms and get the licensing and make all this go away.

条件に同意し、ライセンスを取得して、これらすべてを解決してください。

We'll see how it plays out.

どのように進展するかを見守ります。

It's going to be interesting to watch nonetheless, and I'll do my best to stay looped in and tell you what's going on as this plays out.

それでも見るのは興味深いでしょうし、この展開が進むにつれて、最新情報をお伝えするために最善を尽くします。

This week, Figma had a big event called the Config Conference, and they made a whole bunch of AI announcements around what you can now do inside of Figma.

今週、FigmaはConfig Conferenceという大きなイベントを開催し、Figma内で今できることに関する多くのAI発表を行いました。

It also got a complete redesign and overhaul.

それは完全なリデザインとオーバーホールも行われました。

Figma is now going to be able to take text prompts and create designs from those text prompts.

Figmaは今、テキストプロンプトを受け取り、そのテキストプロンプトからデザインを作成することができるようになります。

They showed an example of how Figma could create an app design for a new restaurant.

彼らは、Figmaが新しいレストランのためのアプリデザインを作成する方法の例を示しました。

A few seconds after they typed the prompt, Figma mocked up an app with menu listings, a tab bar, and even buttons for delivery partners like Uber Eats and DoorDash.

プロンプトを入力してから数秒後、Figmaはメニューリスト、タブバー、さらにはUber EatsやDoorDashのような配達パートナーのためのボタンが付いたアプリをモックアップしました。

They claim it was a pretty generic mobile mockup, but it was better than starting from a blank slate.

彼らはそれがかなり一般的なモバイルモックアップだと主張していますが、それは真っ白なキャンバスから始めるよりも良かったです。

You were now able to edit and reconfigure the design based on the template that it created for you to start with.

今、あなたはテンプレートに基づいてデザインを編集し再構成することができます。

It can also add auto-generated text instead of using the generic lorem ipsum placeholder texts that people tend to use on websites, and it has a new AI-enhanced asset search to better help you find the various assets for designing your site.

ウェブサイトで一般的に使用されるロレムイプサムの代わりに、自動生成されたテキストを追加することもでき、新しいAI強化アセット検索機能もあり、サイトのデザインに必要なさまざまなアセットをより効果的に見つけるのに役立ちます。

Right now they're rolling this out as a beta feature, and it's free for Figma users in the beta mode, but eventually it is going to be a paid feature.

現在、これをベータ機能として展開しており、ベータモードのFigmaユーザーには無料ですが、最終的には有料機能になります。

The company Synthesia announced a handful of new updates this week.

Synthesia社は今週、いくつかの新しいアップデートを発表しました。

They're a company that makes these AI avatars that are kind of designed for having AI sales bots and things like that.

彼らは、AIセールスボットなどに適したAIアバターを作成する会社です。

Supposedly, the avatars are more expressive, showing excitement and doubt and fear and anger and things like that.

おそらく、アバターはより表現豊かで、興奮や疑念、恐怖、怒りなどを示すことができます。

They've also got what they call personal avatars, which can actually look like you and use your voice and sound like you, but also speak in other languages.

彼らはまた、個人用アバターと呼ばれるものを持っており、実際にあなたに似て見え、あなたの声を使い、あなたのように聞こえますが、他の言語でも話すことができます。

They're also adding the ability to do full-body avatars instead of just from the neck up and a handful of other features.

首から上だけでなく、全身のアバターを作成する機能や、その他のいくつかの機能も追加されています。

I'll link the entire YouTube video up if you want to learn more about what Synthesia is up to.

Synthesiaの最新情報を知りたい場合は、YouTubeの動画全体をリンクします。

A new AI video editing tool rolled out this week from the company Captions.

会社Captionsから今週新しく導入された新しいAIビデオ編集ツール。

You can use this tool and feed it a standard video, and it will edit the video with different backgrounds, make it look like you've got a green screen, add text like you're seeing on the screen right now, add stuff that looks like After Effects animations.

このツールを使用して、標準のビデオを入力すると、異なる背景でビデオを編集し、まるでグリーンスクリーンを使っているかのように見せることができます。また、画面に表示されているようなテキストを追加したり、After Effectsのアニメーションのようなものを追加したりすることができます。

It looks like a pretty cool tool.

かなりクールなツールのようですね。

I haven't played with this one myself yet, but I think this one might deserve another video in the future.

私自身はまだこのツールを使ったことがありませんが、将来的にこのツールについて別のビデオを作る価値があるかもしれません。

If it turns out to be a pretty cool tool, look out for that video later on, and we'll see how it does.

もしもかなりクールなツールだとわかれば、後でそのビデオをお楽しみにしていただき、その効果を確認しましょう。

A few months back, I talked about a tool called Magnific, which is this really good upscaler tool, but it kind of hallucinates extra stuff into the image and sort of adds this creative flair to the image.

数か月前に、Magnificというツールについて話しました。これは非常に優れたアップスケーリングツールですが、画像に余分なものを幻覚的に追加し、画像にクリエイティブな味付けを加える傾向があります。

They just rolled out this new relight feature, and it lets you take your images and sort of reimagine them.

彼らはちょうどこの新しい再点灯機能を導入しました。これにより、あなたは自分の画像を取り、それを再考することができます。

Like, for example, this thumbnail here of me holding up all these glasses, I reimagined it with me in outer space.

例えば、私がここで眼鏡を持ち上げているサムネイルを、私が宇宙空間にいるように再考しました。

Simply upload an image right here.

ここに画像をアップロードするだけです。

You have the option to transfer from a prompt, another reference image, or a light map, but let's just go ahead and do from a prompt.

プロンプト、他の参照画像、またはライトマップから転送するオプションがありますが、ここではプロンプトから行いましょう。

I uploaded an image of people dancing, and let's just add people dancing underwater.

私は踊っている人々の画像をアップロードしました。そして、水中で踊っている人々を追加しましょう。

I'll leave everything the same, although we do have some other style options and things.

すべてそのままにしておきますが、他にもスタイルのオプションや機能があります。

If I click relight, you can see it relit it like this.

再点灯をクリックすると、再点灯された状態が表示されます。

Here's the original image.

これが元の画像です。

Here's the new image that it made.

これが生成された新しい画像です。

It does a really good job of completely restyling the image.

画像を完全に再スタイリングするのに本当に素晴らしい仕事をします。

This week, Stability AI got a new CEO who was the former CEO of Weta Digital.

今週、Stability AIはWeta Digitalの元CEOである新しいCEOを迎えました。

If you're not familiar with Weta Digital, Weta is a visual effects company that's worked on films that you might've heard of, things like Avatar, Planet of the Apes, the Marvel movies, Transformers, Game of Thrones, and is probably best known for a little series of movies called The Lord of the Rings.

もしWeta Digitalについてよくご存知でない場合、Wetaはあなたが聞いたことがあるかもしれない映画に取り組んできたビジュアルエフェクツ会社です。例えば、アバターや猿の惑星、マーベル映画、トランスフォーマー、ゲーム・オブ・スローンズなどです。そして、おそらく最もよく知られているのは「ロード・オブ・ザ・リング」という一連の映画です。

Things keep getting worse for the RABBIT R1.

RABBIT R1にとって状況はますます悪化しています。

This company called Rabbitude, which is essentially a company who's trying to poke holes and sort of find flaws in the RABBIT R1, well, they uncovered a huge data breach.

この会社はRabbitudeと呼ばれており、基本的にはRABBIT R1の欠陥を見つけようとしている会社ですが、彼らは巨大なデータ漏洩を発見しました。

The team gained access to the Rabbit code base and found hard-coded API keys in the code, which would allow anyone to read every response every R1 has ever given, including ones containing personal information, brick all the R1s, alter the responses of all the R1s, and replace every R1's voice.

チームはRabbitのコードベースにアクセスし、コード内にハードコードされたAPIキーを見つけました。これにより、誰でもR1がこれまでに与えたすべての応答を読むことができ、個人情報を含むものも含まれます。また、すべてのR1を無効にし、すべてのR1の応答を変更し、すべてのR1の声を置き換えることができます。

They found the API keys for ElevenLabs, Azure, Yelp, and Google Maps in there.

彼らは、ElevenLabs、Azure、Yelp、Google MapsのAPIキーをそこで見つけました。

On top of all of the bad press and all of the bad reviews the Rabbit has received, it also turns out they did a pretty poor job with code and left a bunch of API keys exposed, meaning that anyone that has the RABBIT R1 is at risk of having their data leaked.

Rabbitが受けたすべての悪い報道や悪いレビューに加えて、コードの品質がかなり低く、多くのAPIキーが露出していることが判明しました。つまり、RABBIT R1を持っている人は、データが漏洩するリスクにさらされています。

The company called Etched announced a new chip, which is apparently the world's first specialized chip for Transformers.

Etchedという会社が、明らかに世界初のTransformers向けの専門チップを発表しました。

The Transformer is pretty much what all Large Language Models that you use are built on top of.

Transformerは、あなたが使用しているすべての大規模言語モデルの基盤となっています。

It's also what Sora, Gemini, Stable Diffusion, and all of these tools use.

Sora、Gemini、Stable Diffusion、およびこれらすべてのツールも、Transformerを使用しています。

These chips are more than 20 times faster than the NVIDIA H100s, which is what most of the AI companies these days use to train their AI models.

これらのチップは、現在のほとんどのAI企業がAIモデルを訓練するために使用しているNVIDIA H100よりも20倍以上高速です。

This looks to be pretty impressive when they become available.

これらが利用可能になったとき、かなり印象的に見えます。

They also appear to be a competitor to Grok, the GROQ Grok, which I just so happen to be holding a pen for.

また、私がたまたまペンを持っているGrok、GROQ Grokの競合他社であるようです。

The day they announced this, Grok announced that they've achieved 400 tokens per second with the LLaMA 370B model.

この発表の日、GrokはLLaMA 370Bモデルで秒間400トークンを達成したと発表しました。

This message appears to be a direct response to the Etched comment as pointed out here by Akshay.

このメッセージは、Akshayによって指摘されたように、Etchedコメントへの直接的な応答のようです。

Meta started testing user-created AI chatbots on Instagram.

MetaはInstagramでユーザーが作成したAIチャットボットのテストを開始しました。

We've seen some of these AI chatbots with like Snoop Dogg, but under a different name, and MrBeast under a different name, and I think Tom Brady under a different name.

これらのAIチャットボットのいくつかは、Snoop DoggやMrBeast、そしてTom Bradyなどの別の名前で見られました。

They're starting to roll it out so individuals can create their own custom chatbots.

個人が自分自身のカスタムチャットボットを作成できるように始めています。

It appears to be rolling out an early test in the US of the AI studio, so you might start seeing AIs from your favorite creators and interest-based AIs in the coming weeks on Instagram.

AIスタジオの初期テストが米国で展開されているようで、Instagramで今後数週間でお気に入りのクリエイターや興味に基づいたAIを見ることができるかもしれません。

They will primarily show up in messaging for now and will be clearly labeled as AI.

今のところ、主にメッセージングで表示され、AIであることが明確にラベルされます。

Finally, with the Olympics coming up, they are going all in on AI this year, including an AI version of Al Michaels.

ついに、オリンピックが近づいているため、今年はAIに全力を注いでおり、アル・マイケルズのAIバージョンも含まれています。

People can get customized feeds of what they're interested in from the Olympics, and it will be commentated on by Al Michaels, but it's AI Al Michaels.

人々はオリンピックから興味を持っているもののカスタマイズされた情報を得ることができ、アル・マイケルズによって解説されますが、それはAIのアル・マイケルズです。

Here's a quick example of what that might look like.

これがそのように見えるかの簡単な例です。

Ty Kelly, welcome to your daily Olympic recap, your personal rundown of yesterday's most thrilling Olympic moments.

タイ・ケリーさん、デイリーオリンピックの要約へようこそ、昨日の最もスリリングなオリンピックの瞬間を個人的にお伝えします。

Since you're a swimming fan, let's head right to the pool.

あなたは水泳ファンなので、すぐにプールに向かいましょう。

Team USA secured a stunning victory in the men's 4x100 meter medley relay, smashing the world record.

チームUSAは男子4×100メートルメドレーリレーで驚異的な勝利を収め、世界記録を更新しました。

Over at the diving venue, Krista PaLMer showcased resilience and skill, overcoming past knee surgeries to qualify for the women's springboard final.

ダイビング会場では、クリスタ・パーマーが過去の膝の手術を乗り越えて、女子スプリングボード決勝に進出するための強靭さと技術を披露しました。

I'll go ahead and stop it there.

ここで話をやめておきます。

You get the idea.

イメージがつかめましたね。

You're going to be able to tell it what sports you're interested in, and it will create a custom little video of a recap with Al Michaels commentating on that recap, even talking to you by name if you want to.

あなたは興味のあるスポーツを教えることができ、それに基づいてアル・マイケルズが解説するカスタムの短いビデオを作成します。あなたの名前で話しかけることもできます。

That's what I got for you.

それがあなたにお伝えすることです。

A lot of AI news came out this week.

今週はたくさんのAIニュースが出ました。

It was weird because it kind of felt like a slower week to me.

私にとっては少しゆっくりした週のように感じられたので、不思議な感じがしました。

But as I was rounding up all of this AI news, I was like, holy crap, there's a lot going on.

しかし、すべてのAIニュースをまとめていると、本当にたくさんのことが起こっていることに気づきました。

It's gotten to the point where 30 new AI announcements in a single week feels like a slow week, which is just wild.

1週間で30件の新しいAI発表があると、ゆっくりした週に感じるようになってきて、それはただ驚くべきことです。

But anyway, if you enjoy videos like this and you want to stay looped in on the AI news, give this video a thumbs up and make sure you subscribe to this channel.

とにかく、このような動画を楽しんでいただける場合は、この動画に高評価をして、このチャンネルに登録していただければ幸いです。

I'll make sure that videos like this keep on showing up in your YouTube feed.

このような動画があなたのYouTubeフィードに続々と表示されるようにします。

If you want to find more AI tools to play with and stay looped in on the AI news on a daily basis, check out futuretools.io where I keep the news up to date every day.

毎日遊ぶためのさらなるAIツールを見つけ、AIニュースについて常に最新情報を得たい場合は、futuretools.ioをチェックしてください。そこでは私が毎日ニュースを更新しています。

I'm adding cool AI tools as I find them, and I've got a free newsletter.

私は見つけたAIツールを追加しており、無料のニュースレターもあります。

You join the free newsletter, I'll hook you up with the AI income database, a database of cool ways to make money using these various AI tools.

無料のニュースレターに参加していただければ、AI収入データベースにアクセスできます。これは、さまざまなAIツールを使用してお金を稼ぐクールな方法のデータベースです。

You'll be entered to win cool prizes in our monthly competitions, which is exclusive to people who subscribe to both the YouTube channel and the newsletter.

YouTubeチャンネルとニュースレターの両方に登録している人だけが参加できる、毎月開催されるコンペティションで素敵な賞品を獲得するチャンスがあります。

Head on over to futuretools.io to find all that stuff.

futuretools.ioにアクセスして、そのすべてを見つけてください。

Thank you once again to LTX Studio for sponsoring this video, and thank you so much for tuning in, nerding out with me, and keeping your finger on the pulse of the latest in the AI world.

この動画のスポンサーとしてLTX Studioに再度感謝申し上げます。そして、私と一緒に熱中し、最新のAI世界の最新情報を追いかけてくれて、本当にありがとうございます。

Thank you so much once again.

もう一度本当にありがとうございます。

I really appreciate you.

本当に感謝しています。

I'll see you in the next video.

次の動画でお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?