見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2023年11月25日|@Matt Wolfe】

この動画では、AI技術の最新動向について説明しています。
初めに、Open AIでのトップの交代や研究者の退職に関するドラマがあったこと、新しいモデル「Q-Star」の開発とその数学問題解決能力の向上が紹介されています。また、Q-Starの商業化に関する内部の意見対立や、暗号化情報の解読に関する潜在的なリスクについても触れています。さらに、大規模言語モデルの発展、AIアート分野でのStability AIのStable Video Diffusionの発表、ユーザーに好まれていること、AI音声クローニング技術の進展、Luma AIによるテキストから3Dオブジェクトへの変換技術の向上、Google Meetの新機能、AI著作権訴訟の結果、および膵臓がん検出のための新しいディープラーニングモデル「PANDA」の使用についても説明されています。
公開日:2023年11月25日
※動画を再生してから読むのがオススメです。


This week was an absolutely insane week in the world of AI.

今週はAIの世界ではまったくもって非常識な週だった。

I stopped saying that every single week because I know it's lost its meaning.

毎週同じことを言っていたのをやめました。意味を失ってしまったからです。

This week actually insane, and I'm not even just talking about all of the drama that went down at OpenAI.

今週は実際に狂っていたし、OpenAIで起こったすべてのドラマについて話しているわけでもない。

So much other stuff happened that kind of flew under the radar because all of that drama was happening.

そのドラマがすべて起こっていたため、レーダーの下をかすめるような他の多くのことが起こった。

But it was one of the most insane weeks we've ever seen in terms of new advancements in the world of AI.

しかし、AIの世界における新たな進歩という点では、これまでに見たこともないような非常識な1週間だった。

So, I'm going to break it all down for you right now.

そこで、今からそのすべてを説明しよう。

I obviously can't talk about the past week in AI without mentioning all of the OpenAI Sam Altman drama.

OpenAIのサム・アルトマンのドラマを抜きにして、AIのこの1週間を語ることはできない。

I'm not going to go deep into this in this video because I've literally made four videos about it already.

このビデオではそれについて詳しく触れません。すでに4つのビデオを作っているからです。

You can watch one here, one here, one here, and one over here.

1本はこちら、1本はこちら、1本はこちら、1本はこちらでご覧いただけます。

But the super TLDR is that on November 17th, OpenAI announces a leadership transition.

しかし、超要約すると、11月17日にOpenAIはリーダーの交代を発表します。

They fire Sam Altman, they demote Greg Brockman off the board, Greg Brockman leaves, a bunch of researchers leave, pretty much everybody at OpenAI threatens to leave if they don't bring Sam Altman back.

サム・アルトマンを解雇し、グレッグ・ブロックマンを取締役から降格させ、グレッグ・ブロックマンは去り、多くの研究者が去り、OpenAIのほとんどの人が、サム・アルトマンを呼び戻さなければ辞める、と脅した。

All of the investors, including Microsoft, are pissed.

マイクロソフトを含むすべての投資家は怒っている。

They offer Sam Altman and Greg Brockman a job at Microsoft.

彼らはサム・アルトマンとグレッグ・ブロックマンにマイクロソフトでの仕事をオファーした。

With everybody at OpenAI threatening to leave, two CEOs refusing to stay in that position, Mira Moradi and Ilya Sutskever, and all the investors pushing to bring Sam back.

OpenAIの全員が去ると脅し、2人のCEO、Mira MoradiとIlya Sutskeverがその地位に留まることを拒否し、すべての投資家がサムを呼び戻すよう後押しした。

Four days later, on November 21st, Sam was reinstated as the CEO of OpenAI, Greg Brockman's back, the researchers are back, everybody comes back, and pretty much the entire original board is out, except for Adam D'Angelo.

4日後の11月21日、SamはOpenAIのCEOに復職しました。Greg Brockmanも戻ってきて、研究者たちも戻ってきて、みんな戻ってきて、ほぼ元の取締役会の全員が退任しましたが、Adam D'Angeloだけは残っています。

As of right now, there are just three board members: Brett Taylor, Larry Summers, and Adam D'Angelo, with it being expected that in the coming weeks or months, more members will be added to the board, most likely including some representation from Microsoft, OpenAI's biggest investor.

今現在、役員は3人だけです: ブレット・テイラー、ラリー・サマーズ、アダム・ダンジェロの3人で、今後数週間か数ヶ月のうちに、OpenAIの最大の出資者であるマイクロソフトからの代表を含む、より多くのメンバーが理事会に加わることが期待されている。

Again, that's a super simplified version, but I've made a bunch of videos about it, so watch those if you really want to deep dive into all of the drama that happened, because that in itself was pretty crazy.

繰り返しますが、これは超簡略化したものです。しかし、私はこの出来事についてたくさんのビデオを作りましたので、本当に起こったドラマのすべてを深く掘り下げたい方は、それらをご覧ください。

For the most part, that's where the story ended.

ほとんどの場合、物語はそこで終わった。

Now, there's been a little bit of news that came out after that, first reported on by The Information.

その後、The Informationが最初に報じた後、少しニュースが出ました。

OpenAI made an AI breakthrough before Altman's firing, stoking excitement and concern.

OpenAIは、アルトマンが解雇される前にAIのブレークスルーを成し遂げ、興奮と懸念を煽った。

The rumor is that the researchers built a new model called Q-Star that was able to solve math problems that it hadn't seen before.

噂によれば、研究者たちはQ-Starと呼ばれる新しいモデルを構築し、これまでに見たことのない数学の問題を解くことができたという。

And the speculation is that the reason that the board wanted to get rid of Sam was because they didn't want the commercialization of this Q-Star, and they didn't want it to get into the hands of regular consumers because it's potentially too powerful.

そして推測では、取締役会がサムを排除しようとした理由は、このQ-Starの商業化を望まなかったからであり、潜在的に強力すぎるため、一般消費者の手に渡ることを望まなかったからだという。

The following day, Reuters, a very respectable news site, claimed the same information.

翌日、立派なニュースサイトである『ロイター通信』も同じ情報を伝えている。

Ahead of OpenAI CEO Sam Altman's four days in exile, several staff researchers wrote a letter to the board of directors warning of a powerful artificial intelligence discovery they said could threaten humanity.

OpenAIのCEOであるサム・アルトマンの4日間の亡命に先立ち、数名のスタッフ研究者が、人類を脅かす可能性があるという強力な人工知能の発見を警告する書簡を取締役会に送った。

Two people familiar with the matter told Reuters.

この件に詳しい2人がロイターに語った。

Reuters was unable to review a copy of the letter.

ロイターは手紙のコピーを確認することができなかった。

The staff who wrote the letter did not respond to requests for comment.

書簡を書いたスタッフは、コメントを求めたが応じなかった。

Reuters contacted OpenAI, and they declined to comment.

ロイターはOpenAIに問い合わせたが、コメントは拒否された。

And there really hasn't been a lot of verification yet, which is why I really haven't done a full breakdown of what is Q-Star.

そして、本当にまだ多くの検証が行われていない。だからこそ、私は本当にQ-Starとは何かについての完全な内訳を行っていないのだ。

Though only performing math on the level of a grade school student, acing such tests made researchers very optimistic about Q's future success.

小学生レベルの数学しかできないとはいえ、このようなテストを突破したことで、研究者たちはQの将来の成功を非常に楽観視するようになった。

The source said.

関係者は言う。

Now, you might be wondering if this is only able to perform math on the level of grade school students, why is it that big of a deal?

もし、これが小学生のレベルの数学しかできないのであれば、なぜそれが大問題なのか疑問に思うかもしれませんが。

Well, here's the thing.

まあ、こういうことだ。

So far, large language models aren't great at math.

これまでのところ、大規模な言語モデルは数学が得意ではない。

They're great at predicting the next word in a piece of text, but not so much math.

テキストの次の単語を予測するのは得意だが、数学はあまり得意ではない。

However, with something like Q-Star that can perform math and also learn how to get better and better at math, this leads to potential massive problems for humanity.

しかし、Q-Starのように数学ができ、さらに数学がどんどんうまくなる方法を学習できるものがあれば、人類にとって大きな問題になる可能性がある。

Overall, the reason being that encryption is such a huge part of everything we do online.

なぜかというと、暗号化は私たちがオンラインで行うすべてのことに大きく関わっているからだ。

Our personal data, our usernames, our passwords, our financial data, all of this uses encryption.

私たちの個人データ、ユーザー名、パスワード、金融データ、これらすべてに暗号化が使われている。

The stronger the encryption, the harder it is for computers and hackers to break that encryption and get the information contained within the encrypted data.

暗号化が強力であればあるほど、コンピューターやハッカーが暗号化を破り、暗号化されたデータに含まれる情報を入手するのは難しくなる。

However, if these algorithms get better and better at math, they will likely also be better and better at decrypting all of this encryption.

しかし、これらのアルゴリズムが数学的にどんどん良くなっていけば、これらの暗号化を解読するのもどんどん良くなっていくだろう。

The way the entire web is built by using encrypted information to keep hackers out and to keep computer programs from accessing all of this data, well, something like Q-Star, as it advances, could get better and better and better at basically hacking this data and unencrypting this information, which could potentially cause widespread chaos.

ウェブ全体が暗号化された情報を使って構築されているのは、ハッカーを排除し、コンピュータ・プログラムがすべてのデータにアクセスできないようにするためだ。Q-Starのようなものが進歩すれば、基本的にこのデータをハッキングし、情報の暗号化を解除する能力がますます向上する可能性がある。

And that's just one of the implications of this potential Q-Star that they're talking about here and why some people probably don't want it in the hands of just anybody.

これが、ここで語られているQ-Starが持つ潜在的な意味合いのひとつであり、おそらく誰にでも手に渡ることを望まない人々がいる理由なのです。

Now, this is a gross oversimplification of the potential impact of all of this, but if this technology isn't safely locked down and it gets better and better at math, the implications are huge and very scary.

これは、全ての可能な影響の極めて単純化された説明ですが、この技術が安全に制御されず、数学的にますます優れていくと、その影響は非常に大きく、非常に恐ろしいものになる可能性があります。

Again, I haven't really reported on this in any of my videos because so far it's all been sort of hearsay.

繰り返しになるが、私はこれまで、伝聞のようなものなので、どのビデオでもこの件について報告していない。

A friend of a friend told their mom that they're doing this, right?

友達の友達が、お母さんにこんなことやってるって言ってたんだよ。

Nobody from OpenAI has commented.

OpenAIの関係者は誰もコメントしていない。

All of the sources are anonymous.

すべての情報源は匿名です。

There's really no real verification other than the fact that I do think that both Reuters and The Information are fairly credible and thorough with their research.

ロイターとインフォメーションはどちらもかなり信頼でき、徹底的な調査をしていると思うという事実以外、本当の検証はない。

As more information comes out and we do get confirmation, I will definitely be making more content about this.

より多くの情報が明らかになり、確証が得られれば、私は間違いなくこの件に関してより多くのコンテンツを作るつもりだ。

I just want something a little more concrete than what we've been given so far.

ただ、これまでの情報よりももう少し具体的なものが欲しい。

There's also this statement from The Verge that came out on November 26th that says a recent OpenAI breakthrough on the path to AGI has caused a stir.

また、11月26日に『The Verge』から発表された、AGIへの道筋を示す最近のOpenAIのブレークスルーが波紋を呼んでいるという声明もある。

Of course, it's talking about Q-Star here and how this could be a step toward creating artificial general intelligence.

もちろん、ここではQ-Starについて、そしてこれが人工知能の実現に向けた一歩になるかもしれないことについて述べている。

However, if we read the rest of this little statement here, it says, After the publishing of the Reuters report, which said senior exec Mira Moradi told employees that the letter about Q-Star precipitated the board's actions to fire Sam Altman last week, OpenAI spokesperson Lindsay Held Bolton refuted the notion in a statement shared with The Verge.

しかし、この小さな声明の残りを読むと、次のように書かれている。 ロイターの報道によると、上級幹部ミラ・モラディが従業員に対し、Q-Starに関する書簡が先週サム・アルトマンを解雇する取締役会の行動を促したと語ったということだが、OpenAIの広報担当リンジー・ヘルド・ボルトンは、The Vergeと共有した声明の中で、この考え方に反論した。

Mira told employees what the media reports were about, but she did not comment on the accuracy of the information.

ミラは従業員に対し、メディアの報道について説明したが、情報の正確性についてはコメントしなかった。

Separately, a person familiar with the matter told The Verge that the board never received a letter about such a breakthrough, that the company's research progress didn't play a role in Altman's sudden firing.

これとは別に、この件に詳しい人物がThe Vergeに語ったところによると、取締役会がそのようなブレークスルーに関する書簡を受け取ったことはなく、同社の研究の進展がアルトマンの突然の解雇に一役買ったわけではないという。

So, at the moment, we've got anonymous sources, no confirmation from OpenAI.

現時点では、匿名の情報源があり、OpenAIからの確認はない。

In fact, we even have a denial from OpenAI.

実際、OpenAIは否定しています。

And to be quite honest, we don't have a lot to work off of.

正直に言って、私たちにはあまり手がかりがありません。

But trust me, it's something I'm paying very close attention to and will likely talk about more as more information comes out.

しかし、私を信じてください、これは私が細心の注意を払っていることであり、より多くの情報が出てくれば、もっと話すことになるでしょう。

Amidst all of the chaos that was happening at OpenAI, at a time when Greg Brockman didn't even know if he was going to have a job there anymore, he was still announcing new features, including the fact that ChatGPT with voice was now available to all the free users of ChatGPT.

グレッグ・ブロックマンは、OpenAIで起きているすべての混乱の中で、もうそこで仕事があるのかどうかもわからない時に、ChatGPTの無料ユーザー全員が音声付きChatGPTを利用できるようになったという事実を含め、彼はまだ新機能を発表していました。

Now, if you're a plus user, you've had it for a while.

今、あなたがプラス・ユーザーなら、しばらく前から持っているはずです。

You can open up your phone, talk to ChatGPT, it responds to you.

携帯電話を開いてChatGPTに話しかけると、応答してくれます。

It's sort of a better version of what you'd get out of Siri.

それは、Siriから得られるものよりも良いバージョンです。

Now, that's available in the free version as well.

これは無料版でも利用できます。

And it blows my mind that even among all of the turmoil, somehow OpenAI continued to ship a new feature.

このような混乱の中でも、なぜかOpenAIは新機能を提供し続けている。

And Greg Brockman, the ex-president, the ex-chairman of the board, was making the announcements about it, even though at the time he wasn't even technically part of the company anymore.

元社長で元取締役会長のグレッグ・ブロックマンが、当時はもう会社の技術的な一員でもなかったにもかかわらず、それについて発表していたのです。

Again, I've made a ton of content about the OpenAI drama.

繰り返しますが、私はOpenAIのドラマについてたくさんのコンテンツを作りました。

Definitely check out those videos.

これらのビデオをぜひご覧ください。

But for the rest of this video, let's break down all of the news that flew under the radar while all the OpenAI drama was happening.

しかし、このビデオの残りの部分は、OpenAIのドラマが起こっている間にレーダーの下を飛んでいたニュースをすべて分解してみましょう。

On Wednesday, November 22nd, while all of this was happening, Inflection AI released a brand new model that they claim is the second best model behind GPT-4.

11月22日(水)、すべてが起きている間に、Inflection AIはGPT-4に次ぐ最高のモデルであると主張する全く新しいモデルをリリースした。

The startup behind the chatbot Pi says its Inflection 2 model outpaces popular alternatives from Google and Meta and is catching up to OpenAI's flagship fast.

チャットボットPiを開発したスタートアップは、そのInflection 2モデルは、GoogleやMetaの人気のある代替モデルを凌駕し、OpenAIのフラッグシップモデルに急速に追いつきつつあると述べている。

Inflection 2 performed better than Google's PaLM model as well as beat the open-source LAMA 2 model.

Inflection 2は、グーグルのPaLMモデルよりも優れたパフォーマンスを示し、オープンソースのLAMA 2モデルにも勝った。

Overall, Inflection's model is the top performing of its size.

全体として、Inflectionのモデルは同規模のモデルの中でトップのパフォーマンスである。

It only trails GPT-4, which is thought to be significantly larger.

それはGPT-4に続くもので、かなり大きいと考えられています。

Now, we don't have access to this yet.

現在、我々はまだこれにアクセスできない。

The newly released model will soon be integrated into Pi, the chatbot that Inflection released in May.

新しくリリースされたモデルは、インフレクションが5月にリリースしたチャットボット「Pi」にまもなく統合される予定だ。

But first, it needs a bit more extra work known as alignment to teach it Pi's tone and answering style and to help Pi function better while absorbing up-to-date information without additional hallucinations.

しかしその前に、Piの口調や答え方を教え、幻覚を追加することなく最新の情報を吸収しながらPiがよりよく機能するようにするために、アライメントと呼ばれるもう少し特別な作業が必要だ。

Solomon said.

ソロモンは言った。

We can see here with the light green bars how it performed on a handful of benchmark tests, comparing it to PaLM 2 and Inflection 1.

PaLM2やInflection 1と比較し、いくつかのベンチマークテストの結果を薄緑の棒グラフで見てみよう。

And you can see in all of these various benchmarks, essentially tests that it gave the chatbot, it outperformed all of these other models.

そして、これらの様々なベンチマーク、つまりチャットボットに与えた本質的なテストすべてにおいて、他のモデルよりも優れていることがわかります。

Interestingly, they didn't put GPT-4 on here to see how it benchmarked against those.

興味深いことに、GPT-4とのベンチマークを見るために、GPT-4は載せていない。

Again, it's something we don't have access to yet as consumers.

繰り返しますが、消費者としてはまだアクセスできないものなのです。

Once again, as we do get access and they do roll it out into their Pi bot, we will definitely be exploring it some more and playing around with it and seeing what it can do.

もう一度言いますが、私たちがアクセスできるようになり、Piボットに搭載されるようになれば、私たちは間違いなくこの機能をもっと探求し、遊び、何ができるかを確認することになるでしょう。

But Inflection wasn't the only one who released a new model this week.

しかし、今週新モデルを発表したのはインフレクションだけではない。

Anthropic introduced Claude 2.1.

AnthropicはClaude 2.1を発表した。

Among all of the chaos that was going on at OpenAI, if you've used Claude before, you know that Claude is really good at taking long documents and summarizing them into shorter documents.

OpenAIで起こっていたすべての混乱の中で、Claudeを使ったことがある人なら、Claudeが長いドキュメントを短いドキュメントに要約するのが得意だということを知っているだろう。

Well, previously, it had a 100,000 context window, meaning that it was able to ingest and respond with roughly 75,000 words.

以前は100,000コンテキストのウィンドウを持ち、およそ75,000語を取り込んで応答することができた。

Well, Claude 2.1 here upped that to a 200,000 context window.

クロード2.1では、それを200,000コンテクスト・ウィンドウに増やした。

So this doubles the amount of input and output combined we can get from Claude.

つまり、クロードから得られる入力と出力の量が2倍になったのだ。

Now we can use about 150,000 words, which is over 500 pages of material.

約15万語、つまり500ページ以上の資料が使えるようになった。

This new model also has a two times decrease in hallucination rates, more functionality to the API, and a better developer experience.

この新しいモデルでは、幻覚の発生率も2分の1になり、APIの機能も増え、開発者のエクスペリエンスも向上した。

But really, the main thing we care about is this 200,000 context window and the fact that it's going to hallucinate a heck of a lot less.

しかし、私たちが一番気にしているのは、この20万のコンテキスト・ウィンドウと、幻覚を見る回数が大幅に減るという事実です。

We're going to be able to put in a lot of information, like full textbooks, and ask questions about it and get responses.

教科書のように多くの情報を入力し、それについて質問し、回答を得ることができるようになる。

Now, with Anthropic, Greg Brockman here on X actually did a breakdown testing Claude 2.1 and basically found that where the information is located within the text matters.

Anthropicでは、グレッグ・ブロックマンがXでクロード2.1のテストを行い、基本的にテキスト内のどこに情報があるかが重要であることを発見した。

Facts at the very top and very bottom of the document were recalled with nearly 100% accuracy.

文書の最上部と最下部にある事実は、ほぼ100%の精度で想起された。

Facts' position at the top of the document were recalled with less performance than the bottom.

ドキュメントの一番上にある事実は、一番下にある事実よりも低い精度で想起された。

Starting at about 990,000 tokens, performance of recall at the bottom of the document started to get increasingly worse.

ドキュメントの最後の方のリコールのパフォーマンスは、約990,000トークンからますます悪くなり始めました。

Even though it is a large context window, your facts are not guaranteed to be retrieved, and that position within the text matters.

大きなコンテキスト・ウィンドウであっても、ファクトが検索される保証はなく、テキスト内の位置は重要である。

Claiming that facts placed at the very beginning and the second half of the document seem to be recalled better.

文書の最初と後半に配置された事実がよりよく思い出されるようです。

He gave a lot more details into the findings from his Claude 2.1 tests, and like always, I'll make sure it's linked up in the description below so that you can review it if you'd like.

彼はクロード2.1のテスト結果について詳細を説明しました。いつものように、説明欄にリンクを貼っておきますので、ご確認いただければと思います。

In some other exciting news, Elon Musk said that the xAI chatbot Grok is going to launch to Premium Plus subscribers next week.

他のエキサイティングなニュースとして、イーロン・マスクは、xAIチャットボットGrokが来週プレミアム・プラス加入者にローンチされると述べた。

That would make it the week of November 27th.

それは11月27日の週になります。

Sometime during that week, we should be getting access.

その週のうちに、私たちはアクセスできるようになるはずだ。

You can see that Elon actually put it in a reply to somebody else's tweet.

イーロンは誰かのツイートへの返信の中で、このように書いている。

Tesla owner Silicon Valley X and Grok combined is going to be mind-exploding.

テスラのオーナーであるシリコンバレーXとGrokを合わせると、精神が爆発しそうだ。

And then Elon Musk wrote, Yeah, Grock should be available to all X Premium Plus subscribers next week.

そしてイーロン・マスクは、来週にはすべてのXプレミアム・プラス加入者がGrockを利用できるようになるはずだ、と書いた。

We also got a little sneak peek this week of what Gro could look like inside of the app.

私たちは今週、Grokがアプリの中でどのように見えるか、ちょっとしたスニークピークも手に入れた。

You can see there's a new little SL FL icon here and then a text box that says ask Gro.

新しい小さなSL FLのアイコンと、ask Groと書かれたテキストボックスが見えます。

So we'll just have to wait till next week and hopefully we can get our hands on it.

次の週まで待つしかないので、できれば手に入れることができるといいです。

I'm really excited to make a breakdown video where I compare GPT-4, clae 2.1, inflection 2, Grock, and even Bard and figure out what each one is specifically best at.

GPT-4、clae 2.1、inflection 2、Grock、そしてBardを比較し、それぞれが特に何が得意なのかを解明するブレイクダウン・ビデオを作るのがとても楽しみです。

That's a video that I'm really excited to make, but I'm just waiting to get access to all of these various different tools so that we can do that breakdown.

そのビデオを作るのがとても楽しみなのだが、その内訳を説明できるように、さまざまなツールにアクセスできるようになるのを待っているところだ。

Speaking of Bard, Google made some updates to Bard this week.

バルドといえば、グーグルは今週バルドにいくつかのアップデートを行った。

I told you this week has been crazy.

今週はクレイジーだと言っただろう。

There's been updates for every single large language model.

あらゆる大規模な言語モデルのアップデートがありました。

Pretty much in this latest update to Bard, Bard can now watch YouTube videos for you.

Bardの最新アップデートでは、BardがYouTubeの動画を視聴できるようになりました。

Bard's YouTube extension can now handle complex queries about specific video content, like recipe quantities and instruction summaries.

BardのYouTubeエクステンションは、レシピの量や説明の要約のような、特定のビデオコンテンツに関する複雑なクエリを処理できるようになりました。

It says the bot's YouTube integration is getting a handy upgrade so it can analyze individual videos to surface specific information for you, things like key points or recipe ingredients, without ever even pressing play.

ボットのYouTube統合が便利なアップグレードになり、再生ボタンを押さなくても、個々の動画を分析して、重要なポイントやレシピの材料など、特定の情報を表示できるようになったという。

This article goes on to say it's not perfect at the moment.

この記事では、現時点では完璧ではないと述べている。

The feature only exists as an opt-in Labs experience, and it does take a little bit of work to get the answer you're looking for.

この機能はオプトインのLabs体験としてのみ存在し、探している答えを得るには少し手間がかかる。

For example, this person asked for a full recipe from a video, but Bard wasn't able to generate anything.

例えば、この人は動画から完全なレシピを求めたが、バードは何も生成できなかった。

But then asking it for step-by-step instructions on a subsequent prop got the whole recipe.

しかし、その後の小道具でステップ・バイ・ステップの説明を求めると、全レシピが表示された。

Now, if I log into my Bard account here, I click on my little extensions button, you can see there is a YouTube extension that's already flipped on here.

Bardのアカウントにログインして、エクステンションボタンをクリックすると、YouTubeのエクステンションがあるのがわかる。

And since this excellent video honestly, everybody who's interested in learning about large language models needs to watch this video.

この素晴らしいビデオは正直なところ、大規模言語モデルについて学ぶことに興味がある人はみんなこのビデオを見る必要がある。

But since this video was released this week, I want to plug this in and see how well it does with an hour-long video.

しかし、このビデオは今週リリースされたので、これをプラグインして、1時間のビデオでどの程度の効果があるか見てみたいと思います。

So this is a video from Andre Karpathy here.

アンドレ・カルパシー氏のビデオです。

It's called 1H hour talk intro to large language models.

1H hour talk intro to large language modelsというタイトルです。

Excellent breakdown.

素晴らしい解説です。

And we'll jump into Bard, create a new chat.

Bardに飛び込んで、新しいチャットを作りましょう。

I just pasted the URL to the YouTube video in here, and it says, I have watched the video, and here's a summary: The video is an introduction to large language models.

YouTubeのビデオのURLをここに貼り付けただけで、ビデオを見たと表示され、要約が表示されます。そのビデオは大規模な言語モデルの紹介です。

LLMs are a type of artificial intelligence, blah blah blah.

LLMsは人工知能の一種です。ブラブラブラ。

In the video, the speaker discusses the capabilities of LLMs.

ビデオの中で、スピーカーはLLMsの機能について話している。

Overall, the video provides a good overview of LLMs and their potential application.

全体として、このビデオはLLMsの概要とその応用の可能性をよく説明している。

So if I do something like, Give me the bullet points of all the main topics covered in this video, let's see what we get.

では、このビデオでカバーされた主要なトピックの箇条書きを教えてください。何が得られるか見てみましょう。

I actually got this message that says, Query unsuccessful, but then some bullets anyway.

「クエリが失敗しました」というメッセージが表示されましたが、それでもいくつかの箇条書きがありました。

What are large language models?

大規模言語モデルとは何ですか?

How are LLMs trained?

LLMsはどのように学習されるのか?

What are the capabilities?

どのような機能がありますか?

How are they evolving?

どのように進化しているのか?

What are the challenges of working with LLMs?

LLMsとの作業の課題は何ですか?

What are potential applications of LLMs?

LLMsの潜在的な応用は何ですか?

So it seems to have found bullets anyway, but I don't know if it pulled that from the video or if it actually pulled it from like the timestamps here that are all available in the description.

とにかく弾丸は見つかったようだが、動画から引っ張ってきたのか、それとも説明文にあるタイムスタンプのようなものから引っ張ってきたのかはわからない。

So like the original article said, still leaves a little bit to be desired, but we'll explore this more in future videos because this is a feature I really want to see work.

元の記事に書かれているように、まだ少し物足りなさが残っていますが、これについては将来のビデオでさらに探求します。私は本当にこの機能が動作するのを見たいです。

Although, it does scare me a little bit because what's to stop people from just getting summaries of my videos instead of watching the whole thing?

ただ、ちょっと心配です。なぜなら、人々が私の動画の要約だけを見て全体を見ないで済ませることができるのではないかと思うからです。

Hopefully, you're watching it because you enjoy me talking about it, and you don't want just the bulleted list.

願わくば、あなたは私がそれについて話すのを楽しんでいるから見ているのであって、箇条書きのリストだけを望んでいるわけではないはずだ。

But I understand if you want to save time.

しかし、あなたが時間を節約したいのなら、私は理解している。

Continuing on in the world of large language models, once again amid all of the chaos this week, Microsoft released its Orca 2, which is a pair of small language models that actually outperform their larger counterparts.

大規模な言語モデルの世界で続けて、今週の混乱の中で、MicrosoftはOrca 2をリリースしました。これは、実際にはより大きなモデルよりも優れています。

This model comes in two sizes, 7 billion and 13 billion parameters, and it either matches or outperforms models like Meta's LLaMA 2 Chat 70B.

このモデルには70億と130億のパラメータがあり、MetaのLLaMA 2 Chat 70Bのようなモデルに匹敵するか、上回る。

So that's a 70 billion parameter model that it was trained on, and it's actually matching or outperforming with only 7 billion or 13 billion parameters.

つまり、これは700億パラメータでトレーニングされたモデルであり、実際には70億または130億パラメータで一致または上回るのです。

Less parameters means a lot faster to train, a lot faster to get responses, a lot less expensive to use, and likely you can run a model like this locally on your own computer.

パラメータが少ないと、トレーニングがはるかに速くなり、応答がはるかに速くなり、使用するコストがはるかに低くなります。おそらく、このようなモデルを自分のコンピュータでローカルに実行できるでしょう。

Microsoft has open-sourced both new models for further research on the development and evaluation of the smaller model.

マイクロソフトは、より小さなモデルの開発と評価に関するさらなる研究のために、両方の新しいモデルをオープンソース化している。

Looking at their benchmark results here, we're looking at the light blue and the dark blue, the two lines on the left, and you can see that 7B and 13B pretty much outperformed all these other models like LLaMA 2 Chat 13B, LLaMA 2 Chat 70B, WizardLM 13B, and WizardLM 70B.

このベンチマークの結果を見ると、水色と紺色、左の2本の線を見ているのですが、7Bと13BがLLaMA 2 Chat 13B、LLaMA 2 Chat 70B、WizardLM 13B、WizardLM 70Bのような他のモデルよりもかなり優れていることがわかります。

So with these smaller parameter models, it is outperforming the much larger parameter models, which are a lot more expensive and time-consuming to train.

つまり、これらの小さなパラメータ・モデルで、トレーニングに多くの費用と時間を要する、より大きなパラメータ・モデルを凌駕しているのだ。

But we got more wild announcements this week in the large language model world.

しかし、大規模言語モデルの世界では、今週、さらにワイルドな発表があった。

We have the Q-Star stuff, we've got inflection, we've got Anthropic, we've got Bard, and we've got Microsoft's Orca 2, all making waves in the same week that this OpenAI drama was happening.

私たちはQ-Starのものを持っています、インフレクションも持っています、アントロピックも持っています、バードも持っています、そしてマイクロソフトのオルカ2も持っています。すべてが同じ週に波を立てていましたが、このOpenAIのドラマが起こっていました。

But we also got some really cool stuff in the AI art world, including Stability AI announcing stable video diffusion.

しかし、AIアートの世界では、Stability AIが安定したビデオ拡散を発表するなど、本当にクールなものもありました。

Now, stable video diffusion appears to be very similar to what we get out of Runway Gen 2 or Pabs, where we can get like, you know, three 4-second short generations, and they're roughly the same quality, maybe a slight improvement.

今、安定したビデオ拡散は、ランウェイGen 2やPabsから得られるものと非常に似ているようです。3つの4秒の短い世代を得ることができ、ほぼ同じ品質で、わずかな改善があるかもしれません。

They are using Stability AI's SDXL to generate the initial images that then become animated.

彼らはStability AI社のSDXLを使用して初期画像を生成し、それをアニメーション化している。

But it doesn't feel like a huge leap yet above what we're getting out of Pika and Runway Gen 2.

しかし、私たちがPikaやRunway Gen 2から得ているものよりも、まだ大きく飛躍しているようには感じられない。

However, they did do some tests against them.

しかし、彼らはそれらに対していくつかのテストを行った。

I don't totally understand what these charts are showing us.

このグラフが何を示しているのか、まったく理解できない。

It says here that through external evaluation, we have found these models surpass the leading closed models in user preference studies.

ここには、外部評価を通じて、これらのモデルがユーザー嗜好調査において主要なクローズドモデルを上回ることがわかったと書かれている。

So they must have been doing like polls to the audience of like, Here's a video and here's a video, which one do you like better?

だから、彼らは観客に対してアンケートを行っていたのかもしれません。ここにビデオがあります。どちらがより良いですか?

and sort of getting feedback on which ones people liked better.

というような世論調査を行い、どちらが好きかというフィードバックを得ていたのでしょう。

And with the stable video diffusion 14 frames (SVD), it seemed to tie Runway Gen 2 and outperform Paa.

そして、安定したビデオ拡散14フレーム(SVD)を使用すると、ランウェイGen 2と同点になり、Paaを上回ったようだ。

And the same amount for Runway using the 25 frames model, Stability outperformed both Runway and Paa.

また、25フレームモデルを使ったRunwayでも同じように、StabilityがRunwayとPaaの両方を上回った。

But you can actually use this model for free right now.

しかし、実は今すぐ無料でこのモデルを使うことができる。

I got two really good resources for you.

本当に良いリソースを2つ紹介しよう。

There's a Hugging Face space available right now, which uses stable video diffusion to do image to video.

今ならHugging Faceスペースが利用可能で、安定したビデオ拡散を使って画像からビデオに変換します。

So you can drag and drop an image here and get a video outputted here.

画像をドラッグ&ドロップすると、動画が出力されます。

But this one does not appear to use any sort of text input for it.

しかし、このスペースではテキスト入力はできません。

I drag this little wolf image here that I created in the past over into Hugging Face and click generate.

過去に作成したこの小さなオオカミの画像をHugging Faceにドラッグして、generateをクリックします。

I get a message that there's a long queue of requests pending.

保留中のリクエストの長いキューがあるというメッセージが出る。

I am 10 of 10, and it looks like it's going to take about 300 seconds.

私は10分の10で、約300秒かかるようです。

So while I'm waiting for that, let me show you the other option that is currently available, which theoretically should be quite a bit faster.

それを待っている間に、現在利用可能な他のオプションを紹介します。理論的にはかなり速くなるはずです。

If you head over to decoherence doco, they actually have a stable video free preview over here.

デコヒーレンス・ドコ(decoherence doco)に行けば、安定した無料プレビュー動画がある。

They've got this little race car image here, experiment with the research preview of stable video free for everyone.

この小さなレースカーの画像で、安定したビデオ・フリーの研究プレビューを誰でも体験できる。

This one has both an image to video and a text to video option, and we have a little slider to add less motion or more motion.

画像から動画へ、テキストから動画へというオプションがあり、スライダーで動きを小さくしたり大きくしたりできます。

A rocket ship blasting off from a Launchpad.

発射台から飛び立つロケット船。

I put the motion to about 3/4, and let's generate the video.

動きを3/4くらいにして、ビデオを生成してみましょう。

This looks like it's probably going a little bit faster over here.

こちらはもう少しスピードが出ているように見えます。

You can see now I'm Q7 of n.

nのQ7であることがわかるだろう。

That's still taking a while.

まだ時間がかかっている。

So the decoherence version took about 1 minute here, and we got a 3-second video.

デコヒーレンス・バージョンでは約1分かかり、3秒のビデオになりました。

Let's take a peek.

ちょっと覗いてみよう。

We've got our rocket ship here, and it looks like all the smoke is animating, but nothing about the rocket ship itself is actually animating.

ロケット船がここにあり、煙がすべてアニメーションしているように見えますが、実際にはロケット船自体は何もアニメーションしていません。

We're just getting this smoke, but it was pretty dang quick to do it.

煙が出ているだけですが、かなり素早くできました。

Let's check in on Hugging Face.

ハギング・フェイスをチェックしよう。

I am now Q5 of 8.

私は現在8問中5問目です。

Let's try the image to video over here.

ここで画像を動画に変換してみましょう。

I'm going to plug in this image here of a sort of river or lake with a tree and some clouds.

ここに川や湖、木や雲があるような画像を挿入します。

Let's go ahead and just generate this and see what it does for us.

さあ、これを生成してみて、何ができるか見てみましょう。

Once again, took less than a minute.

繰り返しますが、1分もかかりません。

Take a peek here.

ちょっと覗いてみてください。

Not bad.

悪くない。

You can see the water ripples.

水の波紋が見えます。

There's some camera motion.

カメラの動きもある。

The clouds are moving a little bit.

雲は少し動いています。

Came out pretty solid.

かなりしっかりとしたものになりました。

Checking back to Hugging Face, I am now Q2 out of 10.

ハギング・フェイスに戻ると、現在10点満点中Q2。

We've been going for 310 seconds, and now my estimated time is up to 360 seconds.

310秒を経過し、現在推定タイムは360秒。

So still waiting on this one.

これはまだ待っている。

This one took a full 8 minutes to generate after waiting in queue, and then finally processing, and we got a 3-second video that looks like this, and it just kind of spins and warps and twists it into nothing.

これは、待ち行列に並んでから、ようやく処理された後に生成されるまで、8分かかりました。そして、このような3秒のビデオが得られ、それはただ回転し、ねじれ、何もないものになります。

That's the new stable video diffusion.

これが新しい安定した映像拡散だ。

I personally recommend checking it out over at decoherence doco.

個人的には、decoherence docoでチェックすることをお勧めする。

You'll bypass a lot of the queue if you want to do it on Hugging Face.

Hugging Faceでこれをやりたいなら、多くの待ち行列を回避できるだろう。

Staying in the vein of AI video, this week Runway Research finally released their Gen 2 motion brush.

AIビデオに関連して、今週Runway ResearchがついにGen 2モーションブラシをリリースした。

We teased it in last week's video and got a peek of what it'll look like.

先週のビデオでそれを予告し、どのようなものになるのか覗いてみた。

This week, we actually got access to it.

今週、私たちは実際にそれを手に入れることができた。

I found this Twitter thread here from Minoy of a bunch of different people showing off their generations that they made with this new motion brush with Gen 2.

MinoyのTwitterスレッドで、Gen 2の新しいモーション・ブラシで作ったジェネレーションを披露している人たちを見つけました。

I will link this up in the description below so you can see some other examples of what other people have done with it.

下の説明文にリンクを貼っておくので、他の人がこのブラシを使って作った他の例も見てほしい。

But personally, I want to get in and play with it myself.

しかし、個人的には、自分もこのブラシで遊んでみたい。

So jumping into Runway here, I get this popup that says motion brush is now available.

Runwayに飛び込むと、モーションブラシが利用可能になったというポップアップが表示される。

Motion brush is now available in image to video.

モーションブラシが画像からビデオに使えるようになりました。

Just paint an area or subject in your image, choose a direction, and your movement intensity value.

画像のエリアまたは被写体をペイントし、方向と動きの強さの値を選択するだけです。

Let's go ahead and try it.

さっそく試してみましょう。

So I just uploaded an image here that I generated with Midjourney.

Midjourneyで生成した画像をアップロードしました。

Let's go ahead and click on motion brush, and you can see I've got like another little river here with some clouds and a tree.

さあ、モーションブラシをクリックしましょう。ここにもう一つ小さな川があり、雲と木があります。

Go ahead and make our motion brush a little bit bigger, and let's see if we can get it to just kind of affect the clouds up here.

モーションブラシを少し大きくして、上の雲に影響を与えることができるか試してみましょう。

Let's see, I want some horizontal movement.

水平方向の動きが欲しいですね。

Let's make it moving to the left, and I'll leave the vertical and proximity movement the way they are.

左に動くようにしましょう。垂直方向と近接移動はそのままにしておきます。

And let's click save and let's just go ahead and generate, see what it gives us.

保存をクリックして、さあ、生成してみましょう。何が出てくるか見てみましょう。

Well, it took less than a minute to generate it.

生成には1分もかかりませんでした。

Let's see what it did.

その結果を見てみよう。

That's actually really, really good.

実際には、非常に良いです。

One thing I'm really noticing is how much the light is impacted.

ひとつ気になるのは、光がどれだけ影響を受けているかということだ。

You can see the sun sort of streaking through the clouds here.

太陽が雲を突き抜けているのがわかるだろう。

And then, you can actually see the reflection on the water changing as the clouds move.

そして、雲の動きによって水面の反射が変化しているのがわかる。

And if you look at the tree, the tree has no motion to it.

そして、木を見てみると、木には動きがありません。

The ground has no motion to it, it just affected the clouds and the reflection in the lighting.

地面には動きがなく、ただ雲と光の反射に影響を与えました。

Like this is actually a lot better than I was expecting.

実際には、これは私が期待していたよりもずっと良いです。

Like I'm pretty blown away by this.

これにはかなり驚かされたよ。

I actually want to try one more.

もう一回やってみたい。

So, I uploaded this image of a girl with like butterflies around her and I want to see if I can get some motion on just the butterflies.

蝶のようなものが周りにいる女の子の画像をアップロードしたんだけど、蝶だけに動きがつけられるか試してみたいんだ。

So, I'm just going to go ahead and mask only the butterflies.

では、蝶だけをマスクしましょう。

And let's do proximity movement or maybe they're getting closer and maybe a little bit of vertical movement.

そして近接の動き、あるいは近づいていく動き、そして少し垂直の動きをしてみましょう。

And I'm going to leave the horizontal movement alone on this one.

この画像では、水平方向の動きだけを残しておきます。

And let's see what we get out of this.

そして、何が出てくるか見てみましょう。

But they're not flapping their wings like butterflies, they're more kind of falling.

しかし、蝶のように羽ばたくのではなく、落下しているような感じだ。

But if you look at it, it did a great job.

でも見てみると、素晴らしい仕事をしている。

The girl in the middle is staying consistent, the ring around her is staying consistent.

真ん中の女の子は一貫性を保っているし、彼女の周りのリングも一貫性を保っている。

None of these flowers or anything are moving.

これらの花や何も動いていません。

The only things that are moving are the butterflies that I highlighted, which I think maybe it thought was flowers or something.

動いているのは、私がハイライトした蝶だけで、おそらく花だと思ったのかもしれません。

I don't know, but it looks pretty good.

よくわからないけど、なかなかいい感じだ。

It's only animating the stuff that I highlighted and not the stuff I didn't want it to highlight.

ハイライトしたものだけが動いていて、ハイライトしてほしくないものは動いていないんだ。

We also got some advancements this week in the world of AI voice cloning.

今週は、AIボイスクローニングの世界でもいくつかの進展があった。

ElevenLabs, probably the best text to speech generator on the market right now, announced that this week they now have speech to speech.

ElevenLabsは、おそらく今市場で最高のテキスト音声合成ソフトだと思いますが、今週、音声合成ができるようになったと発表しました。

So, you can train ElevenLabs on your own voice or custom voices.

つまり、自分の声やカスタム音声でイレブンラボを訓練することができる。

You can use one of ElevenLabs' existing voices and just like before, you can type in text and get it to say out that text in that voice.

ElevenLabsの既存の音声を使用し、以前のようにテキストを入力すると、その音声でテキストを発音させることができます。

But also, let's say you wanted to give certain inflections on your voice or speak in a certain tone or emphasize certain words.

また、声の抑揚をつけたり、特定のトーンで話したり、特定の単語を強調したりすることもできます。

Now, you can actually speak and it will take what you spoke and change it to the voice that you chose.

実際に話してみると、あなたが話した内容を、あなたが選んだ声に変えてくれます。

When I log into ElevenLabs here, you can see that there are new tasks up at the top.

イレブンラボにログインすると、上部に新しいタスクがあるのがわかる。

We've got text to speech and speech to speech.

テキストからスピーチ、スピーチからスピーチ。

At one time, I had some fun kind of training an Owen Wilson style voice into this.

一時期、オーウェン・ウィルソン風の声をこれにトレーニングするのが楽しかった。

And I can do a text to speech where it says, Subscribe to Matt Wolf on YouTube.

テキストを音声に変換して、「YouTubeでMatt Wolfを購読してください」と言うこともできます。

And it sounds like this: Subscribe to Matt Wolf on YouTube.

こんな風に聞こえます: YouTubeでマット・ウルフを購読してください。

I mean, I could kind of tell that's Owen Wilson's voice, but I wish he put more emphasis on certain words.

つまり、オーウェン・ウィルソンの声だということはなんとなくわかるんだけど、ある単語をもっと強調してほしかったな。

So, let's see what happens if I switch to speech to speech, leave it on this Owen Wilson voice, and let's record some audio.

では、音声読み上げに切り替えて、このオーウェン・ウィルソンの声のまま、音声を録音してみるとどうなるか見てみよう。

Subscribe to Matt Wolf on YouTube.

YouTubeでマット・ウルフを購読する

So, I kind of put the emphasis on different words.

では、別の単語を強調してみましょう。

And let's go ahead and click generate.

そしてgenerateをクリックします。

And this is what it sounds like: Subscribe to Matt Wolf on YouTube.

こんな感じです: YouTubeでマット・ウルフを購読する。

So, you can see it follows the inflections and the emphasis that I put when speaking it out.

私が話すときの抑揚や強調の仕方に従っているのがわかるでしょう。

This just gives us that extra level of control when we want our dialogue to sound exactly like we want it to, but maybe not necessarily in our own voice.

この機能によって、台詞を自分の思い通りにしたいが、必ずしも自分の声ではない場合に、より高度なコントロールが可能になるのだ。

Last week, Luma AI announced their new Genie research preview, which is essentially text to 3D objects.

Luma AIは先週、新しいGenie研究プレビューを発表しました。これは基本的にテキストから3Dオブジェクトへの変換です。

This week, they've announced that they've already improved upon it.

今週、彼らはそれをすでに改善したと発表しました。

You now have the ability to add negative prompts and control the seed number.

否定的なプロンプトを追加したり、シード数をコントロールしたりできるようになった。

They've also improved the stability and quality.

また、安定性と品質も向上している。

There's been content style updates to bot messages, and soon you'll be able to use it in other Discord servers.

ボットメッセージのコンテンツスタイルも更新され、もうすぐ他のDiscordサーバーでも使えるようになる。

As a quick reminder, if you do want to use Genie, you sign up for the Luma AI Discord, you jump into their Discord, pick one of these Genie rooms here, you type /Genie here.

もしGenieを使いたいなら、Luma AIのDiscordにサインアップして、そのDiscordに飛び込んで、ここにあるGenieルームのひとつを選んで、ここに/Genieと入力してください。

And then you enter a prompt like a monkey holding a taco.

そして、タコスを持った猿のようなプロンプトを入力する。

And then, if I click on this two more here, you can see we now have options for seed and negative prompts.

さらにこの2つをクリックすると、シードとネガティブのプロンプトのオプションがあることがわかる。

I'll go ahead and add a negative prompt, say ugly, disfigured, and distorted.

醜い、醜い、歪んでいるといったネガティブなプロンプトを追加してみる。

I don't know how much that's going to improve anything, but I just wanted to remind you how to use this tool.

これでどれだけ改善されるかはわからないが、このツールの使い方を覚えておいてほしい。

We hit enter and literally just a few seconds later, like this was insanely fast, I have some monkeys with tacos.

エンターキーを押すと、わずか数秒後に、これは信じられないほど速く、私はタコスを持ったサルの画像を持っています。

I mean, a couple have tacos sort of built into their heads.

つまり、何匹かは頭にタコスが組み込まれている。

This is pretty dang impressive right here, especially seeing what 3D generations and text to 3D looked like just 3 months ago.

特に、3D世代やテキストから3Dへの変換が、ほんの3ヶ月前にどのようなものだったかを考えると、これは非常に印象的なことだ。

This is a huge, huge advancement.

これは非常に大きな進歩だ。

You can also see that we have a seed number here, so if we want to generate one that looks the same and come back and use the same seed, we can.

また、シードナンバーがあるので、同じように見えるものを生成して、また同じシードを使うことができます。

A new feature is getting rolled out into Google meet that uses AI to detect when you actually raise your hand on camera.

グーグルミートには、カメラに向かって手を挙げたことをAIが検知する新機能が追加されました。

To raise your hand in the meeting, you can see their little animation here where this lady raises her hand and it says raising your hand.

ミートで手を挙げるには、この女性が手を挙げる小さなアニメーションをご覧ください。

So, it's using some sort of computer vision model to be able to know when you raise your hand.

つまり、ある種のコンピューター・ビジョン・モデルを使って、あなたがいつ手を挙げたかを知ることができるのです。

It says here it's available across most Google meet workspace plans, but you do have to turn it on.

ほとんどのGoogleのワークスペース・プランで利用可能ですが、オンにする必要があります。

It is off by default, but can be enabled in the setting.

デフォルトではオフになっていますが、設定で有効にすることができます。

I guess there was some sort of trend going around where people were making Disney movie posters using Microsoft's AI image Creator, like this kimchi poster here that seemed to have worried Microsoft.

おそらく、人々がMicrosoftのAI画像作成ツールを使ってディズニーの映画ポスターを作っていたトレンドがあったようです。このキムチのポスターはMicrosoftを心配させたようです。

And now Microsoft has disallowed the word Disney in its prompts.

そして今、マイクロソフトはプロンプトにディズニーという言葉を使用することを禁止している。

Also, this week Sarah Silverman hit some stumbling blocks with her AI copyright case.

また、今週、サラ・シルバーマンはAIの著作権訴訟でいくつかの障害にぶつかった。

We talked about this a couple months ago.

これについては数ヶ月前にも話した。

She was suing, along with some other authors, basically saying that these large language models ingested her entire book and now anybody can just go to a ChatGPT and ask questions and get responses from the book and don't need to buy the book.

彼女は、他の著者たちとともに、基本的に、これらの大規模な言語モデルが彼女の本全体を取り込み、今や誰でもChatGPTに行って質問し、本から回答を得ることができ、本を買う必要はない、と訴えていた。

Therefore, it infringes on copyright.

したがって、それは著作権を侵害している。

The judge went, Nah, get out of here with that.

判事は、「いや、そんなことならここから出て行け」と言った。

The generations that this is creating are different enough that it doesn't really compete with your book.

これが創り出そうとしている世代は十分に異なっており、あなたの本とは競合しない。

It wasn't recreating anything from the book.

本の内容を再現しているわけではない。

It's just essentially able to answer questions about the book.

ただ、基本的に本に関する質問に答えることができるだけだ。

In fact, the judge went as far as to say, This is nonsensical.

実際、裁判官は「これは無意味だ」とまで言いました。

There's no way to understand the LLaMA models themselves as a recasting or adaptation of any of the plaintiff's books.

LLaMAモデル自体を原告のいずれかの本の再構成や適応として理解する方法はありません。

To prevail on a theory that LLaMAs outputs constitute derivative infringement, the plaintiffs would indeed need to allege and ultimately prove that the outputs incorporate in some form a portion of the plaintiff's books alleged infringers derivative work must still bear some similarity to the original work or contain the protected elements of the original work.

LLaMAsの出力が派生的な侵害を構成するという理論に勝つためには、原告は原告の著作物の一部をいくらか取り込んでいることを主張し、最終的に証明する必要があります。被告の派生作品は、元の作品といくらかの類似性を持つか、元の作品の保護された要素を含んでいる必要があります。

So basically, if somebody generates a prompt, nothing that the prompt responds to bears enough similarity or chose any of the protected content.

つまり、基本的には、誰かがプロンプトを作成した場合、そのプロンプトが反応するものが十分な類似性を持っていたり、保護されたコンテンツのいずれかを選択していたりすることはない。

If you watch the past videos where I break down this news when it first came out, this was pretty much the outcome I expected and it's playing out pretty much how I think anybody would have thought it would have played out.

このニュースが最初に発表されたときに、私がこのニュースを解説した過去のビデオを見ると、これは私が予想していた通りの結果であり、誰もが想像していた通りの展開になっている。

There's not a whole lot of grounds for this lawsuit at the moment.

現時点では、この訴訟にはほとんど根拠がありません。

And finally, in an article from nature.com this week, we learned about a large-scale pancreatic cancer detection via non-contrast CT and deep learning.

最後に、今週のnature.comの記事で、非造影CTとディープラーニングによる大規模な膵臓がん検出について学んだ。

Basically, a new deep learning model called panda, which stands for pancreatic cancer detection with AI, can very accurately detect pancreatic lesions, and it can do it from non-contrast CT scans.

基本的に、パンダと呼ばれる新しいディープラーニング・モデルは、AIによる膵臓がん検出の略で、非常に正確に膵臓病変を検出することができ、非造影CTスキャンからそれを行うことができる。

Now, I don't totally know what that means, but according to the article, this was something that was very difficult to do even from Radiologists.

今、それがどういう意味なのかは完全にわかりませんが、記事によると、これは放射線科医でも非常に難しいことだったそうです。

This technology seems like it's going to really help Radiologists detect pancreatic cancer a lot sooner than previously been able to.

この技術は、放射線科医が従来よりもはるかに早く膵臓がんを検出するのに本当に役立つようです。

And like I mentioned in so many of my AI videos, I think the biggest shakeups in the world as a result of AI are going to come in the healthcare space, and things like this are constant proof of that evolution and that proving to be true.

私のAIのビデオの中で何度も言及しているように、AIの結果としての世界の最大の変革は、医療の領域で起こると思います。こうしたことは、その進化と真実性を証明するものです。

When I think about AI and the fears, I often think about how a lot of the benefits of AI should drastically outweigh a lot of the things that people are scared of, and the advancements into healthcare is one of those areas that I feel very, very strongly about.

AIとその恐怖について考えるとき、AIの利点が人々が恐れることよりもはるかに大きいはずだとよく考えます。医療の進歩もその一つで、私は非常に強く感じています。

That I really think the advancements in this area are going to completely change the world, and that's what I'm so excited about.

この分野の進歩は本当に世界を完全に変えると思っています。それが私がとても興奮している理由です。

So like I said at the beginning of this video, absolutely insane week in the world of AI, even when you take all the OpenAI drama out of the picture.

このビデオの冒頭で申し上げたように、AIの世界では、OpenAIのドラマを差し引いても、本当に非常識な1週間でした。

I don't know exactly at this time what my title said or what my thumbnail looked like, but it wasn't clickbait.

私のタイトルやサムネイルがどのようなものだったのか、現時点では正確には分かりませんが、クリックベイトではありませんでした。

This was a crazy week, and the world will never be the same after this week.

今週は狂った週であり、この週の後、世界はもう元に戻らないでしょう。

All of the large language models seem to have gotten improvement this week.

今週は、すべての大規模言語モデルが改善されたようです。

There's the possibility that this Q-Star is in the works and can do math with these large language models.

このQ-Starは、これらの大規模言語モデルを使って数学ができる可能性がある。

We've got new advancements in AI video.

AIビデオに新たな進歩が見られる。

We've got judges slapping down these lawsuits left and right, and it's just an exciting time in the world of technology.

私たちは裁判官がこれらの訴訟を次々に却下しているのを見て、興奮しています。技術の世界では、これは本当にエキサイティングな時期です。

I'm really pumped about this, and if you get pumped about this stuff as well, check out Future tools.

もしあなたもこのようなことに興奮しているのであれば、Future toolsをチェックしてみてください。

This is where I curate all the coolest AI tools that I come across.

ここでは、私が出会った最もクールなAIツールをキュレーションしている。

It's updated pretty much every day.

ほぼ毎日更新されます。

I also keep the AI news page up to date on a daily basis here, and I've got a free newsletter.

AIニュースのページも毎日更新していますし、無料のニュースレターもあります。

Just go to Future tools, click this button, and I'll keep you in the loop directly in your inbox.

Future toolsにアクセスして、このボタンをクリックしてください。

And if you like this video and you want to stay in the loop with the latest AI news, tutorials, and research, give this video a thumbs up and subscribe to this Channel, and I'll make sure more videos like this show up in your YouTube feed.

もし、このビデオが気に入ったら、最新のAIニュース、チュートリアル、研究についての情報を得たい場合は、このビデオにいいねをしてこのチャンネルを購読してください。そして、もっとこのようなビデオがYouTubeのフィードに表示されるようにします。

Thank you once again for tuning into this video and nerding out over the latest AI news with me.

このビデオにご視聴いただき、私と一緒に最新のAIニュースに熱中していただき、ありがとうございました。

I really, really appreciate you.

本当に、本当にありがとう。

Hope you keep coming back for more, and if you do, I'll see you in the next video.

また来てくれるといいな。もし来てくれたら、次のビデオで会おう。

Bye-bye.

バイバイ。


この記事が気に入ったらサポートをしてみませんか?