見出し画像

【マット・ウルフのAIニュース:AGIに一歩近づいた!】英語解説を日本語で読む【2024年7月20日|@Matt Wolfe】

今週のAIニュースのまとめです。OpenAIはAGI(人工汎用知能)への5つのステップを発表しました。第1レベルは現在のChatGPTやClaudeなどの会話型AI、第2レベルは人間レベルの問題解決能力を持つ推論AIで、これに非常に近いと言われています。第3レベルはフライト予約やメール返信などを自動化するエージェント、第4レベルは新しいアイデアを創出するイノベーターAI、そして第5レベルは組織の仕事をこなすAIです。現在、第1レベルから第2レベルに移行しつつあるとのことです。OpenAIは「Strawberry」とコードネームされた新しい推論技術を開発中で、以前「Q*」と呼ばれていたものと考えられています。この技術はインターネットを自律的にナビゲートし、複雑なタスクを計画・実行できるAIを目指しています。AnthropicのAIチャットボット「Claude」はAndroid向けアプリがリリースされ、Googleはロックされた状態でも質問に答える「Gemini」を発表しました。Googleはまた、AIを活用したビデオ作成アプリ「Google Vids」をテスト中で、YouTubeは「YouTube Music Sound Search」と呼ばれる新機能をテストしています。最後に、NVIDIAとMistralが新しい12Bパラメータモデル「Mistral NeMo」を開発し、オフライン環境でも高性能なAIを提供できると発表しました。
公開日:2024年7月20日
※動画を再生してから読むのがオススメです。


Here's the AI news that you might have missed this week.

今週見逃しているかもしれないAIニュースがこちらです。

Starting with the fact that OpenAI mapped out their five levels towards the progress of AGI.

まず、OpenAIがAGIの進展に向けた5つの段階を示したという事実から始めます。

Here's a quick breakdown of those five levels.

これら5つの段階を簡単に説明します。

Level one, they say would be chat bots and AI with conversational language.

レベル1は、チャットボットや会話言語を持つAIだと言われています。

That's essentially what we're getting right now out of chat, GPT, Claude, Llama three, things like that.

それが、現在私たちがチャット、GPT、Claude、Llama threeなどから得ているものです。

You have level two, which is reasoners that can do human level problem solving.

あなたはレベル2を持っています。それは人間レベルの問題解決ができる理論家です。

They claim they're very, very close to level two right now.

彼らは今、非常に非常にレベル2に近いと主張しています。

It moves on to level three, which is agents or systems that can take actions on our behalf book flights for us, respond to emails for us, things like that.

それはレベル3に進みます。それは私たちの代わりに行動を取るエージェントやシステム、私たちのためにフライトを予約したり、私たちのためにメールに返信したりすることができるものです。

There's level four, which they say is the innovators AI that can aid in invention.

彼らはレベル4があると言います。それは発明に役立つイノベーターAIです。

It's actually going to create novel ideas.

実際には新しいアイデアを生み出すでしょう。

Finally you have level five, which is organizations and AI that can do the work of an organization.

最後に、レベル5があります。これは組織や組織の仕事を行うことができるAIです。

Basically we're right here right now.

基本的に、私たちは今ここにいます。

We're at level one, almost on the level two.

私たちはレベル1にいて、ほぼレベル2にいます。

We're right on that precipice of level two and OpenAI believes that we'll sort of move through each of these levels on our way to a true AGI.

私たちはレベル2の崖っぷちにいます。OpenAIは、真のAGIに向かう途中で各レベルを通過すると信じています。

This was actually released on July 11th last week, but it didn't make it into last week's video, but it felt a little extra relevant this week because this week we got the news that OpenAI has been working on a new reasoning technology code named strawberry.

実際、これは先週の7月11日にリリースされましたが、先週のビデオには収録されませんでした。しかし、今週はOpenAIが新しい推論技術のコードネームを「strawberry」として開発しているというニュースがありました。

I've seen a lot of other YouTube videos and a lot of ex posts about this with people speculating.

私はたくさんの他のYouTube動画や、人々が推測しているこのことに関する多くの元の投稿を見てきました。

A lot of people believe that this was what was originally called Q-Star and they've now rebranded it to strawberry.

多くの人々が、これが元々Qスターと呼ばれていたものであり、今ではストロベリーにブランド変更されたと信じています。

This comes from a leaked internal document.

これは内部リークされた文書から来ています。

It says teams inside of OpenAI are working on strawberry according to a copy of a recent internal OpenAI document seen by Reuters.

ロイターが見た最近の内部OpenAI文書のコピーによると、OpenAI内のチームがストロベリーに取り組んでいるとされています。

Reuters couldn't ascertain the precise date of the document and they could not establish how close strawberry is to actually being publicly available.

ロイターは文書の正確な日付を確認できず、ストロベリーが実際に一般に利用可能になるのはどれくらい近いかを確立できませんでした。

Likely not very close.

おそらく非常に近いわけではありません。

The aim of strawberry is to not just generate answers to queries, but to plan ahead enough to navigate the internet autonomously and reliably to perform what OpenAI terms deep research article does claim the strawberry project was formerly known as Q*.

ストロベリーの目的は、単なるクエリへの回答を生成するだけでなく、インターネットを自律的かつ信頼性のある方法で航行し、OpenAI用語で深い研究論文と呼ばれるものを実行するために十分な計画を立てることです。ストロベリープロジェクトは以前、Q*として知られていました。

This exact article here was actually updated after it was published to add this section.

この具体的な記事は、実際には公開後に更新され、このセクションが追加されました。

It says a different source briefed on the matter said OpenAI has tested AI internally that scored over 90% on a math data set, a benchmark of championship math problems.

別の情報源によると、OpenAIは数学のデータセットで90%以上のスコアを獲得したAIを内部でテストしたと言われています。これは、チャンピオンシップの数学問題のベンチマークです。

Reuters couldn't actually Figure out if they were referring to the strawberry project or not, but it kind of sounds like they're probably the same project.

ロイターは、彼らがストロベリープロジェクトを指しているのかどうかを実際には理解できませんでしたが、おそらく同じプロジェクトであるように思われます。

Outside of this little information that we have on it, there's a lot of speculation around what this is, but it sounds like this strawberry is pretty close to that level two towards AGI that we were just talking about.

私たちが持っているこの少しの情報の外では、これについて多くの憶測がありますが、このイチゴは、さっき話していたAGIに向けたレベル2にかなり近いようです。

At the moment it sounds like the main purpose of this research is for this new model to essentially do research among the capabilities.

現時点では、この研究の主な目的は、この新しいモデルが本質的に能力の中で研究を行うことです。

OpenAI is aiming strawberry at is performing long horizon tasks or complex tasks that require a model to plan ahead and perform a series of actions over an extended period of time.

OpenAIは、このイチゴを、長期間にわたるタスクやモデルが先を見据えて行動を計画し、一連の行動を長期間にわたって行う必要がある複雑なタスクを実行することを目指しています。

OpenAI specifically wants its model to use these capabilities to conduct research by browsing the web autonomously with the assistance of a computer using agent or CUA that can then take actions based on its findings.

OpenAIは、この能力を使用して、モデルがウェブを自律的に閲覧し、その結果に基づいて行動を取ることができるエージェントやCUAを使用して、研究を行うことを特に望んでいます。

Not much more is known about this and OpenAI has notoriously been kind of hush hush about their upcoming models.

これについてはあまり詳しくは知られておらず、OpenAIは今後のモデルについてはあまり情報を公開していません。

Usually we don't know much about them until literally the day they make the announcement of them.

通常、彼らが発表をする日まで、私たちは彼らについてほとんど知りません。

While we're on the topic of OpenAI, more people from OpenAI are coming out and talking about some of the questionable practices of OpenAI's business.

OpenAIについて話している最中、OpenAIのさまざまな疑問のある実践について、より多くのOpenAIの人々が出てきて話しています。

It came out this week that some whistleblowers are saying that OpenAI illegally keeps employees from talking to government regulators about problems at work and removes their rights to rewards for blowing the whistle.

今週、内部告発者の一部が、OpenAIが職場での問題について政府規制機関と話すことを違法に阻止し、告発者に対する報奨権利を剥奪していると主張しています。

This comes from a letter that was sent to Gary Gensler, the chair of the SEC.

これは、SECの議長であるゲイリー・ゲンスラー宛に送られた手紙から来ています。

OpenAI refutes the claims saying that they have a policy on whistleblowers that protects employees' rights to make protected disclosures.

OpenAIは、保護された開示を行う権利を保護する内部告発者に関する方針を持っているとして、主張を否定しています。

This isn't the first time that OpenAI's policies and contracts with their employees have been under scrutiny.

OpenAIの方針や従業員との契約が検証されるのは、これが初めてではありません。

Several weeks ago, it came out that OpenAI was forcing people to sign non-despair agreements.

数週間前、OpenAIが人々に不況協定に署名させていることが明らかになりました。

If they talked badly about OpenAI, they could lose their vested equity in the company.

OpenAIについて悪口を言った場合、会社の株式を失う可能性があります。

It sounds like people are coming forward and claiming that if we blow the whistle on anything we think OpenAI is doing, it's somewhat suspicious.

OpenAIが行っていると思うことについて告発すると、人々が出てきて、それはいくぶん疑わしいと主張しています。

We can also lose our vested equity and that's not legal.

私たちも株式を失う可能性があり、それは違法です。

The sources are anonymous.

情報源は匿名です。

OpenAI claims that that's not actually happening, but I have a feeling OpenAI is probably in the process of overhauling a lot of their contracts that get signed by any new employees that join the company due to all this scrutiny.

OpenAIは実際にはそのようなことが起こっていないと主張していますが、OpenAIはおそらく、このような厳しい検証のために会社に参加する新しい従業員が署名する契約の多くを抜本的に見直す過程にあると感じています。

Back when most of these people probably signed up for OpenAI, the company wasn't nearly as bigger in the public eye.

これらのほとんどの人々がOpenAIに登録した当時、その会社は一般の目にはほとんど知られていませんでした。

Now that they are as big and in the public eye, a lot of this stuff is kind of starting to come under the microscope.

今では、彼らは大きくなり、一般の目に触れるようになったため、このようなことがかなり注目され始めています。

While we're on the topic of OpenAI, there's some speculation that maybe the DALL·E image model recently got an update.

OpenAIの話題について言えば、最近DALL·E画像モデルが更新されたのではないかという憶測があります。

This is a post from my buddy angry penguin over on X where he shows off an image that he created that has pretty legible writing in it.

これは私の友人である怒っているペンギンがXで投稿したもので、彼が作成した画像を見せています。その中にはかなり読みやすい文字があります。

This clearly says evolve all over it.

これは明らかに進化と書かれています。

Previously, DALL·E struggled with words.

以前、DALL·Eは言葉に苦労していました。

If I go to DALL·E and say create an image of a robot holding a sign that says, please subscribe, I actually get an image that has the words kind of nailing it.

もし私がDALL·Eに行って、サインを持ったロボットの画像を作成してくださいと言ったら、実際には言葉がかなりうまく表現された画像が得られます。

I think DALL·E did make some updates because the text seems to be much more clear than it used to be.

私はDALL·Eがいくつかの更新を行ったと思います。テキストは以前よりもはるかに明確に見えるようです。

If you're interested in using DALL·E, but you don't have a ChatGPT Plus account, you can always go to Bing.com/images/create and use DALL·E three for free over on Bing's website, which if DALL·E three did get an update, it appears to have also rolled out here inside of being image creator.

DALL·Eを利用したいけれども、ChatGPT Plusアカウントを持っていない場合は、いつでもBing.com/images/createにアクセスして、Bingのウェブサイト上で無料でDALL·E threeを使用することができます。もしDALL·E threeが更新された場合、画像作成者としてこちらでも展開されているようです。

Two and a half out of four sort of nailed what I was going for.

4つのうち2つ半が私が目指していたことをうまく表現していた。

We also got some new demo videos from Sora.

また、Soraから新しいデモ動画も入手した。

We can see this like black and white video showing all sorts of different clips in black and white that actually look pretty dang impressive.

これは、実際にかなり印象的に見えるさまざまなクリップを白黒で表示したビデオのように見えます。

These were shared on Matthew Berman's ex account.

これらは、マシュー・バーマンの元のアカウントで共有されました。

Here's another one that he shared of like ocean crashing and I don't know, a gas station or motel or something.

彼が共有したもう1つは、海が激しく打ち寄せる様子や、ガソリンスタンドやモーテルなどが映っているようなものでした。

But yeah, we're getting more demos from Sora, which is just making people more anxious to actually get their hands on it.

でも、そうですね、Soraからより多くのデモを受け取っているので、実際に手に入れたいという人々の不安が増しています。

But right now we do sort of have that itch scratched in the form of runway gen three and Luma's dream machine.

ただし、現時点では、ランウェイジェン3やルマのドリームマシンという形でその欲求を満たすことができます。

We can actually create some pretty good AI generated videos now with those tools.

これらのツールを使って、実際にかなり良いAI生成ビデオを作成することができます。

It sort of damped down the excitement for Sora a little bit, but the fact that this can create much longer videos and OpenAI tends to kind of set the bar for almost everything they put out.

Soraに対する興奮は少し和らいでいますが、これによってより長いビデオを作成できることや、OpenAIが出すほとんどのものに基準を設定する傾向があるという事実があります。

I'm still excited about it, but I have gotten that need met with some other tools recently.

まだそれに興奮していますが、最近他のツールでそのニーズを満たしています。

If you're somebody that uses AI at work or you're thinking about using AI at work, you need to check out HubSpot's completely free bundle called five essential resources for using ChatGPT at work.

もしあなたが仕事でAIを使用している人、または仕事でAIを使用しようと考えている人であれば、HubSpotの完全無料のバンドルである「ChatGPTを仕事で使用するための5つの必須リソース」をチェックする必要があります。

Honestly, if you haven't embraced AI yet, just remember what NVIDIA CEO Jensen Huang said, AI will be the most transformative technology of the 21st century.

正直に言って、まだAIを受け入れていない場合は、NVIDIAのCEOであるジェンスン・フアンが言ったことを覚えておいてください。AIは21世紀で最も変革的な技術になるでしょう。

It will affect every industry and aspect of our lives.

それはすべての産業や私たちの生活のあらゆる側面に影響を与えるでしょう。

If you're not using AI to speed up and improve the quality of your work, well your competitors probably are.

もしあなたが仕事のスピードを上げ、品質を向上させるためにAIを使用していないのであれば、競合他社はおそらく使用しています。

The link to this totally free resource is down in the description below.

この完全無料のリソースへのリンクは、下記の説明文にあります。

Trust me, this is something you're going to want to look through.

信じてください、これはあなたが見たいと思うものです。

It includes interesting flow charts on when you should or shouldn't use ChatGPT.

ChatGPTを使用すべきかどうかについての興味深いフローチャートが含まれています。

There's also a really cool template that you can use with ChatGPT to make sure that any of the content it creates for you follows your brand's voice.

ChatGPTと一緒に使用できる本当に素敵なテンプレートもあります。これにより、作成されたコンテンツがブランドの声に従っていることを確認できます。

You've got an AI generated content refinement checklist to double check the AI's work and ensure that you're putting something out into the world that you really want to be putting out there.

AIが生成したコンテンツの改善チェックリストがあり、AIの作業を二重チェックして、本当に発信したいものを世に送り出していることを確認できます。

There's also a four page checklist that you can easily follow all about adopting AI in the workplace and a super comprehensive PDF guide on how to supercharge your day with ChatGPT.

職場でAIを導入するための簡単に従える4ページのチェックリストと、ChatGPTを活用して1日を効果的に過ごす方法についての非常に包括的なPDFガイドもあります。

Here's what's really cool about this.

これが本当に素晴らしいところです。

If you scroll all the way down to the bottom of this document, they have 100 ways to try ChatGPT today.

この文書の一番下までスクロールすると、今日からChatGPTを試すための100の方法があります。

It's got some really cool prompts to test out things like providing recommendations for improving customer service and support, providing recommendations for improving SEO, helping with email management and organization and so much more.

顧客サービスやサポートの改善のための推奨事項を提供したり、SEOの改善のための推奨事項を提供したり、メールの管理や整理を手伝ったり、さらにたくさんのことを試すための素晴らしいプロンプトがたくさんあります。

It is really comprehensive and really helpful.

本当に包括的で役立つ情報です。

The link to this completely free resource from HubSpot is in the description below.

HubSpotからのこの完全無料のリソースへのリンクは、以下の説明にあります。

Thank you so much to HubSpot for sponsoring this video.

このビデオのスポンサーであるHubSpotに感謝します。

Andrej Karpathy, who previously worked at OpenAI and then recently stepped away, just announced a new venture that he's working on.

以前OpenAIで働いていたアンドレイ・カルパシーは最近離れ、新しい取り組みを発表しました。

He said, excited to share that I'm starting an AI plus education company called Eureka Labs.

彼は、「AIと教育を組み合わせたユーレカラボ」という会社を立ち上げることを喜んで発表しました。

At Eureka Labs, they're building a new kind of school that is AI native.

ユーレカラボでは、AIを中心とした新しいタイプの学校を構築しています。

They say that subject matter experts who are deeply passionate, great at teaching, infinitely patient, and fluent in all of the world's languages are also very scarce and cannot personally tutor all 8B of us on demand.

彼らは、情熱を持ち、教えるのが得意で、無限の忍耐力があり、世界のすべての言語に堪能な専門家は非常に希少であり、8億人全員に即座に個別指導することはできないと言います。

It sounds like he's creating a sort of online education where the teacher still designs the course materials, but they are supported, leveraged and scaled with an AI teaching assistant who is optimized to help guide the students through them.

彼は、教師がコース教材を設計するが、AI教育アシスタントが学生をガイドするのに最適化され、サポートされ、活用され、スケールされるオンライン教育の一種を作り出しているようです。

This announcement here is really all that we have.

ここにある発表が、実際に私たちが持っているすべてです。

He hasn't really talked a whole lot about this more than the announcement, but what I'm sort of imagining is that a teacher with subject matter expertise goes in, creates an entire course on their subject matter.

彼は、この発表以上にそれについてあまり話していませんが、私が考えているのは、専門知識を持つ教師が入り、自分の専門分野に関する完全なコースを作成するというものです。

All of that information is then sort of trained in the AI.

そのすべての情報は、AIにトレーニングされるということです。

I don't know if they're going to use retrieval augmented generation or they're going to fine tune the model.

彼らが検索強化生成を使用するか、モデルを微調整するかどうかはわかりません。

I don't know exactly how they're going to do it, but all of the information that the teacher taught is now available inside of the model.

具体的にどのように行うのかはわかりませんが、先生が教えた情報はすべてモデルの中にすでに利用可能です。

Anybody who wants to learn this stuff can then work with a tutor who understands all of the training material and can speak to the student in whatever language they want to learn in.

このような内容を学びたい人は、そのトレーニング資料を理解し、学生と任意の言語で話すことができる家庭教師と一緒に取り組むことができます。

This will massively scale the ability of an individual teacher who can teach the concept once and then let their AI assistant teach it to everybody else who wants to learn that information.

これにより、一度概念を教えることができる個々の教師の能力が大幅に向上し、その情報を学びたい他のすべての人にAIアシスタントが教えることができます。

I'm just sort of speculating on what this is going to look like.

私はこれがどのように見えるかについて推測しているだけです。

I don't know exactly, but that's sort of what the concept sounds like to me.

正確にはわかりませんが、そのコンセプトは私にはそのように聞こえます。

If you're a fan of Anthropics Claude and you don't have an iPhone, well, good news.

Anthropics Claudeのファンで、iPhoneを持っていない場合、良いニュースです。

They just released it on Android.

彼らはAndroid向けにリリースしました。

It's been on iOS for a couple of months now and they just now rolled out an Android version.

iOSでは数ヶ月前から利用可能で、今回Android版もリリースされました。

Personally, I'm still a fan of the ChatGPT app a little bit more than the Anthropic app, just because the conversational voice portion of the ChatGPT app is actually really, really good.

個人的には、会話の声の部分が実際にとても良いので、ChatGPTアプリの方がAnthropicアプリよりも少し好きです。

When I'm on my computer, I usually use either Claude or Perplexity.

私がコンピューターを使っているときは、通常、ClaudeまたはPerplexityを使用しています。

When I'm using my phone, I still go to the ChatGPT app, but I also understand most people probably don't want to pay for three separate chat subscriptions.

携帯電話を使用しているときは、ChatGPTアプリに行きますが、多くの人がおそらく3つの別々のチャットサブスクリプションを支払いたくないとも理解しています。

If you really like the ability to have a voice conversation with an AI ChatGPT is still the way.

AIとの音声会話を楽しむ能力が本当に好きなら、ChatGPTがまだ最適です。

If you don't care about that, you just want the best model in your hand.

そうでなければ、手元に最高のモデルが欲しいだけです。

Claude is probably the best.

Claudeがおそらく最適です。

They now have an Android app.

彼らは今、Androidアプリを持っています。

Since we're talking about Android phones, Gemini now answers general questions when your Android phone is locked.

Androidの電話について話しているので、Geminiは今、あなたのAndroidの電話がロックされているときに一般的な質問に答えます。

There's not too much more to share on this story.

この話についてはそれほど多くを共有することはありません。

It is exactly what it sounds like.

それはまさにその通りです。

Google now lets you get answers from Gemini without actually unlocking your device.

Googleは今、デバイスを実際にロック解除せずにGeminiから回答を得ることができます。

Also this week, Google announced Google Vids.

今週、GoogleはGoogle Vidsを発表しました。

Vids is an AI powered video creation app that's designed for work and deeply integrated with the workspace suite you use every day.

Vidsは、仕事向けに設計されたAI搭載のビデオ作成アプリであり、毎日使用しているワークスペーススイートと深く統合されています。

You can actually find it over at workspace.google.com/products/Vids.

実際には、workspace.google.com/products/Vids で見つけることができます。

Right now it's not available to everybody.

現時点では、すべての人には利用できません。

They say we're currently testing this new application with a select group of trusted testers.

彼らは、この新しいアプリケーションを信頼できる一部のテスターでテストしていると述べています。

According to the video on their website, it looks like you give it a prompt like help me create a sales training video.

彼らのウェブサイトの動画によると、助けてください、セールストレーニングビデオを作成してくださいというプロンプトを与えるようです。

It will help create this like slide style video for you.

あなたのためにこのようなスライドスタイルのビデオを作成するのに役立ちます。

There's a bunch of different styles that you can choose from.

選択できるさまざまなスタイルがあります。

Once you pick your style, you can speak out a script, add a voiceover to it, and add stock footage to it to get the perfect sort of layout for your video.

スタイルを選択したら、スクリプトを読み上げ、ナレーションを追加し、ストック映像を追加して、ビデオの完璧なレイアウトを作成できます。

It creates that sort of slide presentation video for you.

あなたのためにそのようなスライドプレゼンテーションビデオを作成します。

Since we're talking about Google and we're talking about video, let's talk about this new feature that YouTube is rolling out called YouTube music sound search.

Googleとビデオについて話しているので、YouTubeが導入しているYouTubeミュージックサウンドサーチという新機能について話しましょう。

It sounds like a feature that's very similar to Shazam where you can have it listen to a snippet of music and it will Figure out what song it is.

これは、Shazamに非常に似ている機能のようで、音楽の断片を聞かせると、どの曲かを特定してくれます。

You can also hum the song and it'll be able to Figure out what song it was based on your humming.

また、曲をハミングしても、あなたのハミングに基づいてどの曲かを特定することができます。

We can see some screenshots that they shared here.

こちらで共有されているスクリーンショットを見ることができます。

They've got a little search box here with a microphone next to it.

ここには、マイクの横に小さな検索ボックスがあります。

I'm assuming they click the microphone and then it says play, sing, or hum a song.

私は、彼らがマイクをクリックしてから、再生、歌唱、またはハミングをすると仮定しています。

It figures out what song that you were trying to find just based on the singing or humming.

歌唱やハミングに基づいて、あなたが見つけようとしていた曲を特定します。

YouTube's also testing an AI-generated conversational radio.

YouTubeはまた、AIによる会話型ラジオのテストを行っています。

It'll let you create a custom radio by describing exactly what they want to hear.

彼らが聞きたい音楽を正確に説明してカスタムラジオを作成できるようにします。

This article goes on to say be on the lookout for ask for music any way you like card in your home feed.

この記事は、ホームフィードに「お好きな方法で音楽をリクエストしてください」というカードがあるかどうかを注意してください。

This will open the chat-based UI with a field at the bottom that lets you ask for music.

これにより、チャットベースのUIが開き、下部に音楽をリクエストできるフィールドが表示されます。

There's been a little bit more controversy this week about the source of training data or various AI models.

今週は、さまざまなAIモデルのトレーニングデータの出所について少し論争がありました。

This article on proof news here claims that Apple and video and Anthropic use thousands of swiped YouTube videos to train AI.

こちらの証拠ニュースの記事によると、Appleやビデオ、AnthropicはAIをトレーニングするために数千のYouTube動画を使用していると主張しています。

Basically here's what's happening with this.

基本的には、このような状況が起こっています。

There's a company called Eleuther AI, which is an open-sourced company that collects a whole bunch of data from everywhere and puts it into what they call the pile.

Eleuther AIという企業があり、これはあらゆるところから大量のデータを収集し、それを「山」と呼ばれるものにまとめています。

The pile is this giant data set that companies then use to train their AI models initially so that it can just sort of learn how the language works and just get injected with a ton of data to start.

この山は、企業が最初にAIモデルを訓練するために使用する巨大なデータセットであり、言語の動作を学び、大量のデータを取り込んで開始することができます。

While this pile is trained on publicly available data.

この山は公開されているデータで訓練されています。

It turns out that a lot of that publicly available data was transcripts that were copied and pasted straight from YouTube videos.

実際、多くの公開されているデータは、YouTubeの動画からそのままコピー&ペーストされたテキストであることがわかりました。

A lot of YouTubers started to notice there's data in there from people like MKBHD, MrBeast, PewDiePie, and others.

多くのYouTuberたちは、MKBHD、MrBeast、PewDiePiなどの人々のデータが含まれていることに気づき始めました。

This site proof news.org actually put up a little search engine so that you can see if a video that you created or literally anybody's video is found within the pile's data set.

このサイトproof news.orgは、自分が作成した動画や誰か他の人の動画がそのデータセットの中にあるかどうかを確認できるように、ちょっとした検索エンジンを設置しました。

I did a search for my own name and no results were found.

自分の名前で検索したところ、結果は見つかりませんでした。

I don't know whether I should be offended or relieved at the time the data was scraped.

データが収集された時点で、私は侮辱されるべきか安心すべきかわかりません。

My channel probably just wasn't big enough.

おそらく、私のチャンネルは単に大きすぎなかったのでしょう。

After all this came out, Apple stepped up to say, yes, we've used the pile for some research purposes and some training, but the model that we're using inside of our Apple intelligence is not trained on the pile's data.

これが明るみに出た後、Appleは、はい、一部の研究目的やトレーニングにそのデータを使用したと述べましたが、Appleの知能内部で使用しているモデルはそのデータに基づいてトレーニングされていないとのことです。

That information is not inside of Apple's training set according to them.

彼らによると、その情報はAppleのトレーニングセットに含まれていません。

Microsoft has a platform called designer, which if you're not familiar with it, it's very similar to Canva.

Microsoftには、デザイナーというプラットフォームがあります。もし慣れていない場合は、Canvaに非常に似ています。

It's a platform to create things like YouTube thumbnails and banner ads and Instagram images and things like that.

YouTubeのサムネイルやバナー広告、Instagramの画像などを作成するプラットフォームです。

This designer platform is now being rolled out into a whole bunch of different Microsoft apps directly where you can use the copilot sidebar over here, ask it to create a specific image in a specific style, and it will actually use Microsoft's designer to create that image and allow you to pull it directly inside of your document or your PowerPoint or whatever Microsoft tool that you're using.

このデザイナープラットフォームは、さまざまな異なるMicrosoftアプリに直接展開されており、ここでコパイロットサイドバーを使用して、特定のスタイルで特定の画像を作成するように依頼すると、実際にMicrosoftのデザイナーを使用してその画像を作成し、それを直接ドキュメントやPowerPointなどのMicrosoftツールに取り込むことができます。

Here's another example of it being shown off inside of Microsoft PowerPoint where they create some images with designer over here.

ここでは、Microsoftパワーポイント内でデザイナーを使用している例が示されています。

It generates some images and then they just pull that in as the background of the slide.

画像を生成し、それをスライドの背景として引き込むだけです。

Designer also got a free mobile app on both iOS and Android so you can easily create and edit images on the go on a mobile device.

デザイナーは、iOSとAndroidの両方で無料のモバイルアプリも手に入れたので、モバイルデバイスで移動中に簡単に画像を作成や編集することができます。

There's a whole bunch of other new features for designer.

デザイナー向けの他の新機能もたくさんあります。

If you want to dive deeper into it, this is something that you're really interested in.

もっと詳しく知りたい場合は、本当に興味があるものです。

I will make sure it's linked up in the description so you can see all of the updates here.

説明文にリンクを貼っておきますので、こちらで全ての更新内容をご覧いただけます。

The article is quite long and there are quite a few updates, but it seems like it's got some other pretty cool features like this restyle feature.

記事はかなり長く、いくつかの更新がありますが、このリスタイル機能のような他のかなりクールな機能もあるようです。

You upload an image and it restyles it to a different style of image.

画像をアップロードすると、それを異なるスタイルの画像に再スタイリングします。

Mistral, the French AI company that develops Large Language Models released a new model called code stroll Mamba.

大規模言語モデルを開発するフランスのAI企業であるMistralは、新しいモデル「code stroll Mamba」をリリースしました。

This is a model designed for code generation.

これはコード生成用に設計されたモデルです。

It is open source and it can handle an input of up to 256,000 tokens, which is double what OpenAI currently offers with ChatGPT.

オープンソースであり、ChatGPTが現在提供しているものの2倍にあたる最大256,000トークンの入力を処理できます。

That's roughly 192,000 words between the amount of text inputted and the amount of text outputted.

入力されたテキストの量と出力されたテキストの量の間には、おおよそ192,000語が含まれています。

This is a 7B parameter model and offers a fast response time even with longer input text.

これは70億パラメータのモデルであり、長い入力テキストでも迅速な応答時間を提供します。

If you're a coder and you're looking to try another Large Language Model to see if it outperforms the other models you've tried, maybe code stroll Mamba is a choice to try out.

もしもあなたがコーダーであり、他のモデルを試してみて、それがこれまで試した他のモデルを上回るかどうかを見たいと考えているなら、おそらくCode Stroll Mambaは試してみる価値がある選択肢です。

Amazon started rolling out an AI shopping assistant called Rufus, which apparently answers questions about shopping and also politics.

Amazonは、RufusというAIショッピングアシスタントを展開し始めました。これは、ショッピングや政治に関する質問に答えるようです。

Rufus is essentially a chat bot just like ChatGPT, but it's built directly inside of the Amazon app and it's trained on the data that's in Amazon.

Rufusは基本的にChatGPTと同様のチャットボットですが、Amazonアプリ内に直接組み込まれており、Amazonのデータでトレーニングされています。

You can ask what are the best lawn games for kids birthday parties?

子供の誕生日パーティーに最適な庭遊びは何かを尋ねることができますか?

It will suggest lawn games as well as where to find them and buy them on Amazon.

それは芝生ゲームを提案し、それらをどこで見つけてAmazonで購入するかも示唆します。

His verge article also tested some other questions and got it to answer questions about the candidates for the 2024 election.

彼の記事は他のいくつかの質問もテストし、2024年の選挙候補者に関する質問に答えることができました。

I've got more bad news.

もっと悪いニュースがあります。

If you're in the EU, it sounds like Metta is not going to be offering their multimodal models in the European union.

EUにいる場合、Mettaはヨーロッパ連合でのマルチモーダルモデルの提供をしないようです。

They will be offering their normal text input output models like Llama, but you're probably not going to be able to create AI images, AI videos, and anything other than more text.

Llamaのような通常のテキスト入力出力モデルを提供する予定ですが、AI画像、AIビデオ、およびテキスト以外のものを作成することはおそらくできないでしょう。

If you're in the EU due to the EU's, I guess, unclear policies, they say here we will release a multimodal Llama model over the coming months, but not in the EU due to the unpredictable nature of the European regulatory environment.

もしEUにいるのはEUの、おそらく不明瞭な政策のためだとしたら、こちらでは今後数ヶ月でマルチモーダルなラマモデルをリリースすると言っていますが、欧州の規制環境の予測不可能性のためEUではリリースされません。

It says here that Metta's issue isn't with the still being finalized AI act, but rather with how it can train models using data from European customers while complying with GDPR, the EU's existing data protection law.

ここには、Mettaの問題はまだ最終決定されていないAI法案ではなく、GDPR、EUの既存のデータ保護法に準拠しながらヨーロッパの顧客のデータを使用してモデルをトレーニングする方法にあると書かれています。

The United Kingdom has nearly identical laws to GDPR, but Metta says it isn't seeing the same level of regulatory uncertainty and plans to launch its new model for the UK users.

英国はGDPRとほぼ同じ法律を持っていますが、Mettaは同じレベルの規制上の不確実性を感じておらず、新しいモデルを英国のユーザー向けにローンチする計画です。

Here's something that I came across on X from Johannes Stelzer.

こちらはJohannes Stelzerから見つけたものです。

I just thought it was really cool.

本当に面白いと思いました。

They hooked up a little, meaty device to their computer and they can turn the knobs to change different aspects of the images.

彼らはコンピュータに小さな、肉厚のデバイスを接続し、ツマミを回して画像のさまざまな側面を変えることができます。

They appear to be using Stable Diffusion here.

彼らはここでステーブルディフュージョンを使用しているようです。

Using these knobs to change different elements within Stable Diffusion, different sort of parameters.

これらのツマミを使用してステーブルディフュージョン内のさまざまな要素を変更し、異なる種類のパラメータを得ます。

I just thought it looked really cool.

私はそれが本当にクールに見えたと思いました。

I wanted to share it.

それを共有したかったのです。

They also put the code for it up on GitHub.

彼らはそれに関するコードもGitHubにアップしました。

If you want to play around with something like this and hook up SDXL to a meaty device, well, that's available for you to do.

もしこういったもので遊びたいし、SDXLを頑丈なデバイスに接続したいと思うなら、それはあなたが行うことができます。

Here's another article that I came across that I couldn't find a whole lot on.

私が見つけた別の記事は、あまり情報が見つからなかったものです。

I just thought it looked cool is from Gizmo China.

私はただそれがかっこいいと思ったのですが、それはGizmo Chinaからです。

Turn your selfie into a printable 3d character with Tencent's AI powered app.

自分のセルフィーをTencentのAIパワードアプリで印刷可能な3Dキャラクターに変換してください。

Apparently this is an app where you can upload a selfie and it will generate a 3d model based on that one selfie that is so good that you can 3d print it.

どうやら、これは自撮りをアップロードすると、その1枚の自撮りを基に3Dモデルを生成してくれるアプリのようです。その3Dモデルはとても優れているため、3Dプリントすることができます。

I actually did some digging to try to find more info about what they're doing here.

実際、彼らが何をしているのかについてもっと情報を探ろうとしていました。

This was literally the only article I can find about it.

これが、私が見つけることができた唯一の記事でした。

But as I learned more about it, I do have a 3d printer.

しかし、それについてもっと学んでいくうちに、私は3Dプリンターを持っています。

I do love AI.

私はAIが大好きです。

This is something I will be playing with if I can get my hands on it.

これは、手に入れることができれば遊んでみたいものです。

Here's something interesting.

興味深いものがあります。

AI systems achieve a 96% accuracy in determining the sex from dental X-rays.

AIシステムは、歯科X線から性別を96%の精度で判別します。

They basically trained an AI model on a whole bunch of dental images.

彼らは基本的に、多くの歯科画像でAIモデルを訓練しました。

When they ran new dental images through it, it was able to determine the sex of whose teeth those were at a rate of 96% accuracy.

新しい歯科画像を通して実行すると、その歯が誰のものかの性別を96%の精度で判別できました。

The ones that it wasn't accurate on, that was mostly children.

それが正確でなかったのは、ほとんどが子供たちでした。

The article claims that it's less accurate if you're six or under, or basically haven't lost your teeth yet.

その記事は、6歳以下の場合、または基本的にまだ歯を失っていない場合、正確性が低くなると主張しています。

The main use case for something like this would be in forensics.

このようなものの主な使用例は、法医学であるでしょう。

If they find skeletal remains or something, they can actually identify the sex of the skeletal remains.

もし彼らが骨格遺体などを見つけた場合、実際にその骨格遺体の性別を特定することができます。

But I just thought it was fascinating.

でも、私はそれが魅力的だと思いました。

I thought I'd share with you.

あなたと共有したいと思いました。

I started recording that video while I was in San Diego still.

私はまだサンディエゴにいる間にそのビデオの録画を始めました。

I'm on vacation in Colorado and a few more pieces of news came out that I wanted to make sure got shared in Friday's news video, including the fact that OpenAI just launched a new model today on Thursday, the day I record this called GPT-4o mini with pretty much every Large Language Model creator out there, creating models that are smaller, designed to be more cost efficient and faster.

私はコロラドで休暇中で、金曜日のニュースビデオで共有したいいくつかの新しい情報が出てきました。その中には、OpenAIが今日木曜日に新しいモデルを発表したことも含まれています。このモデルはGPT-4o miniと呼ばれ、ほとんどの大規模言語モデルの開発者が参加しており、より小さく、コスト効率が高く、より速いモデルを作成することを目指しています。

OpenAI needed to create a language model to compete.

OpenAIは競争するために言語モデルを作成する必要がありました。

This new GPT-4o is replacing the old GPT three point five, not quite as powerful as the full on GPT-4o, but it is faster and smarter than the previous GPT three point five.

この新しいGPT-4oは、古いGPT-3.5を置き換えるものであり、完全なGPT-4oほど強力ではありませんが、以前のGPT-3.5よりも速く、賢いです。

We can see that right now today, GPT-4o mini supports text and vision in the API with support for text, image, video, and audio inputs and outputs in the future.

今日の現時点では、GPT-4 MiniはAPIでテキストとビジョンをサポートしており、将来的にはテキスト、画像、ビデオ、オーディオの入出力をサポートします。

It's got 128,000 token context window.

コンテキストウィンドウは128,000トークンです。

You should still be able to put large amounts of text as your input.

入力として大量のテキストを入力することはできるはずです。

However, the output only supports 16,000 tokens.

ただし、出力は16,000トークンのみをサポートしています。

We can see this comparison here of model evaluation scores with GPT-4o in pink being the best model.

GPT-4 Miniとのモデル評価スコアの比較を見ると、ピンク色のGPT-4が最も優れたモデルであることがわかります。

It pretty much performs the best across the board here in every test with GPT-4o mini, this new model that was just released performing second best across pretty much all of these benchmarks here.

GPT-4o miniは、ここで行われたすべてのテストでほぼ最高のパフォーマンスを発揮しており、この新しいモデルはほぼすべてのベンチマークで2番目に優れたパフォーマンスを示しています。

Keep in mind this is comparing it to these other companies, smaller models.

これを他の企業、より小さなモデルと比較していることを念頭に置いてください。

It almost kind of feels unfair to be putting GPT-4o in here compared against Claude Haiku and Gemini flash, which is both of those platforms, smaller models while GPT-4o is OpenAI's current state of the art model.

GPT-4oをClaude HaikuやGemini flashと比較するのは、少し不公平な気がします。これらは両方ともより小さなモデルであり、一方GPT-4oはOpenAIの最新モデルです。

But nonetheless, we can see how this new mini version of GPT-4o outperforms all the other mini models that are out there.

それでも、この新しいGPT-4o mini版が他のすべてのミニモデルを凌駕していることがわかります。

If we log into our ChatGPT account here up in the top left corner, where you select the model, you can see that we now have access to four Oh four Oh mini and the legacy GPT-4.

左上隅にあるChatGPTアカウントにログインすると、モデルを選択する場所で、4 Oh 4 Oh miniと従来のGPT-4にアクセスできることがわかります。

At the time of this recording, when I try to not log in and just use the free version, it's still claiming it's using ChatGPT-3.5, although it does say here in ChatGPT free plus and team users will be able to use GPT-4o mini starting today.

この録音時点では、ログインせずに無料版を使用しようとすると、まだChatGPT-3.5を使用していると主張していますが、ここにはChatGPT無料プラスおよびチームユーザーが今日からGPT-4o miniを使用できると記載されています。

In other Large Language Model news, NVIDIA and Mistral teamed up to create Mistral NeMo.

他の大規模言語モデルのニュースでは、NVIDIAとMistralが協力してMistral NeMoを作成しました。

This is a 12B parameter model and it also has 128,000 tokens, just like the new GPT-4o mini model.

これは12Bパラメーターモデルで、新しいGPT-4o miniモデルと同様に128,000トークンを持っています。

What's cool about this model is it's actually designed to be run on device.

このモデルの素晴らしい点は、実際にデバイス上で実行されるように設計されていることです。

We can see here, it says this model's efficiency and local deployment capabilities could attract businesses operating environments with limited internet connectivity or those with stringent data privacy requirements.

ここにあるように、このモデルの効率性とローカル展開能力は、インターネット接続が限られている環境や厳格なデータプライバシー要件を持つ企業を引きつける可能性があります。

They do go on to say that it's more designed for laptops and desktop PCs than smartphones.

彼らは、それがスマートフォンよりもラップトップやデスクトップPC向けに設計されていると述べています。

Companies that want to run a really, really powerful Large Language Model with a large context window that can take a lot of input and a lot of output text and may be concerned about privacy or not have internet access.

非常に強力な大規模言語モデルを実行したい企業は、大きなコンテキストウィンドウを持ち、多くの入力と出力テキストを処理でき、プライバシーに懸念があるかインターネットアクセスがないかもしれません。

They have a model that they can use that's going to provide pretty much everything you're going to need.

彼らは、ほぼ必要なすべてを提供するモデルを持っています。

It says the model is immediately available, and we have a link here with a downloadable version promised in the near future.

モデルはすぐに利用可能であり、近い将来にはダウンロード可能なバージョンのリンクがこちらにあります。

You can actually try this model out over on NVIDIA's website.

実際にこのモデルをNVIDIAのウェブサイトで試すことができます。

If we come over to build.nvidia.com/explore/discover, click on reasoning over on the left side, we can see fresh off the press, Mistral NeMo 12 B instruct.

もし私たちが「build.nvidia.com/explore/discover」にアクセスし、左側にあるreasoningをクリックすると、最新のMistral NeMo 12 Bの説明書が表示されます。

If we click in here, we get a chat window where we can actually play around with this model.

ここをクリックすると、このモデルを実際に試すことができるチャットウィンドウが表示されます。

If we want to, again, this is a cloud version where you can just sort of play around with it, but a desktop version is coming soon.

もし必要ならば、これはクラウドバージョンであり、簡単に試すことができますが、デスクトップバージョンも近日中にリリースされる予定です。

Finally, if you're planning on watching the summer Olympics this year, it looks like Google's AI is going to be everywhere.

最後に、今年の夏季オリンピックを観戦する予定であれば、GoogleのAIがどこにでも存在するようです。

Google is apparently the official AI sponsor for team USA and claim that they're going to have ads all over for all of the various Google AI products.

Googleは明らかにチームUSAの公式AIスポンサーであり、様々なGoogle AI製品の広告がたくさん出ると主張しています。

If you haven't heard enough about AI lately on TV, well watching the Olympics, you're going to see a lot of it.

最近テレビでAIについて十分に聞いていない場合は、オリンピックを見ているとたくさん見ることができます。

Anyway, that's all I got for you today.

とにかく、今日はこれだけです。

I record these videos on Thursday.

私はこのビデオを木曜日に録画しています。

In this case, some of it was recorded on Wednesday.

この場合、一部は水曜日に録画されました。

Some of it was recorded on Thursday.

一部は木曜日に録画されました。

If there was any news that came out late Thursday evening or on Friday, it didn't make this video, but it will be in next week's news video.

もし木曜日の夜遅くや金曜日に発表されたニュースがあれば、このビデオには含まれていませんが、次週のニュースビデオには含まれます。

While I'm here on vacation, I'm sort of slowing down on putting new videos out, but I am going to publish my Friday news videos on schedule, just like I always do just less other videos during the week this week.

私がここで休暇中の間は、新しい動画をアップするのを少し控えていますが、金曜日のニュース動画は通常通りスケジュール通りに公開する予定です。今週は他の動画を少なくしますが。

If you like this video and you want to stay looped in on all the latest AI news, the coolest AI tools, interesting AI research, and you know, some of my own commentary and opinions around it.

もしこの動画が気に入ったら、最新のAIニュースや最新のAIツール、興味深いAI研究、そして私自身のコメントや意見などについて常に最新情報を知りたいと思う方は、ぜひご覧ください。

Make sure you like this video and subscribe to this channel.

この動画が気に入ったら、チャンネルに登録していただけると嬉しいです。

It really helps my channel grow.

本当に私のチャンネルの成長に役立ちます。

It will also ensure that you see more videos like this one inside your YouTube feed.

これにより、YouTubeのフィード内でこのような動画をもっと見ることができるようになります。

If you haven't already, make sure to check out Future Tools.io where I curate all of the coolest AI tools I come across.

まだの方は、私が見つけた最もクールなAIツールをまとめているFuture Tools.ioをチェックしてみてください。

I keep the AI news page up to date on pretty much a daily basis.

私はほぼ毎日AIニュースページを最新の状態に保っています。

We've got a free newsletter where you can get all of the coolest AI tools and most interesting AI news delivered directly to your email inbox.

無料のニュースレターもありますので、最もクールなAIツールや興味深いAIニュースを直接メールで受け取ることができます。

You can find it all over at futuretools.io completely free.

futuretools.ioで完全に無料で見つけることができます。

Thank you so much for tuning into this video.

このビデオをご覧いただき、本当にありがとうございます。

I really appreciate you.

本当に感謝しています。

Thank you so much to HubSpot for sponsoring this one.

このビデオのスポンサーであるHubSpotにも、本当に感謝しています。

I have a feeling the AI news is really going to start heating up again real soon.

AIのニュースが再び本当に活発になり始める予感がします。

There's a lot of cool things in the works that I've sort of been getting some sneak peeks of, and I'm excited to share what's on the way.

私はいくつかの新しい取り組みに関して少し内部情報を入手しているので、今後の展開を共有することにワクワクしています。

Make sure you're subscribed.

購読していることを確認してください。

Make sure you're tuning into these videos.

これらの動画を視聴していることを確認してください。

I really appreciate you.

本当に感謝しています。

Thanks so much for turning out with me.

一緒に視聴してくれて本当にありがとう。

I'll see you in the next video.

次の動画でお会いしましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?