見出し画像

【OpenAI、新たなAI分類システムを発表】英語解説を日本語で読む【2024年7月12日|@Wes Roth】

OpenAIは人間レベルのAIに向けた進捗を追跡するシステムを開発しました。同社は、人工汎用知能(AGI)への道のりで5段階中の第二段階に差し掛かっていると考えています。この新しい分類システムは、社員に対して全社ミーティングで共有され、従来のシステムに比べてより詳細な進捗を追跡できるものです。具体的には、OpenAIは現在、第一段階のチャットボットレベルに位置しており、まもなく第二段階である「推論者」レベルに到達すると考えています。この段階では、基本的な問題解決タスクを人間の博士号レベルの知識を持つAIが実行できることを目指しています。さらに、OpenAIはロスアラモス国立研究所と提携し、AIフロンティアモデルの安全性を評価するプロジェクトを発表しました。このプロジェクトは、AIの生物学的リスクと能力を評価することを目的としています。
公開日:2024年7月12日
※動画を再生してから読むのがオススメです。


Bloomberg just drops this.

Bloombergがこれを報じました。

OpenAI develops a system to track progress towards human-level AI.

OpenAIは、人間レベルのAIに向けた進捗を追跡するシステムを開発しています。

The company believes its technology is approaching the second level of 5 on the path to AGI, artificial general intelligence.

同社は、自社の技術がAGI、人工知能の一般的な知能への道の2番目の段階に近づいていると考えています。

They're saying that OpenAI shared the new classification system of employees on Tuesday during an all-hands meeting and OpenAI's spokesperson said, now that's not the big news.

彼らは、OpenAIが従業員の新しい分類システムを火曜日の全社会議で共有したと述べており、OpenAIの広報担当者は、「それが大きなニュースではない」と述べました。

That information was available to the public.

その情報は一般に公開されていました。

This classification system has been around.

この分類システムは長い間存在しています。

For example, is Google DeepMind with their own, in this case, six levels, I guess you can say, of AIs from zero to level five superhuman.

例えば、Google DeepMindは独自の、この場合、ゼロからレベル5の超人的なAIまで、6つのレベルがあると言えるでしょう。

Anthropic has their own system where they measure the potential risk of AI systems.

Anthropicは、AIシステムの潜在的なリスクを測定する独自のシステムを持っています。

Here they break down what they believe the stages of artificial intelligence are, their new tiered system.

彼らは人工知能の段階を信じるものを分解し、新しい段階システムを持っています。

It's important to understand the system to put these news into context because of where OpenAI is saying where their AI is right now or on the cusp of being.

OpenAIが彼らのAIが今どこにあるか、またはまさにその瀬戸際にあるかを言っているので、このシステムを理解してニュースを文脈に置くことが重要です。

Level one, this is where most people would say we are now.

レベル1、これは多くの人が今私たちがいると言うであろう場所です。

Chatbots, AI with conversational language.

チャットボット、会話言語を持つAI。

Level two would be human-level problem solving, something that is capable of reasoning.

レベル2は人間レベルの問題解決であり、推論が可能なものです。

Level three, and this is what a lot of us are very hyped about, is, of course, agents, systems that can take actions on behalf of a user, execute tasks and goals across long horizons, observe, orient, decide and act, etc.

レベル3、そしてこれは私たちの多くが非常に興奮しているものですが、もちろん、ユーザーの代わりに行動を取り、長期的な視野でタスクや目標を実行し、観察し、方向を定め、決定し、行動するなどのシステムであるエージェントです。

Level four, we have innovators, AI that can aid in invention, that can potentially help move science forward, create new innovations, etc.

レベル4、私たちは革新者を持っており、発明に役立つAI、科学を前進させるのに役立つ可能性があるAI、新しいイノベーションを生み出すなどができます。

Level five, which are whole AI organizations, AI systems that can do the work of an entire organization.

レベル5は、完全なAI組織であり、全組織の業務を行うことができるAIシステムです。

Sam Albin talked about, for example, envisioning a day, and he did not give the exact timeline, although it's probably sooner than we would expect, but a day when you would have a one-person organization automated with AI that reaches the valuation of a billion dollars.

例えば、サム・アルビンは、ある日を想像することについて話しました。具体的なタイムラインは示しませんでしたが、おそらく私たちが期待するよりも早い時期かもしれません。しかし、AIによって自動化された一人組織が10億ドルの評価に達する日が来るという日。

A one-person billion-dollar company.

一人で10億ドルの会社。

These levels were put together by executives and leaders of OpenAI, but they're going to get feedback and improve over time.

これらのレベルはOpenAIの幹部やリーダーによってまとめられましたが、フィードバックを受けて改善される予定です。

But what's the point of this?

しかし、これの目的は何でしょうか?

OpenAI executives told employees that the company believes it is currently on the first level, the chatbot level, but on the cusp of reaching the second, which it calls reasoners, level two.

OpenAIの幹部は、会社は現在、チャットボットレベルであると考えており、次に「理解者」と呼ぶ第二のレベルに達しようとしていると従業員に伝えました。

This refers to systems that can do basic problem-solving tasks, as well as a human with a doctorate-level education who doesn't have access to any tools.

これは、基本的な問題解決タスクを行うことができるシステムを指し、また、どんなツールにもアクセスできない博士レベルの教育を受けた人間にも言えることです。

At the same meeting, company leadership gave a demonstration of a research project involving its GPT-4 AI model that OpenAI thinks shows some new skills that arise to human-like reasoning.

同じ会議で、会社のリーダーシップは、OpenAIが人間のような推論力を示すいくつかの新しいスキルを持つと考えているGPT-4 AIモデルを使用した研究プロジェクトのデモンストレーションを行いました。

The person that I think it's fair to say leaked this information, they were asked not to be identified because they were not authorized to speak to the press.

この情報を漏らしたと思われる人物は、報道機関に話す権限がないため、身元を明かさないように求められました。

When reached for comment, OpenAI said, yeah, we're always testing stuff, but no specifics.

コメントを求められたOpenAIは、「うん、常にテストを行っていますが、具体的なことはありません」と述べました。

For reference, here's that Google DeepMind levels of AGI or levels of AI.

参考までに、Google DeepMindのAGIレベルやAIのレベルがあります。

Zero would be basically no AI, right?

ゼロは基本的にAIがない状態ですよね?

Maybe a calculator, right?

たぶん電卓のようなものですよね?

Something that can add numbers, but not much more.

数字を足すことができるものですが、それ以上のことはできません。

Also importantly, they break down the AI's ability into narrow and general.

また重要なことに、彼らはAIの能力を狭いものと一般的なものに分けています。

Narrow AI, we already have superhuman narrow AI.

狭いAIに関しては、すでに超人的な狭いAIを持っています。

Superhuman is something that is defined as outperforming 100% of all humans.

超人的とは、すべての人間の100%を上回ると定義されるものです。

In this case, if you take something like AlphaFold for predicting the 3D structures of proteins or playing chess, playing Go, things like that, our current narrow AI for those tasks are either better than any human or at the very top of all humans, the 99th percentile of skilled adults.

この場合、たとえばAlphaFoldのようなタンパク質の3D構造を予測したり、チェスをプレイしたり、囲碁をプレイしたりするようなことをする場合、現在の狭いAIは、これらのタスクにおいて、どの人間よりも優れているか、あるいは非常に優れており、熟練した大人の99パーセンタイルに位置しています。

But in terms of general AI, AI that's able to do general tasks, to kind of generalize and have its skills and abilities transfer between tasks, well, Google DeepMind kind of places us here right now, currently as having emerging AGI.

しかし、一般的なAI、つまり一般的なタスクを行うことができ、スキルや能力をタスク間で移動させることができるAIに関しては、Google DeepMindは現在、新興のAGIを持っていると位置づけています。

We're beginning to see the very first signs of AGI in things like ChatGPT, Google Bard, Google Gemini, Llama 2 and now 3, this paper is a little bit older, and I'm sure they would put Claude 3 and 3.5 on here, etc.

私たちは、ChatGPTやGoogle Bard、Google Gemini、Llama 2、そして今は3などのもので、AGIの非常に初期の兆候を見始めています。この論文は少し古いですが、彼らはきっとClaude 3や3.5をここに載せるでしょう。

There's also a number of other open source models that are also very competitive in the space, and they are equal to or somewhat better than an unskilled human.

その他にも、競争力のあるオープンソースモデルがいくつかあります。これらは、未熟な人間と同等か、あるいはそれ以上の性能を持っています。

Level 2 on this scale, which is again different from what OpenAI is proposing, they define as being at least the 50th percentile of skilled adults.

この尺度のレベル2は、OpenAIが提案しているものとは異なり、熟練した大人の50パーセンタイル以上であると定義されています。

What's interesting is this comes on the heels of yet another big announcement that came out less than 24 hours before.

興味深いのは、これが24時間未満前に発表された別の大きな発表に続いていることです。

This is the Los Alamos National Laboratory.

これはロスアラモス国立研究所です。

This is where they build the atomic bomb.

ここは原子爆弾を製造する場所です。

The Los Alamos National Laboratory began in 1943, a few years after the start of World War II, for a single purpose, to design and build an atomic bomb.

ロスアラモス国立研究所は、第二次世界大戦が始まって数年後の1943年に始まり、原子爆弾を設計・製造するためだけに設立されました。

Which they did.

そして彼らはそれを成し遂げました。

I am become deaf, the destroyer of worlds and all that.

私は耳が聞こえなくなり、世界の破壊者となった、ということです。

But nowadays this lab's primary mission is to provide scientific and engineering support to national security programs.

しかし、今日ではこの研究所の主な使命は、国家安全保障プログラムに対する科学技術支援を提供することです。

Yesterday they announced that they teamed up with OpenAI to improve frontier model safety.

昨日、彼らはOpenAIと提携して、フロンティアモデルの安全性を向上させることを発表しました。

Safety evaluations will assess biological capabilities and risks associated with AI.

安全性評価は、AIに関連する生物学的な能力とリスクを評価します。

This release talks about the potential good in AI, the massive upside, as well as some, of course, potential dangers, misuse, specifically biological risks.

このリリースでは、AIにおける潜在的な良さ、莫大なメリット、そしてもちろん、潜在的な危険や誤用、特に生物学的リスクについて話しています。

They mentioned that ChatGPT provided a mild uplift in providing information that could lead to the creation of biological threats.

彼らは、ChatGPTが生物学的脅威の創造につながる可能性のある情報を提供するのに軽微な向上をもたらしたと述べています。

They're testing ChatGPT-4o.

彼らはChatGPT-4oをテストしています。

This is the model that has vision capabilities, as well as trained on voice input and output.

これは、ビジョン能力を持ち、音声入出力にトレーニングされたモデルです。

It's part of the same model.

それは同じモデルの一部です。

The O stands for Omni, as in All.

Oはオムニの略で、すべてを意味します。

Currently a lot of the voice assistants that you see, they're kind of frankensteined together with multiple parts, some code, et cetera, that allow it to write out the text.

現在、見かける多くの音声アシスタントは、複数の部品、いくつかのコードなどを組み合わせてフランケンシュタインのように作られており、それによってテキストを書き出すことができます。

The text gets translated to an AI voice.

そのテキストはAIの声に翻訳されます。

But ChatGPT-4o is supposed to be the all-in-one version trained on all of that.

しかし、ChatGPT-4oは、それらすべてをトレーニングしたオールインワンバージョンであるべきです。

We don't have access to the voice mode yet.

まだ音声モードにアクセスすることはできません。

They're still red teaming it and assessing the risks.

彼らはまだリスクを評価している最中です。

But hopefully, I think we're still hoping to see it in July.

でも、7月には実現することを期待しています。

I'm still hopeful, but I've been heard before.

私はまだ希望を持っていますが、以前にも聞いたことがあります。

The question is, why are they partnering up?

問題は、なぜ彼らが提携しているのかということです。

There's a new executive order from the White House, a safe, secure, and trustworthy development and use of artificial intelligence, where the Department of Energy National Laboratories, which this is a part of, have been entrusted to help evaluate the capabilities of AI frontier models.

ホワイトハウスから新しい行政命令が出されました。人工知能の安全で安全な開発と利用を信頼できるものにするために、エネルギー省の国立研究所がAIフロンティアモデルの能力を評価するのを手伝うように任命されました。

The Department of Energy has the unique data, leadership computing and workforce to tackle these challenges and is well suited to partner with the industry on these efforts.

エネルギー省は、これらの課題に取り組むための独自のデータ、リーダーシップコンピューティング、労働力を持っており、これらの取り組みにおいて産業と協力するのに適しています。

How are people reacting to this?

人々はこれにどう反応していますか?

This is a common refrain.

これはよく言われることです。

Smoke-away says, it's clear now, OpenAI has been nationalized.

Smoke-awayは言っています、今はっきりしています、OpenAIは国有化されました。

There was this dude, here's the guy on the right, Leopold Aschenbrenner.

右側にいるこの男、レオポルド・アッシェンブレンナーという人物がいました。

He got fired from OpenAI.

彼はOpenAIから解雇されました。

He was part of the super alignment team, the AI safety team.

彼はスーパーアライメントチーム、AI安全チームの一員でした。

He got fired for, allegedly, it sounds like, leaking information.

情報を漏らしたという理由で解雇されたと言われています。

We don't know what happened, but that was the word around the campfire.

何が起こったのかはわかりませんが、キャンプファイヤーでの噂として広まっていました。

Wrote a paper called Situational Awareness.

Situation Awarenessという論文を書きました。

The decade ahead where he kind of predicted what was going to happen based on his kind of insider knowledge of the AI industry and kind of described what he thought was going to happen.

彼は、AI産業における内部知識に基づいて何が起こるかを予測した10年後を予測し、起こると思われることを述べました。

He said the AGI race has begun.

彼は、AGI競争が始まったと述べました。

He compares the development of artificial super intelligence to the Manhattan Project back in the days, interestingly enough.

彼は、人工超知能の開発を、興味深いことに、かつてのマンハッタン計画と比較しています。

But the final point he makes is this idea that super intelligence, the development of smarter than human AI systems, is a matter of national security.

しかし、彼が最後に述べるポイントは、超知能、つまり人間よりも賢いAIシステムの開発が国家安全保障の問題であるという考えです。

If you believe that some Silicon Valley startup is developing super intelligence, do you also believe that it's going to be able to keep it, to keep developing even though we have a new leak every other week?

もしシリコンバレーのスタートアップが超知能を開発していると信じるなら、新しい情報漏洩が毎週起こる中でもそれを維持し、開発し続けることができるとも信じていますか?

Or do you believe, as Leopold puts it, along the way national security forces not seen in half a century will be unleashed?

あるいは、半世紀ぶりに見られる国家安全保障部隊が解き放たれるとLeopoldが述べるように信じていますか?

But let me ask you, what do you think?

しかし、私に訊きたいのですが、あなたはどう思いますか?

Do you believe that OpenAI is on a cusp of a breakthrough to kind of the next level, the AI's ability to have human-like reasoning, human-level problem-solving abilities?

OpenAIが次の段階、つまり人間のような推論能力や人間レベルの問題解決能力を持つAIの能力を開発するという画期的な時期にあると信じていますか?

Or do you think it's more hype?

それとも、それは単なる宣伝だと思いますか?

Do you think them teaming up with the Los Alamos National Laboratory is a sign that they're getting nationalized?

ロスアラモス国立研究所と提携することは、彼らが国有化されている兆候だと思いますか?

Or is it just normal turn of events, business as usual?

それとも、それはただの通常の出来事で、いつも通りのビジネスですか?

Let me know in the comments.

コメントで教えてください。

I'd love to know what you think.

あなたがどう考えているか知りたいです。

With that said, my name is Wes Roth and thank you for watching.

以上、私はウェス・ロスと申します。ご視聴ありがとうございました。


この記事が気に入ったらサポートをしてみませんか?