見出し画像

【OpenAIら「Frontier Model Forum」を設立】英語解説を日本語で読む【2023年7月27日|@Prompt Engineering】

OpenAI、Google、Microsoftが新組織「Frontier Model Forum」を設立し、安全なハイパースケールAIモデルの開発を目指します。Facebookは含まれておらず、AI研究の規制や安全性に焦点を置く業界団体であり、一般の理解を支援し、社会の課題へのアプリケーション開発を支援します。
公開日:2023年7月27日
※動画を再生してから読むのがオススメです。


I believe this is going to have huge future implications for AI research, so OpenAI, along with entropic Google and Microsoft, just announced the formation of a new organization called Frontier Model Forum.

私は、このことがAI研究に将来大きな影響を及ぼすと信じています。そこでOpenAIは、エントロピー的なグーグルやマイクロソフトとともに、フロンティア・モデル・フォーラムという新組織の設立を発表したばかりです。

Their focus is going to be ensuring safe development of future hyper-scale AI models.

彼らの焦点は、将来のハイパースケールAIモデルの安全な開発を保証することにあります。

They also released a blog post, which is worth reading.

彼らはまた、読む価値のあるブログ記事を発表しました。

One thing you probably will notice from this list is that Meta or Facebook is missing, and it's not part of this initiative.

このリストからおそらく気づくことは、メタまたはフェイスブックが欠けており、この取り組みの一部ではないということです。

I think one reason is that Meta has taken a completely different approach when it comes to open sourcing their large language models compared to the organizations listed here.

その理由のひとつは、Metaが大規模な言語モデルのオープンソース化に関して、ここにリストアップされた組織とはまったく異なるアプローチをとっているからだと思う。

There are a lot of discussions going on regarding regulating AI research, so I think it's important to look at this new organization from that perspective.

AI研究を規制することに関して多くの議論が行われているので、その観点からこの新しい組織を見ることは重要だと思う。

I want to go over some of the interesting bits on this blog post.

このブログ記事で興味深い部分をいくつか紹介したい。

So, the Frontier Model Forum is actually going to be an industry body focused on ensuring safe and responsible development of Frontier AI models.

つまり、フロンティア・モデル・フォーラムは、フロンティアAIモデルの安全で責任ある開発を確保することに焦点を当てた業界団体になるということだ。

I think it's important to see what exactly they mean by a Frontier AI model.

フロンティアAIモデルとは一体何を意味するのか、見ておくことが重要だと思います。

According to them, the Forum defines Frontier models as large-scale machine learning models that exceed the capabilities currently present in the most advanced existing models and can perform a wide variety of tasks.

フォーラムによると、フロンティア・モデルとは、既存の最先端モデルの能力を超える大規模な機械学習モデルであり、さまざまなタスクを実行できるものと定義している。

So, they're not talking about the existing models such as GPT-4, but they are talking about hyper-scale AI models that can become available in the future.

つまり、GPT-4のような既存のモデルではなく、将来利用可能になるハイパースケールAIモデルのことを指している。

There are four objectives: advancing AI Safety Research to promote responsible development of Frontier models, which will include minimizing risk and enabling independent standardized evaluation of capabilities and safeties.

それは、フロンティア・モデルの責任ある開発を促進するためのAI安全性研究の推進であり、リスクの最小化、能力と安全性の独立した標準化された評価を可能にすることを含む。

So, if you have seen the current conversation or been following it, everybody is throwing in this word safety, but nobody actually defines what they mean by it when it comes to AI.

つまり、現在の話題を見たり追ったりしていると、誰もが安全性という言葉を投げかけているが、AIに関しては誰もその意味を定義していない。

The next core objective is going to be to identify best practices for responsible development and deployment of Frontier models, helping the public understand the nature, capabilities, limitations, and impact of the technology.

次の中心的な目的は、フロンティア・モデルを責任を持って開発・展開するためのベスト・プラクティスを特定することであり、一般市民が技術の性質、能力、限界、影響を理解できるようにすることだ。

And I think the most important bit is here: collaborating with policymakers, academics, civil society, and companies to share knowledge about trust and safety risks.

そして最も重要なのは、政策立案者、学者、市民社会、企業と協力し、信頼と安全性のリスクに関する知識を共有することだ。

It will be interesting to see what type of regulations these organizations propose when it comes to AI development.

AIの開発に関してこれらの組織が提案する規制のタイプを見るのは興味深いでしょうね。

And the last objective is supporting efforts to develop applications that can help meet society's curious challenges, such as climate change mitigation and adaptation.

そして最後の目的は、気候変動の緩和や適応など、社会が直面する興味深い課題に対応するためのアプリケーション開発への取り組みを支援することだ。

And then they talk about applications in healthcare, which I think is going to be an area that can significantly benefit from advancements in AI.

そして、ヘルスケアへの応用についてです。これは、AIの進歩から大きな恩恵を受けられる分野になると思います。

Okay, so next I want to look at the membership criteria, but before that, I think it's important to see what this forum is going to actually do.

さて、次にメンバーシップの基準を見てみたいと思いますが、その前に、このフォーラムが実際に何をしようとしているのかを見ることが重要だと思います。

Okay, so according to them, governments and industries agree that while AI offers tremendous performance to benefit the world, appropriate card is required to mitigate risks, and I totally agree with that.

このフォーラムによれば、AIは世界に利益をもたらす多大なパフォーマンスを提供する一方で、リスクを軽減するために適切なカードが必要であるという点で政府と産業界は合意している。

The only thing is, who actually defines what the risk is and what are the guardrails?

しかし、リスクとは何か、ガードレールとは何かを誰が実際に定義するのか、ということだ。

Now, there are already some efforts going on in terms of regulating AI development.

現在、AI開発を規制するという点では、すでにいくつかの取り組みが行われている。

For example, yesterday there was a hearing regarding oversight of AI principles for regulations, so whether we like it or not, it's actually coming.

例えば、昨日はAI原則の規制に関する監視についての公聴会がありました。私たちがそれを好むかどうかは関係なく、実際に進展しているんですよ。

So, the Forum will focus on three key areas for the safe and responsible development of Frontier AI models.

このフォーラムでは、フロンティアAIモデルの安全で責任ある開発のための3つの主要分野に焦点を当てる。

Again, they talk about identifying best practices when it comes to safety and mitigation of potential risks.

ここでもまた、安全性と潜在的なリスクの軽減に関して、ベストプラクティスを特定することが話し合われている。

I think the second focus area has the most interesting bits in it, so advancing AI Safety Research in itself, so support the AI safety ecosystem by then defining the most important open research questions on AI safety.

つ目の重点分野は、AIの安全性研究を推進することで、AIの安全性に関する最も重要な未解決の研究課題を定義し、AIの安全性エコシステムをサポートするというものです。

And then they go on and highlight a few areas, for example, adversarial robustness, but I think the two most important bits are here: scalable oversight, independent research access, and then they talk about emergent behavior and anomaly detection.

例えば、敵対的頑健性(adversarial robustness)などが挙げられますが、最も重要なのは、スケーラブルな監視、独立した研究アクセス、そして、出現的行動(emergent behavior)と異常検知(anomaly detection)です。

I think the scalable oversight and independent research access, these are the two different areas which will impact the open source community the most.

スケーラブルな監視と独立した研究アクセスは、オープンソースコミュニティに最も影響を与える2つの異なる分野だと思います。

For example, if we look at this tweet from one of the AI safety researchers, so there are some proposals like this that we need to put the threshold of you are allowed to have up to x amount of compute power without a license, right?

例えば、AI安全性の研究者の1人からのこのツイートを見てみましょう。このような提案がいくつかありますね。ライセンスなしでx量までの計算能力を持つことが許可される閾値を設定する必要がある、ということですね。

So this is one of the suggestions or kind of things that people are proposing.

人々が提案している提案の1つ、またはそのようなものだということですね。

Now, on the other end of the spectrum, you have someone like Ian Lokoon from Mata who is completely against it.

一方で、スペクトラムの反対側には、メタのイアン・ロコーンのような人物が完全に反対しています。

So in one of his tweets, he said, I agree that limiting compute or requiring a license above a certain threshold of compute power would be a bad policy.

彼のツイートの中で、ある閾値以上のコンピュートパワーを制限したり、ライセンスを要求したりするのは悪い政策だと思います。

And then he goes on to say that many of the AI safety policies that have been floating around are naive.

そして彼は続けて、AI安全政策の多くは甘いと言っています。

Now, the tick kind of makes sense because Meta is actively pushing for open source large language models compared to the other organizations which are parts of this Frontier Model Forum.

今、Metaは他の組織とは異なり、オープンソースの大規模言語モデルを積極的に推進しているため、Tickが合理的ですね。

Now, the last focus area is going to be for facilitating information sharing among companies and government to establish a trusted secure mechanism for sharing information among companies, government, and relevant stakeholders regarding AI safety and risks.

さて、最後の重点分野は、企業や政府間の情報共有を促進することで、AIの安全性やリスクに関して、企業、政府、関係者間で情報を共有するための信頼できる安全なメカニズムを確立することです。

I think this probably is going to put some stress on the open source language models and the research efforts.

これはおそらく、オープンソースの言語モデルや研究努力にストレスを与えることになると思います。

We have already seen that in some proposed legislations in EU.

EUで提案されているいくつかの法律では、すでにそのような状況になっている。

That's why companies like Hug and Face GitHub and other companies who support open source are against those kinds of regulations.

だから、HugやFace GitHubのようなオープンソースをサポートする企業は、この種の規制に反対しているのです。

Now, it's kind of interesting to see GitHub in here because GitHub is actually owned by Microsoft.

今、ここにGitHubがあるのは興味深いですね。GitHubは実際にMicrosoftが所有しています。

Now, what exactly this forum is going to do?

さて、このフォーラムは一体何をしようとしているのでしょうか?

So, they plan to create an Advisory Board to help guide its strategy and priorities, representing a diversity of backgrounds and perspectives.

それで、彼らは戦略と優先事項を案内するアドバイザリーボードを作成する計画です。多様なバックグラウンドと視点を代表しています。

Seems like the goal is going to be to work closely with log makers and as well as governments to help support their different initiatives when it comes to AI regulation.

AI規制に関しては、ログメーカーや政府と緊密に協力し、彼らの様々なイニシアチブをサポートすることを目標としているようだ。

Okay, so at the end, let's look at the membership criteria for the Forum.

では、最後に、フォーラムのメンバーシップ基準を見てみましょう。

First, we already looked at how they define what a frontier model looks like.

まず、フロンティア・モデルとはどのようなものかを説明した。

And then they say membership is open to organizations that develop and deploy Frontier models, rights as defined by The Forum, demonstrates strong commitment to Frontier Model safety, including thorough technical and institutional approaches.

そして、フロンティア・モデルを開発・展開する組織、フォーラムが定義する権利、徹底した技術的・制度的アプローチを含むフロンティア・モデルの安全性への強いコミットメントを実証する組織が会員になれるとしている。

And lastly, organizations that are willing to contribute to advancing the Forum's efforts, including by participating in joint initiatives and supporting the development and functioning of these initiatives.

そして最後に、共同イニシアチブへの参加や、これらのイニシアチブの開発と機能のサポートなど、フォーラムの取り組みの推進に貢献する意思のある組織です。

So, I think it would be interesting to see how this defines the future direction of research when it comes to Advanced AI models.

先進的なAIモデルに関して、これが今後の研究の方向性をどのように定義していくのか、興味深いところだと思います。

It's going to be interesting to see where this is going to take us.

これが私たちをどこに連れて行こうとしているのか、興味深いところです。

I'm going to leave you with this clip, watch it and make up your own mind.

このクリップを見て、ご自分で判断してください。

And what I have heard again and again and again, and the word that has been used so repeatedly is scary.

そして、私が何度も何度も繰り返し聞いてきたこと、そして繰り返し使われてきた言葉は「怖い」だ。

Scary when it comes to artificial intelligence.

人工知能の場合は恐ろしいですね。

And as much as I may tell people, you know, there's enormous good here, potential for benefits in curing diseases, helping to solve climate change, workplace efficiency.

そして私は人々に、ここには莫大な利益があり、疾病の治療、気候変動の解決、職場の効率化に潜在的な利益があると言っても、恐ろしいのは人工知能の場合です。

What rivets their attention is the science fiction image of an intelligence device out of control, autonomous, self-replicating, potentially creating diseases, pandemic-grade viruses, or other kinds of evils purposely engineered by people or simply the result of mistakes, not malign intention.

彼らの注意を釘付けにするのは、制御不能で、自律的で、自己複製が可能で、病気やパンデミック級のウイルス、あるいは人が意図的に作り出した、あるいは悪意ではなく単なるミスの結果である、その他の種類の悪を生み出す可能性のある知能装置というSF的イメージである。

And frankly, the nightmares are reinforced in a way by the testimony that I've read from each of you.

率直に言って、私が読んだ皆さんの証言によって、その悪夢はある意味でさらに強まった。

In no way disparagingly do I say that those fears are reinforced because I think you have provided objective, fact-based views on what the dangers are and the risks and potentially even human extension and existential threat, which has been mentioned by many more than just the three of you experts who know firsthand the potential for harm.

それらの恐れが決して軽視されているわけではないと言いますが、あなたは客観的で事実に基づいた視点を提供していると思います。危険性やリスク、そしておそらくは人間の拡張と存在の脅威についても、3人の専門家だけでなく、多くの人々が口にしています。

But these fears need to be addressed, and I think can be addressed through many of the suggestions that you are making to us and others as well.

しかし、このような懸念には対処する必要があり、あなた方が私たちや他の人たちに対して行っている多くの提案を通じて対処することができると思います。

I've come to the conclusion that we need some kind of regulatory agency, but not just a reactive body, not just a passive rules-of-the-road maker, edicts on what guardrails should be, but actually investing proactively in research so that we develop countermeasures against the kind of autonomous, out-of-control scenarios that are potential dangers.

ある種の規制機関が必要だという結論に達しましたが、それは単なる反応的な機関ではなく、受動的なルール・オブ・ロードメーカーでもなく、ガードレールのあるべき姿についてのお達しでもなく、実際に研究に積極的に投資することで、潜在的な危険性である自律的で制御不能なシナリオに対する対抗策を開発することができるのです。

An artificial intelligence device that is, in effect, programmed to resist any turning off, a decision by AI to begin nuclear reaction to a non-existent attack.

人工知能装置は、事実上、いかなる電源オフにも抵抗するようにプログラムされており、存在しない攻撃に対して核反応を開始するというAIによる決定がなされる。

The White House certainly has recognized the urgency with a historic meeting of the seven major companies, which made eight profoundly significant commitments, and I commend and thank the President of the United States for recognizing the need to.

ホワイトハウスは、7つの主要な企業の歴史的な会議を通じて緊急性を認識しており、8つの非常に重要なコミットメントを行いました。アメリカ合衆国大統領が必要性を認識していることを称賛し、感謝します。

But we all know, and you have pointed out in your testimony, that these commitments are unspecific and unenforceable.

しかし、これらの公約が具体性に乏しく、実施不可能であることは周知の事実であり、あなたも証言で指摘されています。

A number of them on the most serious issues say that they will give attention to the problem, all good, but it's only a start.

重要な問題に対して何人かの人々が取り組むことを約束している、それは良いことですが、それだけでは足りません。

And I know the doubters about Congress and about our ability to act, but the urgency here demands action.

議会や私たちが行動を起こす能力について疑問を持つ人々もいますが、ここには緊急性が要求されています。

The future is not science fiction or fantasy.

未来はSFでもファンタジーでもない。

It's not even the future.

これは将来の話でもありません。

It's here and now.

今ここにあるのです。

この記事が気に入ったらサポートをしてみませんか?