見出し画像

【OpenAIとヘレン・トナーの確執:AI開発の未来と規制を巡る論争】英語解説を日本語で読む【2024年6月1日|@Wes Roth】

OpenAIの元取締役ヘレン・トナーは、サム・アルトマンがCEOを解任された際の出来事を暴露し、アルトマンがY Combinatorから解雇されたことやChatGPTのリリースについて取締役会に知らされていなかったことを主張しました。しかし、OpenAIの取締役会とY Combinatorのポール・グレアムは、これを否定しています。一方、トナーが関わるEffective Altruism(EA)は、AIのリスクを強調し、AI開発を制限すべきだと主張しています。彼らは過激な思想を持ち、AIの即時停止を求めていますが、専門家はこの主張に疑問を呈しています。EAの影響力が拡大する中、AIの安全性と規制のバランスが重要だとされています。
公開日:2024年6月1日
※動画を再生してから読むのがオススメです。


Big AI news today.

大きなAIのニュースがありました。

An ex-board member of OpenAI comes out talking about what actually happened during Sam Altman's firing.

OpenAIの元取締役が、サム・アルトマンの解任時に実際に起こったことについて公に語り始めました。

We covered that a few days ago.

私たちは数日前にそれを取り上げました。

Her name is Helen Toner.

彼女の名前はヘレン・トナーです。

But today we get the OpenAI response as well as some other people that weigh in on whether or not some of the claims that she makes are truthful or not.

しかし今日は、OpenAIの反応と、彼女の主張の一部が真実であるかどうかについて意見を述べるその他の人々からの意見も得られます。

Let's take a look at that.

それを見てみましょう。

But before we do, take a listen to this 30-second clip of Eliezer Yudkowsky and tell me, do you agree with what he's saying?

しかし、それをする前に、エリーザー・ユドコウスキーの30秒のクリップを聞いて、彼が言っていることに同意しますか?

Do you agree with how he thinks we should regulate AI?

彼がAIをどのように規制すべきだと考えていることに同意しますか?

How you feel about what you will hear today will greatly depend on whether you agree with what he is saying.

今日聞く内容に対するあなたの感じ方は、彼が言っていることに同意するかどうかに大きく左右されます。

Should this type of research and development be made against the law?

この種の研究開発を法律で禁止すべきですか?

Basically, I think that we should track all the GPUs, have international arrangements for all of the AI, all the training tech to end up in only monitored, supervised, licensed data centers in allied countries, and just like not permit training runs more powerful than GPT-4.

基本的に、私はすべてのGPUを追跡し、すべてのAI、すべてのトレーニングテクノロジーが監視され、監督され、ライセンスされたデータセンターにのみ集まるための国際的な取り決めを持つべきだと考えています。そして、GPT-4よりも強力なトレーニングランを許可しないようにします。

Like that whole line of reasoning is not that regulating with stuff will protect you from a superintelligence because it will not.

その推論の全体的なラインは、規制することが超知能からあなたを守るわけではないということです。

That's more in the hopes that people change their minds later, maybe after some major disaster that doesn't kill everyone.

それはむしろ、後で人々が考えを変えることを望んでいる、おそらく誰もが死なないような大規模な災害の後に。

You don't like to press the off switch to deal with the superintelligence.

あなたは超知能と取り組むためにオフスイッチを押すのが好きではありません。

The superintelligence does not let you know that you need to press the off switch until you are already dead.

超知能は、あなたがすでに死んでいるときにオフスイッチを押す必要があることをあなたに知らせません。

AGI rolls around only once.

AGIは一度だけやってきます。

Subscribe.

購読してください。

Helen Toner comes out spilling the beans on what happened during that whole OpenAI fiasco where Sam Altman got fired.

ヘレン・トナーが出てきて、サム・アルトマンが解雇されたOpenAIの騒動中に何が起こったか暴露します。

Tons of people had to be brought in to kind of manage the situation and Figure out who's going to be running OpenAI moving forward.

多くの人々が関与して、状況を管理し、今後OpenAIを運営するのは誰かを考える必要がありました。

One thing that's obvious to me is that the community, the people following this, you, I, everybody else, were very divided on what actually happened, who is at fault, who is to blame, who's telling the truth, who's being honest.

私には明らかなことの一つは、この件を追っているコミュニティ、あなた、私、他の誰も、実際に何が起こったのか、誰が悪いのか、誰が責任を負うべきなのか、誰が真実を言っているのか、誰が正直であるのかについて非常に分かれているということです。

The kind of big bombshell revelations in Helen Toner's interview were the following.

ヘレン・トナーのインタビューでの大きな爆弾発言の種類は以下の通りでした。

The biggest one that I think a lot of people are quoting is the fact that they learned about ChatGPT on Twitter.

多くの人々が引用している最も大きなものは、TwitterでChatGPTについて知ったという事実です。

That was a line that she used to kind of point out that they were being kept in the dark about ChatGPT, this great new breakthrough in AI technology.

彼女が使用した言葉は、ChatGPTについての情報が隠されていたことを指摘するためのものでした。これはAI技術の大きな新しいブレークスルーでした。

Also, she mentioned that Sam had a history of being fired for his deceitful and chaotic behavior, as she puts it.

また、彼女は、サムが欺瞞的で混沌とした行動の歴史があると述べました。

Maybe she was quoting somebody, but she was saying he was fired from Y Combinator.

おそらく彼女は誰かの言葉を引用していたかもしれませんが、彼女は彼がY Combinatorから解雇されたと述べていました。

He was fired from Looped, his original startup, and also that Sam didn't inform the board that he owned the OpenAI startup fund.

彼は元のスタートアップであるLoopedから解雇され、また、サムはOpenAIスタートアップファンドを所有していることを取締役会に報告していなかったとも述べていました。

We've covered that interview already, but since then, there's been a lot more sort of revelations about what's actually been happening.

私たちはすでにそのインタビューを取り上げていますが、その後、実際に起こっていることについてさらに多くの発言がありました。

Some people had a chance to kind of reply back to some of these allegations.

一部の人々は、これらの主張に対して返答する機会がありました。

Today, let's take a look at it.

今日は、それを見てみましょう。

Unfortunately, I know that a lot of people, this seems to be becoming kind of a tribal thing, right?

残念ながら、多くの人々が、これが何種類かの部族的なものになりつつあるように思えますね。

You have red team, blue team, and you're just rooting for the people that you want to win.

赤チーム、青チームがあり、自分が勝つと思う人々を応援しているだけです。

I don't know if that's the right approach here.

ここで正しいアプローチなのかどうかはわかりません。

I think as you'll find out, there's a lot more gray area here than at first meets die.

最初に出会うよりも、ここにはかなりのグレーゾーンがあると気づくでしょう。

But let's take a look.

しかし、見てみましょう。

First of all, here's the OpenAI board.

まず、こちらがOpenAIの取締役会です。

The current one responds to Helen Toner about her claims.

現在の取締役会がヘレン・トナーの主張に対して反応しています。

They're saying we do not accept the claims made by Miss Toner and Miss McCauley regarding events at OpenAI.

トナーさんとマッコーリーさんがOpenAIで起きた出来事について述べた主張を受け入れていないと述べています。

Those were the two board members that were kicked off after the firing of Sam Altman.

サム・アルトマンの解雇後にキックされた2人の取締役がいました。

They're saying the first step we took was to commission an external review of events leading up to Mr. Altman's forced resignation.

彼らは、アルトマン氏の強制辞任に至る出来事についての外部レビューを依頼した最初のステップを踏んだと述べています。

This is true.

これは事実です。

They hired a, as they call it, a prestigious law firm.

彼らは、彼らがそれを呼ぶように、一流の法律事務所を雇った。

We've covered this when this happened, WilmerHale.

私たちは、これが起こったときにこれをカバーしました、ウィルマーヘイル。

They led the review.

彼らがその調査を主導した。

They conducted dozens of interviews with members of OpenAI's previous board, including Miss Toner and Miss McCauley, OpenAI executive advisors to the previous board and other pertinent witnesses, reviewed more than 300,000 documents and evaluated various corporate actions.

彼らは、OpenAIの前の取締役会のメンバー、ミス・トナーやミス・マコーリー、前の取締役会のOpenAIエグゼクティブアドバイザー、その他関係者を含む数十のインタビューを行い、30万以上の文書をレビューし、さまざまな企業行動を評価しました。

Both Miss Toner and Miss McCauley provided ample input to the review.

トナーとマッコーリーの両名が、その調査に十分な意見を提供しました。

There you find it rejected the idea that any kind of AI safety concern necessitated Mr. Altman's replacement and that legal company found that the prior board's decision did not arise out of concerns regarding product safety or security, the pace of development, OpenAI's finances or its statements to investors, customers or business partners.

そこで、AIの安全性に関する懸念がアルトマンの交代を必要とするものであるという考えを否定し、法的会社が、前の取締役会の決定が製品の安全性やセキュリティ、開発のペース、OpenAIの財務状況、投資家、顧客、ビジネスパートナーへの声明に関する懸念から生じたものではないと結論づけました。

They say we regret that Miss Toner continues to revisit the issues that were thoroughly examined by WilmerHale led review rather than moving forward.

彼らは、トナーが前進する代わりに、ウィルマーヘイル主導の調査で徹底的に検証された問題を繰り返し検討し続けていることを遺憾に思っています。

Miss Toner has continued to make claims in the press, although perhaps difficult to remember now, OpenAI released ChadGPT in November 2022 as a research project to learn more about how useful its models are in conversational settings.

トナーは、報道で主張を続けていますが、今ではおそらく覚えにくいかもしれませんが、OpenAIは2022年11月にChadGPTをリリースしました。これは、会話の設定でどれだけモデルが有用かを学ぶための研究プロジェクトでした。

It was built on GPT-3.5, an existing AI model which has already been available for more than eight months at the time.

それは、当時すでに8か月以上利用可能だった既存のAIモデルであるGPT-3.5をベースに構築されました。

This is an important thing to understand that this technology was available.

この技術が利用可能であったということを理解することは重要です。

Everyone knew about it.

誰もがそれについて知っていました。

There were companies like, for example, Jarvis AI, I think it was called.

例えば、Jarvis AIというような企業がありました。たしかそう呼ばれていたと思います。

I think they changed their name to Jasper AI, but it was basically for writing SEO optimized articles.

彼らは名前をJasper AIに変更したと思いますが、基本的にはSEO最適化された記事を書くためのものでした。

They were running on GPT-3.5 for a long, long time.

彼らは長い間、GPT-3.5を利用していました。

If you look at OpenAI's YouTube channel, this was two years ago.

OpenAIのYouTubeチャンネルを見ると、これは2年前のことです。

This was August 10th, 2021.

これは2021年8月10日のことでした。

That seems like a lot more than two years ago.

それは2年前以上のように思えます。

This is the OpenAI codecs that Ilya Sutskever and Greg are presenting here, which already resembles a back and forth kind of chat application.

これは、イリヤ・サツキヴァーとグレッグがここで発表しているOpenAIコーデックスであり、すでに前後のようなチャットアプリケーションに似ています。

But this one is for coding.

しかし、これはコーディング用です。

This was codecs and they're inviting people to participate, to use the API, to use it for their own needs.

これはコーデックスであり、人々を参加させ、APIを使用し、自分のニーズに合わせて使用するよう招待しています。

There wasn't really anything new that was released.

新しくリリースされたものは実際には何もなかったです。

ChatGPT was a little demo.

ChatGPTはちょっとしたデモでした。

Nobody thought it was going to blow up the way it did.

誰もそれが今のように大ヒットするとは思っていませんでした。

They took an already existing technology that hopefully everyone was aware of.

すでに存在していた技術を取り入れたもので、多くの人が認識していることを願っています。

If you're on the board, I hope you were aware what the company was working on.

取締役会にいる場合、会社が何に取り組んでいるかを認識していたことを願っています。

They just packaged it up in a chat format and they put it out there for research purposes.

それをただチャット形式にパッケージ化して、研究目的で公開しました。

It blew up again.

再び大ヒットしました。

I don't think anyone quite expected that it would become the fastest growing app of all time.

誰もが史上最も急成長するアプリになるとは思っていなかったと思います。

Do you think that could have been possible to just predict that would happen?

それが起こることを予測することが可能だったと思いますか?

I remember Elon Musk posting that it's scary good.

イーロン・マスクがそれが怖いほど優れていると投稿していたのを覚えています。

I think that's what got me to try it initially.

それが私が最初に試してみるきっかけになったと思います。

Her saying that she was made aware of ChatGPT on Twitter, not exactly sure what that means.

彼女がTwitterでChatGPTを知ったと言っていたが、それが具体的に何を意味するのかはよくわかりません。

Either she just wasn't paying attention to what was happening in the company, because again, all those pieces of technology were available.

会社で何が起こっているかに注意を払っていなかったのか、それとも、すべての技術が利用可能だったため、彼女はただ気づかなかったのかもしれません。

They were available to the public.

それらは一般に利用可能でした。

There was the Playground.

プレイグラウンドがありました。

There was the API.

APIがありました。

The only thing that changed was the user interface.

変わったのはユーザーインターフェースだけでした。

That user interface just clicked with everybody.

そのユーザーインターフェースは誰にでも合致しました。

It opened up everyone's eyes to what was possible.

それは何が可能かを誰もが目にすることができるようにしました。

I think it's one of those things where she's saying the truth.

彼女が真実を言っていると思います。

But the reason people are reposting it, because it sounds so much scarier, like she had no idea that this product was released, it was already released.

それを人々が再投稿している理由は、それが非常に怖いと聞こえるからです。彼女はこの製品がリリースされたことを知らなかったように、すでにリリースされていたということです。

It was just a different UI that was kind of put in place.

それはただ異なるUIが実装されたものでした。

I think that's a fair thing to say, because again, the Playground, the web page where you can mess around with it, that was already available.

私はそれが公平なことだと思います。なぜなら、再び、遊び場であるウェブページはすでに利用可能だったからです。

API was already available.

APIはすでに利用可能でした。

That's point number one that she made that to me seems like a dubious claim.

それは私にとって疑わしい主張に思える彼女が述べた第一のポイントです。

It's either made to sound sensational when it's really not.

それは実際にはそんなに感動的に聞こえるように作られているかもしれません。

I'm not sure, but it just something about it feels a little bit fishy.

私は確信が持てませんが、何かが少し怪しいと感じます。

But let's continue.

しかし、続けましょう。

She also said that Sam Altman was fired from Y Combinator for his deceptive and chaotic behavior.

彼女はまた、サム・アルトマンがY Combinatorからその欺瞞的で混沌とした行動のために解雇されたと言いました。

Yesterday, tons of newspapers popped up with their stories about how Paul Graham fired Sam Altman from Y Combinator.

昨日、たくさんの新聞がポール・グレアムがサム・アルトマンをY Combinatorから解雇したという彼らの記事を掲載しました。

Graham, who was something of a mentor to the young tech guru to Sam Altman, flew from the United Kingdom to San Francisco to personally give his protege the boot to fire him.

サム・アルトマンにとって若きテックグルーのメンター的存在であったグレアムは、イギリスからサンフランシスコに飛んで、彼の弟子を解雇するために個人的にやってきました。

Here's the Washington Post.

こちらがワシントン・ポストです。

Altman's polarizing past hints that OpenAI's boards reason for firing him.

アルトマンの極端な過去は、彼を解雇する理由を開示するボードの目を開かせることを示唆しています。

It says the same thing that Graham flew from United Kingdom to San Francisco to give his protege the boot.

それはグレアムがイギリスからサンフランシスコに飛んで、彼の弟子を解雇したという同じことを述べています。

He fired Sam Altman.

彼はサム・アルトマンを解雇しました。

Before we continue, can we agree that that's what these newspapers say?

続ける前に、これらの新聞が言っていることがそれですか、同意できますか?

This the impression that they give you if you had to summarize it to somebody, would that be an accurate summarization of what it says here?

これが、もし誰かに要約しなければならない場合に与えられる印象ですか、それはここに書かれていることの正確な要約になりますか?

I think so.

そう思います。

Here's the problem with that.

ここにその問題があります。

Paul Graham today commented on what actually happened.

ポール・グレアムは今日、実際に何が起こったかについてコメントしました。

He said, I got tired of hearing that Y Combinator fired Sam.

彼は、「Y Combinatorがサムを解雇したという話を聞くのに飽きた」と言った。

Here's what actually happened for several years.

実際に何年もの間起こっていたことがこちらです。

He was running both YC and OpenAI, but when OpenAI announced that it was going to have a for-profit subsidiary and that Sam was going to be the CEO, we, specifically Jessica, told him that if he was going to work full time on OpenAI, we should find someone else to run Y Combinator.

彼はYCとOpenAIの両方を運営していましたが、OpenAIが営利子会社を持つことと、サムがCEOになることを発表したとき、私たちは、具体的にはジェシカが、もし彼がOpenAIに専念するつもりなら、YCを運営する別の人を見つけるべきだと彼に伝えました。

He agreed.

彼は同意しました。

If he said that he was going to find someone else to be the CEO of OpenAI so that he could focus 100 percent of Y Combinator, we would be just fine with that, too.

もし彼がOpenAIのCEOを別の人に見つけると言ったら、YCに100%集中できると言ったら、私たちはそれでも大丈夫でした。

We didn't want him to leave just to choose one or the other.

私たちは彼が片方を選ぶために去ることを望んでいませんでした。

Some people in the comments are trying to push this to say that, well, that's what firing is, right?

コメントで何人かの人が、それが解雇ということだろう、と言おうとしていますが、それは同じことです。

That's the same thing.

それは同じことです。

Paul responds, no, we would have been happy if he stayed and got someone else to run OpenAI.

ポールは、「いいえ、彼が残ってOpenAIを運営する別の人を見つけたら幸せだったでしょう」と答えます。

Can't you read?

読めないのですか?

If you are OK with a person staying and running your company, if the issue is you just don't want to have a split focus or potentially a conflict of interest, you're saying, hey, either you're 100 percent here or 100 percent there.

もし人が会社を運営し続けることに問題がないなら、問題は単に分散した焦点や利益相反を避けたいということであるなら、あなたは、「ねえ、ここに100%いるか、そこに100%いるか」と言っているのです。

The fact that you're OK with them being 100 percent running your company, that's not the same as firing.

彼らが会社を100%運営することに問題がないなら、それは解雇とは違います。

That's not the same as as The Washington Post puts it, giving him the boot.

それは、ワシントンポストが言うように、彼をクビにすることとは違います。

How are you going to phrase that?

それをどのように表現するつもりですか?

That's not what happened here.

ここではそうはなりませんでした。

Again, that to me seems like another lie that everybody bought from Helen Toner.

再び、私にとっては、みんながヘレン・トナーから買い取った別の嘘のように思えます。

Again, as we covered yesterday, the issue here is that some of the organizations that she is somehow affiliated with do specifically tell the members here are talking points.

昨日取り上げたように、ここで問題となっているのは、彼女が何らかの関係を持っている組織の中には、明確にメンバーに話すべきポイントがあるということです。

Here's what we actually believe.

実際に私たちが信じていることがこちらです。

On one hand, on another hand, here's our talking points for the normies, for the people that might not agree with us.

一方では、もう一方では、私たちが一般の人々に向けた話すポイントがこちらです。

Here's a post by Nathan Lans saying Paul Graham says a story about Sam Allen being fired from Y Combinator is not true.

Nathan Lansによるポストがあり、ポール・グレアムがサム・アレンがY Combinatorから解雇されたという話は真実ではないと言っています。

I think there are many cases like this where people are assuming things bad about Sam that probably aren't true.

私は、サムについて悪いことを想像している人が多いケースがあると思いますが、それはおそらく真実ではない可能性があります。

I've never met Sam, but I've only ever heard great things about him as a person.

私はサムに会ったことはありませんが、彼についてはいつも素晴らしいことしか聞いたことがありません。

Most say he's one of the most generally nice and intelligent people they've ever met, which is again, before a lot of this stuff that was happening with OpenAI, you would only hear nice things about Sam Altman.

ほとんどの人が、彼が会った中で最も親切で知的な人の1人だと言っています。OpenAIで起こっている多くのことの前に、サム・アルトマンについてはいつも良いことしか聞かなかったでしょう。

But that way, me personally, I'm never surprised that some of these high charging people aren't, quote unquote, nice.

しかし、私個人としては、これらのハイチャージ人物の中には、いわゆる「親切ではない」人もいても驚かないと思います。

I think deep down to go that hard after some of these goals, you kind of have to be a bit of a killer.

これらの目標に本気で取り組むためには、少しキラー気質である必要があると思います。

Look at Steve Jobs, right?

スティーブ・ジョブズを見てください。

When his biography was released and we started learning about how he was.

彼の伝記が発売され、彼がどんな人だったかを知り始めたとき。

There were rumors about beforehand, but like he wasn't a very nice guy.

以前から噂はありましたが、彼はあまりいい人ではなかったです。

People didn't really love him all the time.

人々はいつも彼を本当に愛していたわけではありませんでした。

In fact, some of the people that work closely with him afterwards said that while they really didn't like working with him because of how he was later on, they reflected saying that during that time they were pushed harder and accomplished more like they just extracted more from themselves.

実際、彼と密接に働いた一部の人々は、後で彼と一緒に働くのが好きではなかったと言いましたが、その時は彼らが自分自身からより多くを引き出し、より多くを達成したと振り返っています。

The output was much better, much higher level because of how he pushed them.

出力は、彼らがどれだけ押されたかによって、はるかに優れていました。

Same thing with Elon Musk, right?

イーロン・マスクも同じですよね?

The latest book that was released about him talks about demon mode, this rage that he goes into to push certain projects through to put pressure on people.

彼について最近出版された本は、悪魔モードと呼ばれる、特定のプロジェクトを進めるために彼が陥る怒りについて語っています。

Bill Gates wasn't a nice guy.

ビル・ゲイツもいい人ではありませんでした。

We're always so surprised when these high charging people that achieve so much against all odds, aren't super duper nice.

私たちはいつも、すべての可能性に逆らって多くを達成するこれらのハイチャージ人物が、超スーパーな人ではないと驚いています。

Ellen DeGeneres, remember when it came out that maybe she wasn't the greatest person to her staff or whatever, and people were shocked, but she dances so well.

エレン・デジェネレス、彼女がスタッフに対して最高の人ではないかもしれないという話が出たときを覚えていますか?人々は驚きましたが、彼女はとても上手に踊ります。

She always does her little happy dance.

彼女はいつも小さな幸せなダンスをします。

How could she be a bad person?

彼女が悪い人であるはずがありませんよね?

None of this is to say that any of this is defending Sam Altman necessarily, not saying he's the saint and anybody against them are the bad guys and you're free to not like Sam Altman and disagree with how he's running things.

これらすべては、必ずしもサム・アルトマンを擁護しているわけではないと言うつもりであり、彼が聖人であり、それに反対する人が悪者であるとは言っていません。サム・アルトマンが好きでないし、彼が事を運営する方法に異議を唱えても構いません。

That's not the point of this video to dissuade you from that.

このビデオの目的は、それをあなたに思いとどまらせることではありません。

I'm just saying don't buy into everything that's said, especially by people that might have very specific motives that they want to push through.

言いたいのは、特に特定の動機を持って押し通したい人々が言うことにはすべて鵜呑みにしないでほしいということです。

That might be hard to convince people to follow you if you actually say what your motives are, right?

実際に自分の動機を言うと、人々を説得するのは難しいかもしれませんね。

We'll talk more about that in a second.

その辺りについては、もう少し話し合いましょう。

Here's Rick Burton.

こちらがリック・バートンです。

I'm not familiar with this person.

この人物は私には馴染みがありません。

Take this with a grain of salt.

これはあくまで一つの意見として受け取ってください。

But he's somebody that came out and spoke against Helen Toner, saying, I lived in a community with Helen Toner.

しかし、彼はヘレン・トナーに反対して発言した人物です。「私はヘレン・トナーと同じコミュニティに住んでいました」と言っています。

Let me tell you what she is.

彼女がどんな人物かをお話ししましょう。

Helen is the very worst that academia has to offer.

ヘレンは学問界が提供する最悪のものです。

She thinks opinions matter more than actions.

彼女は意見が行動よりも重要だと考えています。

While she was writing puff pieces about China, Sam Altman was working.

彼女が中国についてのお世辞を書いている間、サム・アルトマンは働いていました。

She lucked into the OpenAI board and stage a coup.

彼女はOpenAIの理事会に運良く入り、クーデターを起こしました。

Helen Toner has destroyed value.

ヘレン・トナーは価値を破壊しました。

She has created nothing of value.

彼女は何も価値あるものを生み出していません。

She's not open to open debate.

彼女は公開討論に対して開かれていません。

She's using her dying voice to hurt Sam.

彼女は自分の消えゆく声を使ってサムを傷つけようとしています。

Helen completely misunderstood what a board does from day one.

ヘレンは最初の日から理事会が何をするかを完全に誤解していました。

It is therefore quarterly oversight and acting as a check on the CEO.

それはしたがって四半期ごとの監督とCEOに対するチェックとしての行動です。

She never gave feedback to Sam.

彼女は決してサムにフィードバックを与えませんでした。

She just tried to fire him.

彼女はただ彼を解雇しようとしました。

This is not what a competent board does.

これは、有能な取締役会が行うことではありません。

They work on the problems.

彼らは問題に取り組みます。

Again, as she talks about in the interview, they assume that Sam, if he heard about the firing, if he got any word about it, he would try to counteract it somehow.

再び、インタビューで話しているように、彼らはサムが解雇について聞いた場合、何らかの情報を得た場合、どうやってそれに対抗しようとするだろうと仮定しています。

They purposely set up it in such a way that he would not have any knowledge of it.

彼らはわざとそう設定しました。彼がそれについて何の知識も持たないように。

They didn't warn him.

彼らは彼に警告しませんでした。

They didn't talk to him.

彼らは彼と話しませんでした。

They, as far as I can tell, never tried to work the problem out.

私が見る限り、彼らは問題を解決しようとすることは決してありませんでした。

Again, if a board there is for quarterly oversight, then yeah, they're probably not reporting to her every UI change or every release of an app.

もう一度、もし取締役会が四半期ごとの監督のためにあるなら、そうですね、彼らはおそらく彼女にUIの変更ごとやアプリのリリースごとに報告していないでしょう。

She must have known about GPT-3.5 or GPT-3 before it, because it was there eight to 10 months before the release of ChatGPT, which again was more of a UI change.

彼女はGPT-3.5やそれより前のGPT-3について知っていたに違いありません。なぜなら、それはChatGPTのリリースの8〜10ヶ月前にありました。それは再びUIの変更でした。

I know it seems big to us now, but the technology was all there.

今は私たちにとって大きく見えるかもしれませんが、その技術はすべてそこにありました。

It's just the wrapper that got released to the public was much more popular than anyone could have expected.

公開されたラッパーだけが予想以上に人気がありました。

One of the reasons that people are worried about people from a background in EA, the effective altruist organization, if they're somehow linked to it here, for example, a lot of people at the NIST, the staffers would revolt against expected appointment of an EA AI researcher.

EA(Effective Altruist)の背景を持つ人々が心配されている理由の1つは、たとえば、NISTの多くの人々がEA AI研究者の予想される任命に反乱するだろうということです。

The reason being is that a lot of the beliefs that these organizations have are probably not the beliefs that you and I share.

その理由は、これらの組織が持っている信念の多くは、おそらくあなたと私が共有している信念ではないということです。

Things they believe are things like that we're only months or years away from building an AI superintelligence able to outsmart the world's collective efforts to control it, right?

彼らが信じていることは、世界の集合的な取り組みを出し抜くAI超知能を構築するのは数か月または数年先だけだということですね。

We're potentially months away from having an AI superintelligence.

私たちは、AI超知能を持つ可能性が数か月先にあるかもしれません。

What does that mean?

それはどういう意味ですか?

According to Eliza Yudkovsky, if stopping malignant AI requires war between nuclear armed nations, that would be a price worth paying.

エリザ・ユドコフスキーによると、悪性AIを止めるには核武装した国々の間で戦争が必要であれば、それは支払う価値のある代償でしょう。

Do you agree with that mentality?

その考え方に賛成ですか?

Like, should we pause all AI indefinitely, stop any progress, try to control all the GPUs that nobody's able to research or do any work with AI?

例えば、AIを無期限に停止し、進歩を停止し、誰もAIの研究や作業を行えないようにGPUをすべて制御しようとするべきでしょうか?

Spy on other nations to make sure they're not doing it?

他の国々を監視して、彼らがそれを行っていないことを確認するべきでしょうか?

If they are, then nuclear war is an option to shut them down, to prevent them from working on AI.

もしそうなら、核戦争は彼らを停止させるための選択肢であり、AIの開発を防ぐための手段となる可能性がある。

Do you agree with that statement?

その声明に同意しますか?

This is political.com, by the way, that I'm bringing from.

ところで、これは私が持ってきたpolitical.comです。

It continues.

それは続いています。

The profits of the AI apocalypse are boosted by an avalanche of tech dollars and also billions in crypto funds, as we'll see in a second, with much of it flowing through open philanthropy, a major funder of effective altruist causes.

AI黙示録の利益は、テック関連の資金の大量流入と、数十億ドルの暗号資金によって押し上げられています。そして、効果的な利他主義の原因の主要な資金提供者であるオープン・フィランソロピーを通じて、その多くが流れています。

It's an epic infiltration, said one biosecurity researcher in Washington, right?

「ワシントンの1人のバイオセキュリティ研究者は、それは壮大な浸透だと言っていますね。」

A lot of these EA people, the members of this movement, so they're usually white, typically male, and often hail from privileged backgrounds.

多くのEAの人々、この運動のメンバーは、だいたい白人で、典型的には男性で、しばしば特権のある背景から来ています。

Like many of her peers, Connell calls EA a cult, right?

彼女の多くの仲間と同様、コネルはEAをカルトだと呼んでいますね?

Sam Beckman Fried is part of that, as some would say, cult, right?

サム・ベックマン・フリードは、ある人々が言うように、その一部である、そうでしょう?

He's convicted for stealing as much as 10 billion from his customers.

彼は、顧客から最大で100億を盗んだとして有罪判決を受けています。

They literally believe that they're saving the world.

彼らは文字通り、世界を救っていると信じています。

That's their mission.

それが彼らの使命です。

These effective altruists truly believe what they're saying about AI safety.

これらの効果的な利他主義者は、本当にAI安全について言っていることを信じています。

The idea that within a few months or a few years, it will cause the extinction of the human race unless we stop all progress on it now.

数ヶ月または数年以内に、今すぐその進行を止めなければ、人類の絶滅を引き起こす可能性があるという考え。

This is the problem with all of that.

これがそのすべての問題です。

This is the thing that I hope more people understand, is that they refer to themselves as being part of AI safety.

これは、もっと多くの人々が理解してほしいと思うことであり、彼ら自身をAI安全の一部であると呼んでいることです。

They've kind of hijacked that term instead of saying they're AI doomers, AI apocalypse Terminator 2, AI is going to turn us all into paper clips.

「彼らは、AIの終末論者、AI黙示録ターミネーター2と言う代わりに、AIが私たち全員をペーパークリップに変えると言っているんですよ。」

They say AI safety, which is a problem because, as many long time AI and biosecurity researchers in Washington say, there's much more evidence backing up their less than existential AI concerns.

彼らは、ワシントンの多くの長年のAIおよびバイオセキュリティ研究者が言うように、彼らの存在しないAIへの懸念を裏付ける証拠がはるかに多いと言います。

While most acknowledge the possibility that existential risks could one day emerge, they say there's so far little evidence.

ほとんどの人が、いつか存在的リスクが現れる可能性を認めていますが、それまでにはほとんど証拠がないと言っています。

Is there any evidence?

何か証拠はありますか?

But they're saying there's little evidence to suggest that future AIs will cause such destruction, even when paired with biotechnology.

しかし、彼らは、将来のAIがバイオテクノロジーと組み合わせてもそのような破壊を引き起こす証拠はほとんどないと言っています。

The point here is that we have much more pressing concerns than Terminator robots marching down the street.

ここでのポイントは、ターミネーターロボットが通りを行進するよりも、私たちにははるかに緊急の懸念があるということです。

Yes, we need to be cognizant of that.

はい、私たちはそれに気をつける必要があります。

Yes, we need to make sure we're not ignoring the risk of rogue AI, etc.

はい、我々は、ローグAIのリスクなどを無視していないことを確認する必要があります。

But as AI is coming into the various software, various businesses, various government organizations, we have very pressing, very real concerns about how it's going to be used.

しかし、AIがさまざまなソフトウェア、さまざまなビジネス、さまざまな政府機関に導入されるにつれて、その使用方法について非常に緊急で非常に現実的な懸念があります。

These doomsday scenarios are corrupting that conversation.

これらの終末論的なシナリオは、その議論をゆがめています。

They're leading us away from actual things that matter.

それらは、私たちを実際に重要な問題から遠ざけています。

It's like imagine if you're trying to regulate cars and auto safety, things like seatbelts, making sure that you have enough lights crumple zones, etc., like the safety features of automobiles.

車や自動車の安全性など、車両の安全性を規制しようとしていると想像してみてください。シートベルト、十分なライトやクランプルゾーンなど、自動車の安全機能を確認すること。

But there was this other group that was slowly taken over Washington that actually defined auto safety, car safety as no, we have to get rid of all cars forever because cars are dangerous.

しかし、実際には、車の安全性を定義したのは、車は危険だからすべての車を永遠になくさなければならないという信念を持っているという他のグループがワシントンを徐々に支配していました。

While the normal reasonable people are trying to make cars safer, the other people are saying we also want to make cars safer, but their goal is actually just getting rid of all of it because they have this belief that one day cars will rise up and kill everybody or whatever.

通常の理にかなった人々が車をより安全にするよう努めている一方で、他の人々は車をより安全にしたいと言っていますが、実際の目標は、いつか車が立ち上がって誰もを殺すという信念を持っているため、実際にはそれらをすべてなくしたいと考えています。

You probably don't want those people making the regulations.

おそらく、そのような人々に規制を行わせたくないでしょう。

Here's an example where Deborah Raji, a Mozilla fellow and AI researcher at Berkeley, her research focused on how AI can harm marginalized communities.

ここに、MozillaフェローでありバークレーのAI研究者であるデボラ・ラジの例があります。彼女の研究は、AIがマージナライズされたコミュニティに害を及ぼす方法に焦点を当てています。

But it was completely overshadowed by open philanthropy funded researchers that suggested that LLMs like ChatGPT could supercharge the development of bio weapons.

しかし、それは、大規模言語モデル(大規模言語モデル)のようなChatGPTが生物兵器の開発を加速させる可能性があると示唆したオープン・フィランソロピーによって資金提供された研究者によって完全に影を落とされました。

Raji is saying, well, if you just look online for a second, you can find all that stuff on Google.

ラジは言っています、まあ、もし少しオンラインで調べてみれば、Googleでそのような情報を見つけることができます。

The fact that you can get the LLM to regurgitate that stuff if you try hard enough, there's nothing exceptional about it.

努力すれば大規模言語モデルにその情報を吐き出させることができるという事実は、それについて特別なことは何もないということです。

But her research is left in the dust because she doesn't have the funds that these other researchers have that are concerned about an AI doomsday scenario.

しかし、彼女の研究は、AI終末論的なシナリオに懸念を抱いているこれらの他の研究者が持っている資金を持っていないため、置き去りにされています。

As EAs bring their message to virtually every corner of the nation's capital, experts are warning that the tech funded flood is reshaping Washington's policy landscape, driving researchers across many organizations to focus on the existential risks posed by new technologies, often to the exclusion of other issues with firmer empirical grounding.

EAsがそのメッセージを国の首都のあらゆる角にもたらす中、専門家たちは、テクノロジーによってもたらされる存続の危険に焦点を当てることで、多くの組織を横断して研究者たちを駆り立て、より確かな経験的根拠を持つ他の問題を排除することに警告しています。

As another researcher puts it, I don't want to call myself AI safety.

AIセーフティと呼ばれることはしたくないと、別の研究者が言っています。

That word is tainted now.

その言葉は今や汚れてしまっています。

They want to call themselves something different like system safety, systems engineer, right?

彼らはシステムセーフティやシステムエンジニアなど、異なる呼び方をしたいと考えていますね。

Because saying AI safety now might link them to this cult like organization concerned about things that, again, don't really have too much proof behind them.

今AIセーフティと言うと、本当に証拠があまりないことについて心配するカルトのような組織に結びつけられてしまうかもしれません。

By the way, the founders of Anthropic used to consider themselves part of EA.

ちなみに、Anthropicの創設者たちは以前、EAの一部だと考えていたようです。

It seems like maybe they're kind of trying to distance themselves away from that movement.

彼らは、その運動から距離を置こうとしているようですね。

Here's Steven Pinker, cognitive scientist at Harvard, saying it's upsetting to read how the shift in EA from saving lives in Africa, because again, that's where they started trying to do good for the world, for humanity, reduce poverty, reduce suffering, etc.

こちらは、ハーバード大学の認知科学者であるSteven Pinkerが、EAの移行について述べていて、アフリカでの命を救うことから、再び、それが彼らが世界や人類のために善を行おうと始めたところである、貧困を減らし、苦しみを減らすなど。

From saving lives in Africa to paying brainiacs to fret about how AI will turn us into paper clips may not have been mission drift, but bait and switch.

アフリカでの命を救うことから、AIが私たちをペーパークリップに変えるかどうかを心配する脳天才に支払うことになったのは、使命の逸脱ではないかもしれませんが、魅力的な取引ではないでしょうか。

EA's core idea is still sound and some of its charities are praiseworthy.

EAの中心的な考え方は依然として妥当であり、その慈善団体のいくつかは称賛に値します。

I hope the movement regains its bearings.

私は、その運動が自らの進むべき方向を取り戻すことを願っています。

Here's Yalan Kun saying, as I have pointed out before, AI-doomerism is a kind of apocalyptic cult.

こちらは、Yalan Kunが述べているように、AIドゥーマリズムは一種の黙示録的なカルトです。

Why would its most vocal advocates come from ultra-religious families that they broke away from because of science?

なぜ、その最も熱心な支持者たちは、科学のために離れた超宗教的な家族から来るのでしょうか?

The big concern with some of the people that believe in this stuff, if they're allowed to regulate where we're going with AI, their goals aren't to create common sense regulations like what most of us are talking about, having some sort of visibility into who's building what, having some sort of reporting requirements, some safety limits, some safety testing, red teaming efforts, etc.

この考えを信じる一部の人々にとって大きな懸念は、彼らがAIの進化を規制する権限を持つことが許されると、彼らの目標は私たちの多くが話しているような常識的な規制を作ることではなく、誰が何を構築しているかを見る手段、報告要件、安全限界、安全テスト、レッドチームの取り組みなどがある。

They're saying that they want common sense regulations.

彼らは、常識的な規制を望んでいると言っています。

That's what they're telling you.

それが彼らがあなたに伝えていることです。

But what are they saying behind closed doors?

しかし、彼らは密室で何を言っているのでしょうか?

Here's Jan Tallinn, Future of Life Institute's co-founder and one of the biggest ex-risk billionaires.

こちらは、Future of Life Instituteの共同創設者であり、最大の危険リスク億万長者の一人であるJan Tallinnです。

Here's the plan for regulatory interventions.

規制介入の計画がここにあります。

His hope for the foreseeable future is the following.

彼の将来に対する希望は次のとおりです。

I do think that governments, certainly governments can make things illegal.

私は、政府は確かに何かを違法にすることができると思います。

You can make hardware illegal.

ハードウェアを禁止することができます。

You can also say that, yeah, producing graphics cards above a certain capability level is now illegal.

ある能力レベルを超えるグラフィックカードの製造を禁止することもできます。

Suddenly you have like much, much more runway as a civilization.

突然、文明としてははるかに長い滑走路ができます。

Do you get into a territory of having to put surveillance on what code is running in a data center?

データセンターで実行されているコードを監視する必要がある領域に入りますか?

Regulating software is much, much more harder than hardware.

ソフトウェアを規制することは、ハードウェアよりもはるかに難しいです。

If you let them more slow to continue, then like the surveillance has to be more and more pervasive.

彼らが続けるのをもっと遅くさせると、監視がますます浸透しなければならなくなります。

My focus for the foreseeable future will be on regulatory interventions and kind of like trying to educate lawmakers and kind of helping and perhaps hiring lobbyists to try to make the world safer.

私の将来の焦点は、規制的介入と、立法者を教育しようとすることと、ロビイストを雇って世界をより安全にしようとすることになります。

Again, keep in mind, they have billions of dollars for this.

再び、彼らはこれに数十億ドルを持っていることを念頭に置いてください。

Billions.

数十億ドル。

They're not talking about regulating in the way that you and I think of regulating, they're talking about global ban on any sort of training runs.

彼らは、私たちが規制と考える方法ではなく、あらゆる種類のトレーニングランに対する世界的な禁止について話しています。

Take a listen.

聞いてみてください。

Nasty secret of AI field is that AIs are not built, they are grown.

AI分野の不快な秘密は、AIは構築されるのではなく、育てられるということです。

The way you build the front-end model, build the front-end model is you take like two pages of code, you put them in tens of thousands of graphics cards and let them hum for months.

フロントエンドモデルを構築する方法は、コードの2ページを取り、数万のグラフィックカードに入れて数ヶ月間動かすことです。

You're going to open up the hood and see like what creature brings out and what you can do with this creature.

フードを開けて、どんな生き物が出てきて、この生き物で何ができるかを見ることになります。

It's I think the regulate the industry, the capacity to regulate things and kind of deal with various liability constraints, et cetera, they apply to what happens after.

業界を規制し、事後に何が起こるかに対処する能力、さまざまな責任制約などに対処する能力は、その後に何が起こるかに適用されます。

Once this creature has been kind of tamed, and that's what fine-tuning and reinforcement learning from human feedback, et cetera, is doing. and then productized, then how do you deal with these issues is where we need the competence of other industries.

この生き物がある程度制御された後、それが微調整され、人間のフィードバックからの強化学習などが行われ、製品化された後、これらの問題にどのように対処するかが他の産業の能力が必要なところです。

But how can I avoid the system not escaping during training run?

しかし、トレーニングラン中にシステムが逃げ出さないようにする方法はありますか?

This is like a completely novel issue for this species.

これは、この種にとって完全に新しい問題です。

We need to meet some other approaches like just banning those training runs.

訓練ランを禁止するなど、他のアプローチに取り組む必要があります。

The other thing I forgot to mention is Helen Toner said that the reason everyone backed Sam Altman, because remember, all the employees signed letters and tweeted those heart emojis saying that they wanted to stay at OpenAI to stay with Sam Altman, even though apparently he was psychologically abusing everyone.

もう一つ忘れていたことは、ヘレン・トナーが言ったことです。すべての従業員がサム・アルトマンを支持した理由は、皆がOpenAIにとどまり、サム・アルトマンと一緒にいたいという心の絵文字をツイートした手紙に署名したからです。明らかに彼は誰もが心理的に虐待していたにもかかわらず。

Helen Toner was saying the only reason they did that is they were afraid that OpenAI would be destroyed under her leadership or if she did what she was trying to do, and then she said, well, that was not true.

ヘレン・トナーは、彼らがそれをした唯一の理由は、OpenAIが彼女のリーダーシップ下で破壊されることを恐れていたからであり、彼女がやろうとしていたことをした場合、それは真実ではないと言いました。

It would never have been destroyed.

それは決して破壊されることはなかったでしょう。

That was not on the table.

それは議題には上がっていませんでした。

But the thing is, that's not what she was saying while the whole thing was coming out.

しかし、問題は、全体が明るみに出る間、彼女が言っていたことではないということです。

She was saying the destruction of the company could be consistent with the board's mission.

彼女は、会社の破壊が取締役会の使命と一致する可能性があると言っていました。

She was trying to either have Anthropic absorb OpenAI or destroy it, which would probably, again, destroy a lot of value, destroy a lot of these people, their hard work, the equity that they have in the business.

彼女は、AnthropicがOpenAIを吸収するか、破壊することを試みていました。これはおそらく、再び多くの価値を破壊し、多くの人々や彼らの努力、ビジネスにおける彼らの株式を破壊するでしょう。

Also, if you recall when OpenAI researchers were fired for leaking information out of OpenAI, where at least one of them had ties to that effective altruism movement.

また、OpenAIの研究者が情報を漏洩したために解雇されたことを思い出してください。少なくとも1人はその有効な利他主義運動と関係があった。

I do apologize for that rant.

その長文についてお詫び申し上げます。

I know we've covered some of the stuff before, but seeing this being discussed, other people in the space, other YouTubers talking about AI, I was personally a little bit concerned that a lot of people seem to be just taking what she's saying at face value again.

ある程度その内容は前に取り上げたことがあるとは思いますが、他の人たちがこの話題を取り上げているのを見ると、他の人たちやYouTuberたちがAIについて話しているのを見ると、個人的には彼女の言っていることをただ鵜呑みにしている人が多いようで少し心配しています。

I'm more than happy to hear if she has any proof of anything, if she has any specific things that we can look at and say, OK, it does look like this was correct.

もし彼女が何か証拠を持っているなら、それを聞くのは喜んでいます。具体的なものがあれば、それを見て、これは正しいように見えると言えるものがあれば、喜んで聞きます。

So far, it seems like an attempt to paint Sam Altman in bad light, which, again, is fine.

これまでのところ、サム・アルトマンを悪く描こうとする試みのように見えますが、再度言いますが、それは問題ありません。

I'm not here to defend Sam.

私はサムを擁護するためにここにいるわけではありません。

You might not like him.

あなたは彼を好きかもしれませんね。

You might prefer that somebody else succeeds with AI.

他の誰かがAIで成功することを好むかもしれません。

Maybe Elon Musk or perhaps Google or Anthropic, or I know a lot of us, myself included, we believe in open source.

たぶんイーロン・マスク、あるいはGoogle、あるいはAnthropic、または私たちの多く、私を含めて、オープンソースを信じています。

We think open source AI is an important technology, obviously comes with some risks as well, but does have a lot of upside.

私たちはオープンソースAIが重要な技術であると考えています。明らかにいくつかのリスクも伴いますが、多くのメリットもあります。

For example, open sourcing some of the cyber security technology or at least people getting together and sharing what they learn about cyber security helps everyone and be more secure if every company just kept what they knew to themselves, everyone would be more exposed, more vulnerable because they aren't sharing their knowledge with open source.

例えば、サイバーセキュリティ技術の一部をオープンソース化したり、少なくとも人々が集まってサイバーセキュリティについて学んだことを共有することは、皆のために役立ち、もし全ての企業が自分たちの知識を秘密にしていたら、皆がより露出し、より脆弱になるだろう。なぜなら、彼らはオープンソースで知識を共有していないからだ。

Everyone can contribute to the knowledge, potentially helping prevent vulnerabilities and stuff like that.

皆が知識に貢献することができ、潜在的に脆弱性などを防ぐのに役立つ可能性があります。

But it's important to understand that whatever your views on any of these companies are, that some of the voices that you're hearing come from this small minority of people that want everything shut down, that want some sort of a global surveillance, surveillance on GPUs, limiting how advanced our chips can be, hitting the pause button indefinitely, and as you've seen, even potentially going after other countries with nuclear weapons.

しかし、これらの企業に対するあなたの意見がどうであれ、重要なのは、あなたが聞いている声の一部が、すべてを閉鎖したがっている少数派の人々から来ているということを理解することです。グローバルな監視を望んでいる人々、GPUの監視、チップの進化を制限し、無期限に一時停止ボタンを押すことを望んでいる人々、そして、核兵器を持つ他の国々を攻撃しようとしている可能性さえあります。

Two nuclear powers duking it out to prevent the development of AI.

二つの核大国がAIの開発を防ぐために戦っている。

I don't know about you, that seems a little bit crazy, doesn't it?

あなたはどう思いますか、それはちょっと狂っているように思えませんか?

We know we can destroy the Earth however many times, dozens of times over with the nuclear weapons that we have.

私たちは、持っている核兵器で何度でも地球を破壊できることを知っています。

Takes a few bad decisions and everyone's gone.

数回の悪い決定があれば、誰もがいなくなってしまいます。

But they're willing to flip the coin on that to make sure that AI doesn't get developed.

それに賭ける覚悟はあるが、AIが開発されないようにするためだ。

I don't think this is a very rational perspective.

私はこれはあまり合理的な視点ではないと思います。

This is very cultish.

これは非常に狂信的です。

This is from the blog of Vitalik Buterin.

これはVitalik Buterinのブログからです。

He contributed close to a billion dollars to some of these causes.

彼はこれらの事業に10億ドル近くを寄付しました。

He's the person behind Ethereum, became very wealthy, bought some dogecoin or some doggie coin, and when it did very well, it skyrocketed he decided to hey, let's throw a billion to these guys.

彼はイーサリアムの裏方であり、非常に裕禄になり、いくつかのドージコインまたはいくつかのドギーコインを購入し、それが非常にうまくいったときに急上昇したので、「さあ、これらの人たちに10億円投げよう」と決めました。

But based on his writing and he kind of addressed this, I don't think he necessarily is aligned with them.

彼の文章を基にすると、彼はそれについて言及しているようですが、彼が必ずしもそれに賛同しているとは思いません。

He's not part of that AI doomer mentality.

彼はそのAIドゥーマーの考え方の一部ではありません。

Here he kind of describes the world as he sees it.

ここでは、彼が見ている世界をある程度説明しています。

His first image here, you have the anti-technology view, right?

ここでの彼の最初のイメージは、反技術的な視点ですね。

If we move forward, the future is dark, scary, it's bad.

もし前に進むなら、未来は暗くて怖い、悪いものです。

Technological progress is bad and safety is behind us.

技術の進歩は悪く、安全は過去のものです。

So dystopia ahead, safety behind.

つまり、前方にはディストピアがあり、安全は過去にあります。

We need to stop progress.

私たちは進歩を止める必要があります。

We need to unwind the technology, the AI, etc.

技術やAIなどを解除する必要があります。

There's the accelerationist view that there's dangers behind and utopia ahead.

背後には危険があり、前方にはユートピアがあるという加速主義者の考えがあります。

The idea is that technological progress will help improve the world, humanity, etc.

アイデアは、技術の進歩が世界や人類の改善に役立つというものです。

If we don't, we do have dangers behind.

もし解除しないと、背後には危険があります。

I think the EA seemingly adopts this kind of anti-technology view, or at least anti-AI.

EAは、この種の反技術的な視点、少なくとも反AI的な視点を採用しているように思います。

We have the accelerationists saying full steam ahead.

加速主義者は、全速力で前進すると言っています。

Let's go.

行きましょう。

In his view, he's describing more as, yes, there are dangers behind.

彼の見解では、背後には危険があると表現しています。

We have to progress.

進まなければなりません。

But we also have multiple paths forward ahead.

しかし、前進する複数の道があります。

Some good, some bad, which I think is very reasonable.

いくつかは良いもので、いくつかは悪いもので、非常に理にかなっていると思います。

With that said, my whole point in this is don't just approach this from a stance of is OpenAI good or bad?

と言っても、私の全体的なポイントは、OpenAIが良いか悪いかという観点からだけでこの問題に取り組まないでください。

Is Sam Altman good or bad?

サム・アルトマンは良い人ですか、悪い人ですか?

Should we have AI safety?

AIの安全性を確保すべきですか?

I think most people agree AI should be deployed safely.

ほとんどの人がAIが安全に展開されるべきだと同意していると思います。

There's a lot of different bad things that can happen.

起こりうる悪いことはたくさんあります。

We need to be very careful how we approach it.

私たちはアプローチする方法に非常に注意を払う必要があります。

During the development of the nuclear bomb, someone suggested there's a chance that the explosion will trigger a chain reaction of the entire atmosphere, basically getting set on fire, a fiery death for the entire world.

核爆弾の開発中、誰かが爆発が大気全体の連鎖反応を引き起こす可能性があると提案し、基本的に世界中が火事になり、全滅する可能性があると言いました。

That triggered an investigation into it.

それが調査を引き起こしました。

People looked into it.

人々がそれを調査しました。

They try to Figure out what what's the chance of that happening.

彼らはそれが起こる可能性がどれくらいあるかを調べようとします。

They logically look at that potential X risk.

彼らはその潜在的なXリスクを論理的に考えます。

The smart people who knew what they were talking about, who had field expertise, who had education and training in that particular field, studied that question and came up with solutions.

その質問を研究し、解決策を見つけ出したのは、その分野における専門知識を持ち、教育や訓練を受けた賢明な人々でした。

That's how it should be.

それが適切なやり方です。

We do the same thing when we roll out any technology, new cars, new drugs, new electronic devices, new kids toys.

私たちは、新しい車、新しい薬、新しい電子機器、新しい子供のおもちゃを導入する際も同じことをします。

There's laws and regulations and how we produce those.

それらを生産する方法には法律や規制があります。

That's very reasonable.

それは非常に理にかなっています。

No one's here is against that.

ここには誰もそれに反対していません。

But if there are people out there that are convinced that we need to start nuking other nations out of the face of the Earth, if they're developing AI, they think that we should monitor all hardware, all GPUs, all software to ban training runs, to create a global surveillance system to make sure none of that happens.

もし地球上で他国に核攻撃を始める必要があると確信している人々がいるなら、もし彼らがAIを開発しているなら、トレーニングランを禁止するためにすべてのハードウェア、すべてのGPU、すべてのソフトウェアを監視すべきだと考えているなら、それが起こらないようにするためにグローバルな監視システムを作るべきだと思います。

I hope you agree with me that maybe just maybe we shouldn't let those people govern and regulate the world, right?

おそらく、たぶん、私たちはそれらの人々に世界を統治し規制させるべきではないという私の考えに賛成していただけるといいのですが、そうでしょうか?

That's that's not so crazy.

それは、それほど狂ったことではありません。

I hope you agree.

ご賛同いただけるといいのですが。

With that said, my name is Wes Ropp and thank you for watching.

と言うことで、私の名前はウェス・ロップです。ご視聴ありがとうございました。


この記事が気に入ったらサポートをしてみませんか?