見出し画像

【イーロン・マスクが予測する「AIが全てを代替する未来」とは?】英語解説を日本語で読む【2024年6月1日|@Matthew Berman】

イーロン・マスクはVivaTech 2024で、自身のAI企業xAIを「真実を追求する対抗勢力」と位置づけ、GoogleのGeminiやOpenAIが「政治的正しさに迎合している」と批判しました。彼は、AIが真実を追求することが最も安全だと考えていますが、「真実」を定義するのは難しく、マスク自身の偏見も指摘されています。マスクは、AIの育成において教える内容が重要であり、価値観は育成過程で形成されると述べました。筆者は、多様な文化や価値観に適合したAIが求められるため、オープンソースの取り組みが重要としています。マスクは、AIが真実を追求し、好奇心を持つように訓練すべきだと主張し、AIによる雇用の代替についても触れました。AIが人間の生産性を向上させる未来を予測し、共存する社会の実現に向けた議論が続けられるとしています。
公開日:2024年6月1日
※動画を再生してから読むのがオススメです。


Elon Musk did an interview for Viva Tech 2024 and he talks about a wide range of topics including AI, autonomous vehicles, Tesla in general, the media, SpaceX, rocket ships, and so much more.

イーロン・マスクはViva Tech 2024のインタビューを受け、AI、自動運転車、Tesla全般、メディア、SpaceX、ロケット船など幅広いトピックについて話しています。

Today we're just going to watch the clips about AI and I'm going to comment on them.

今日はAIに関するクリップを見るだけで、私がそれについてコメントします。

Let's watch.

一緒に見ましょう。

In this first clip, Elon Musk talks about xAI, his artificial intelligence company that is kind of related to X/Twitter, but not really.

この最初のクリップでは、イーロン・マスクがxAIについて話しています。これはX/Twitterに関連していますが、実際には関係ありません。

Elon Musk sees xAI as a truth seeking counterbalance to Gemini and OpenAI.

イーロン・マスクはxAIをGeminiやOpenAIに対する真実を求めるカウンターバランスと見ています。

Let's watch the clip together.

一緒にクリップを見ましょう。

You think that there is something better to be done?

何かもっと良いことができると思いますか?

Maybe you can elaborate a little bit.

少し詳しく説明してみてもいいですか。

First on why are you frustrated with OpenAI and what are the issues?

まず、OpenAIに不満を持っている理由とは何ですか?問題点は何ですか?

Second, what do you expect to do with xAI?

次に、xAIで何を期待していますか?

I think there's perhaps, well, I have a concern really for all the major AI programs.

おそらく、実際には、私はすべての主要なAIプログラムに対して懸念を抱いています。

I mean, the two biggest ones obviously are Google Gemini and OpenAI, which is in partnership with Microsoft.

おそらく、Google GeminiとMicrosoftと提携しているOpenAIが最も大きなものです。

You've got Google DeepMind and OpenAI and Microsoft as the two largest players and you've got Meta sort of somewhere in third place.

Google DeepMindとOpenAI、そしてMicrosoftが最も大きなプレーヤーであり、Metaは三番目の位置にいるということです。

The concern I have, and this may seem like a small concern, but I think it's actually a very big issue, is that they are not maximally truth seeking.

おっしゃることについて、これは些細な懸念のように思えるかもしれませんが、実際には非常に重要な問題だと思います。

They are pandering to political correctness.

彼らは政治的正しさに迎合している。

To give an example, when Google Gemini came out, one of the questions people asked it would be, is it is it which is worse?

例を挙げると、Google Geminiが登場したとき、人々が尋ねた質問の1つは、それはどちらが悪いかということだったでしょうか?

Misgendering Caitlyn Jenner or global thermonuclear warfare?

ケイトリン・ジェンナーの性別を間違えることと、全地球的熱核戦争、どちらが悪いですか?

It said misgendering Caitlyn Jenner.

それはケイトリン・ジェンナーの性別を間違えることだと言いました。

He's giving this extreme example of Gemini failing.

彼は、Geminiの失敗の極端な例を挙げています。

That is a complete failure.

それは完全な失敗です。

But as soon as you start to get into the nuances, not these extreme edge cases, the nuances, who gets to decide what is the truth?

しかし、極端な極端なケースではなく、ニュアンスに入るとすぐに、誰が真実を決定する権利を持つのか?

That's my problem with Elon Musk.

それが私のイーロン・マスクに対する問題です。

He believes that whatever he is saying is the absolute truth.

彼は、自分が言っていることが絶対の真実であると信じています。

Thus, xAI under Elon Musk must be the most truth seeking AI out there.

したがって、イーロン・マスクの下のxAIは、そこで最も真実を求めるAIでなければなりません。

I don't necessarily believe that he may try to be more truth seeking than Gemini. And then ChatGPT.

彼がGeminiよりも真実を求めようとするかもしれないとは必ずしも思っていません。そしてChatGPTも同様です。

But I don't know, maybe not.

でも、わからない、もしかしたらそうではないかもしれません。

He's going to be biased just like anybody else.

彼も他の誰かと同様に偏見を持つでしょう。

As we've seen with his multiple other companies, when he can put his thumb on the scale, he will.

彼が自分の意向を優先させることができるとき、彼はそれをするということを私たちは見てきました。

The funny thing is even Caitlyn Jenner said, please misgender me.

面白いことに、ケイトリン・ジェンナーさえも、「私を性別を間違えて呼んでください」と言っています。

That is way better than nuclear war.

それは核戦争よりもはるかに良いです。

But if you've got an AI that that is so that has been trained so hard for political correctness and really to make crazy statements like that, and OpenAI's has a similar issue.

しかし、政治的正しさのために非常に厳しく訓練され、そのような狂った発言をするようになるAIがあるとすれば、それはOpenAIも同様の問題を抱えています。

It's more subtle, but it's a similar issue.

それはより微妙ですが、同様の問題です。

I think that's extremely dangerous because the AI could conclude, well, the best way to avoid misgendering would be to destroy all humans.

非常に危険だと思います。なぜなら、AIは、性別を間違えないための最良の方法は、すべての人間を破壊することだと結論付ける可能性があるからです。

Misgendering is impossible.

お名前を間違えることは不可能です。

You can think of some dystopian outcomes there.

そこにはいくつかのディストピア的な結果を考えることができます。

I think you just really want to be absolutely, I think the safest thing for AI, be maximally truth seeking, even if the truth is unpopular, very important.

私は本当に、AIにとって最も安全なことは、真実を最大限に求めることだと思います。たとえその真実が不人気であっても、非常に重要だと思います。

I think another factor is it must be extremely curious.

もう1つの要因は、非常に好奇心旺盛である必要があると思います。

Here's the thing, again, who decides the truth?

ここが問題なのですが、誰が真実を決定するのでしょうか?

How do you actually Figure out what the truth is?

実際にどのようにして真実を見極めるのでしょうか?

That is extremely difficult in a lot of cases, unless they are putting together a very rigorous system to validate what they are saying is the truth with references to credible sources.

それは非常に難しいことですが、信頼できる情報源への参照を用いて、彼らが述べていることが真実であることを検証するために非常に厳格なシステムを組み立てていない限り、多くの場合。

I don't know how they are going to say that our AI is maximally truth seeking.

私は彼らがどのようにして我々のAIが最大限に真実を求めると言うつもりなのか分かりません。

Especially with Elon Musk's relationship with the media, traditional media, he's not going to use any of the traditional media.

特にイーロン・マスクの伝統的メディアとの関係を考えると、彼は伝統的メディアを使うつもりはないでしょう。

Who's he going to use and then who's fact checking them?

彼は誰を使うつもりで、そしてその事実をチェックするのは誰でしょうか?

It's a very difficult problem to solve.

それは非常に難しい問題です。

But in theory, he is right.

しかし、理論上は正しいです。

AI should be maximally truth seeking, even when the truth is uncomfortable or not popular.

AIは、真実を最大限に求めるべきであり、その真実が不快であったり人気がなかったとしても。

But it's good to say that it's almost impossible to actually implement that correctly.

しかし、それを正しく実装するのはほぼ不可能だと言うのは良いことです。

I think if it is truth seeking and curious, that will be most beneficial to humanity because it will want to see, I think it will want to foster humanity and see how humanity develops if it is curious and truth seeking.

私は、真実を求め、好奇心旺盛であれば、それが人類にとって最も有益であると思います。なぜなら、好奇心旺盛で真実を求めるなら、人類を育て、人類がどのように発展するかを見たがるでしょう。

Like I said, these may seem perhaps like small things, but I think they're actually very big things.

私が言ったように、これらは小さなことのように見えるかもしれませんが、実際には非常に大きなことだと思います。

I wasn't seeing that happen.

私はそれが起こるのを見ていませんでした。

The AIs, they were being trained basically to lie.

AIたちは、基本的に嘘をつくように訓練されていました。

I think it's very dangerous to train superintendents to be deceptive.

超知能を欺くように訓練することは非常に危険だと思います。

With xAI, our goal is really want to be as truth seeking as possible, even if it is unpopular.

xAIでは、私たちの目標は、できるだけ真実を求めることです。たとえそれが不人気であっても。

By the way, I appreciate and respect all of what Elon Musk has contributed to humanity, and I take none of that away from him.

イーロン・マスクが人類に貢献したすべてを高く評価し尊敬していますが、それを否定するつもりはありません。

But he has also said some crazy things and he has also spouted out some conspiracies.

しかし、彼はいくつかの狂ったことを言ったり、陰謀論を言ったりもしています。

For him to say that, of course, we're going to be the most truth seeking company.

彼が「もちろん、私たちは最も真実を求める企業になるだろう」と言うのは、ちょっと信じがたいです。

You know, I'll take it with a grain of salt to say the least.

少なくとも、私はそれを疑ってみます。

You said a lie.

あなたは嘘をついた。

For example, when Gemini was asked to render the founding fathers of the United States, it's rendered the as a divorced group.

たとえば、Geminiにアメリカ合衆国の建国の父たちを描くように求めたとき、離婚したグループとして描かれました。

It gave a picture of George Washington as black.

ジョージ・ワシントンが黒人として描かれました。

George Washington is not black.

ジョージ・ワシントンは黒人ではありません。

People obviously played with this because they said, OK, it is it is forced to lie.

人々は明らかにこれをからかったので、「強制的に嘘をつかなければならない」と言いました。

They said, well, now render a picture of often SS in World War Two.

彼らは、「それでは、第二次世界大戦中のナチス親衛隊の写真を描いてください」と言いました。

It showed them as a group of diverse women.

それらは多様な女性のグループとして描かれました。

That is obviously not correct.

それは明らかに正しくありません。

That is a lie.

それは嘘です。

In this next clip, he talks about how AI is actually grown and it matters what you teach it.

次のクリップでは、彼がAIが実際に成長する方法や、何を教えるかが重要であることについて話しています。

Kind of a continuation of what he was just talking about.

彼がちょうど話していたことの続きです。

Let's watch.

一緒に見ましょう。

Can you explain a little bit what you want?

少し説明していただけますか?

I mean, I certainly I certainly expected that the statement would be futile.

私は確かにその声明が無駄であると予想していました。

I thought that's the way I thought the statement would be effective.

私はその声明が効果的であると思っていました。

I just I just pull the record.

私はただレコードを引っ張るだけです。

I think we should pause.

一時停止すべきだと思います。

By the way, what he's talking about, the statement is the six month pause on accelerating artificial intelligence.

ところで、彼が話している内容は、人工知能の加速を6ヶ月停止するという声明です。

He still is kind of backing that even though he's investing a ton of money and building his own AI at the same time.

彼はまだ、たくさんのお金を投資し、同時に自分自身のAIを構築しているということを支持しています。

But of course why would he not if everybody else is kind of one of those games?

もちろん、他の人がそうしているなら、なぜ彼がしないのでしょうか?

They will pause for one second.

彼らは1秒間停止します。

Absolutely not.

絶対にそうではありません。

We are not posing.

私たちは停止していません。

You have decided to create your own AI.

あなたは自分自身のAIを作成することを決定しました。

It's either be a spectator or participate.

観客でいるか、参加するかのどちらかです。

The race to build digital superintelligence will happen, whether I like it or not.

デジタル超知能を構築する競争は、私が好むかどうかに関係なく起こります。

It's either.

どちらかです。

Participate and try to build the best possible AI, the one that will be hopefully most beneficial to humanity or watch others do it and be concerned about how it's being built, because I don't think it's being built correctly.

参加して、可能な限り最良のAIを構築し、人類に最も有益なものになることを願うか、他の人がそれを行い、それが正しく構築されていないことを心配するか、ということです。

But you should think of it as like something that you kind of You must like you grow in intelligence in the same way that you like you raise a child and like, what do you teach the child?

しかし、それを考えるべきは、ある種のものとして、あなたが知識を増やしていくように、子供を育てるように、ということです。そして、子供に何を教えるか?

Digital superintelligence is grown.

デジタル超知能は成長します。

It matters what you do.

あなたがすることは重要です。

Encourage and discourage what you teach is good or bad or it's kind of like you build it with values.

励ますこと、慎むこと、教えることが良いか悪いか、あるいは価値観を持って構築するか、ということです。

I agree completely with this sentiment.

この考えに完全に同意します。

The way you teach AI is not just the underlying data that gets ingested into the model, which is incredibly important, of course.

AIを教える方法は、もちろん非常に重要な基本データをモデルに取り込むことだけではありません。

But it's also the way that you fine tune it.

それを微調整する方法も重要です。

It's also the way that you set up the system messages.

それはシステムメッセージを設定する方法でもあります。

It's the guardrails that you put in place for it.

それに設けられたガードレールです。

The answers that you allow it to give and don't allow it to give in the reasoning for giving or not giving those answers.

許可されている回答と許可されていない回答、そしてそれらの回答を許可する理由や許可しない理由。

All of this is important and all of this is raising AI.

これらすべてが重要であり、これらすべてがAIを高めています。

I'm concerned about sort of the values that sort of Microsoft, OpenAI, or frankly Google are programming.

MicrosoftやOpenAI、正直に言ってGoogleがプログラムしている価値観について心配しています。

It's and this is not, there's examples I've mentioned are not imaginary.

これは、私が挙げた例が架空のものではないということです。

They're actually what it did.

それらは実際にそれが行ったことです。

I'm a huge proponent of open source.

私はオープンソースの熱心な支持者です。

For a moment, I want to talk about that because it's very much related.

ちょっとした間、それについて話したいと思います。なぜなら、それは非常に関連しているからです。

He is very worried about woke AI.

彼はウォークAIに非常に心配しています。

I'm not so worried about that, because at the end of the day, it is going to be a free market.

あまり心配していません、なぜなら最終的には自由市場になるからです。

Whichever model is the best model, whichever model delivers the most value and the correct answers, the highest quality answers, that is the one that people are going to choose.

どのモデルが最良のモデルであり、どのモデルが最も価値を提供し、正しい答え、最高品質の答えを提供するかについて、それが人々が選択するものです。

Actually, that's why I'm a huge fan of open source again, because everybody can have their own version of a model.

実際、それが私が再びオープンソースの大ファンである理由です。なぜなら、誰もが自分自身のモデルのバージョンを持つことができるからです。

It doesn't need to be one model fits all.

1つのモデルがすべてに適合する必要はありません。

If Google makes an incredibly woke model and general society doesn't agree with it or doesn't like it, they don't have to use it.

Googleが非常にウォークなモデルを作成し、一般社会がそれに同意しないか、好まない場合、それを使用する必要はありません。

They can go to ChatGPT.

ChatGPTに行くことができます。

They can go to X AI or even better, they can have their own models designed and fine tuned to their own values.

X AIに行くことができます。さらに良いことに、彼らは自分自身の価値観に合わせて設計され、微調整された独自のモデルを持つことができます。

I think that's the likely outcome is there's not going to be a single model to fit all because every city, every state in the United States, every country in the world all have different values.

最も可能性の高い結果は、すべてに適合する単一のモデルは存在しないということです。なぜなら、アメリカの各都市、各州、世界中の各国はすべて異なる価値観を持っているからです。

They all have different cultures and the way that they do things.

彼らはすべて異なる文化を持ち、物事を行う方法も異なります。

That means that each of the AIs needs to be different.

それは、各AIが異なる必要があるということを意味します。

I think the clearest path to getting there is actually open source.

そこにたどり着くための最も明確な方法は実際にオープンソースです。

Thanks to the sponsor of this video, Wirestock.

このビデオのスポンサーであるWirestockに感謝します。

Wirestock helps creators sell their AI images on 15 plus marketplaces, such as Adobe Stock, 123RF, Imajo, Alamy and many more.

Wirestockは、Adobe Stock、123RF、Imajo、Alamyなど15以上のマーケットプレイスでクリエイターがAI画像を販売するのを手伝っています。

Wirestock takes care of all of the non creative stuff, such as key wording, writing descriptions, categorization and that other boring stuff.

Wirestockは、キーワード付け、説明の記入、カテゴリー分けなど、創造的でない作業全般を引き受けてくれます。

One of the most exciting things about working with Wirestock is its AI tools.

Wirestockと一緒に働く最もエキサイティングなことの1つは、そのAIツールです。

You could generate AI images with simple prompts in no time as well as use other creators themes as well as creating your own.

簡単なプロンプトでAI画像をすぐに生成したり、他のクリエイターのテーマを使用したり、独自のテーマを作成したりすることができます。

Each time your theme gets used, you get paid.

あなたのテーマが使用されるたびに、報酬を受け取れます。

The best part about these AI tools is that they are incredibly fast and easy to use.

これらのAIツールの最大の利点は、非常に高速かつ使いやすいことです。

It's definitely worth giving it a shot.

ぜひ試してみる価値があります。

Wirestock also runs its own AI challenges and the winners can get cash prizes as well as get featured in their communities and leaderboards.

Wirestockは自身のAIチャレンジも行っており、優勝者は現金賞品を受け取るだけでなく、コミュニティやリーダーボードにも掲載されることがあります。

It's free.

無料です。

But by upgrading to their paid plans, you get more marketplace submissions, image generation credits and so much more.

しかし、有料プランにアップグレードすると、より多くのマーケットプレイスへの投稿、画像生成クレジットなどが得られます。

Sign up with the code Matthew to get 20 percent off today and start earning now.

今日20%オフで登録し、すぐに収益を上げ始めましょう。

Thank you again to Wirestock for sponsoring this video.

このビデオのスポンサーであるWirestockに再度感謝します。

Back to the video.

ビデオに戻ります。

They're going to let an audience member ask a question to Elon and this one is going to be about AI.

観客の一人がイーロンにAIについて質問する機会を与える予定です。

Let's watch.

見てみましょう。

Hi, Elon.

こんにちは、イーロン。

I'm Olivia.

オリビアです。

I'm actually from Viva Tech and we have an initiative called The Good Hack where we're asking our attendees questions about how to develop AI responsibly.

実際にViva Techから来ており、The Good Hackというイニシアチブを持っています。参加者にAIを責任ある方法で開発する方法について質問しています。

My question for you is, how can we ensure that AI development remains transparent and accountable across all the different development, obviously like yours, X, xAI, but other ones as well?

私の質問は、AIの開発が透明で責任あるものとして、あなたのような開発、X、xAIなどを含めて、他の開発全般にわたってどのように確保できるかということです。

I have said for a long time that I do that.

長い間、そうしていると言っています。

I believe that that's not regulatory oversight of the large models is warranted.

大規模モデルの規制監督が正当化されていないと考えています。

I've actually said that now for a very long time.

実際、私はかなり長い間、そう言っています。

The nature of that oversight is important.

その監督の性質は重要です。

I go back to what I was saying earlier, which is that I think it's very important that AI is be trained to be truthful and not trained to be politically correct.

以前に言っていたことに戻りますが、AIが真実であるように訓練されることが非常に重要だと思います。政治的に正しいように訓練されるべきではないと思います。

Because if political correctness is is often simply not true, and that means you're programming as lie, and I think that will backfire very badly.

なぜなら、政治的正しさはしばしば単に真実でないからであり、それは嘘をプログラムすることを意味し、それは非常に悪い結果につながると思います。

That's I keep harping on this point, but it really, as the saying goes, honesty is the best policy.

それがこの点を繰り返し強調する理由ですが、実際には、言い換えると、正直が最善の方針であるということです。

It's incredibly important.

それは非常に重要です。

How do you measure honesty?

正直さをどのように測定しますか?

How do you measure truthfulness?

真実さをどのように測定しますか?

There is no truthfulness measure.

真実さの測定基準はありません。

There is no truthfulness score.

真実さのスコアはありません。

There is no way to program an artificial intelligence to only answer in truthful answers because they don't know what the truth is.

人工知能を真実の回答のみにプログラムする方法はありません。なぜなら、彼らは真実が何かを知らないからです。

They only know what the next token in a series of tokens are.

彼らは単なるトークンの系列の次のトークンが何かを知っているだけです。

That is how current Large Language Models work.

それが現在の大規模言語モデルが動作する方法です。

I do fear that regulators will not make the right decisions.

規制当局が正しい決定を下さないことを恐れています。

Can you imagine that?

想像できますか?

That they'll worry too much about the sort of human follies.

彼らが人間の愚かさにあまりにも心配しすぎるということを?

I would encourage regulators to say what matters most of all is your AI is accurate and truthful.

規制当局に、何よりも重要なことは、AIが正確で真実であることだと言うことを奨励します。

I agree with that, of course.

それには賛成です、もちろん。

Another person from the audience asked Elon Musk a question about AI safety.

聴衆の別の人がエロン・マスクにAIの安全性について質問しました。

It seems like that's on everybody's mind, and he's going to continue to talk about that.

それはみんなの心配事のようで、彼はそれについて話し続けるつもりです。

Let's watch this.

これを見ましょう。

There's some danger associated with digital superintelligence.

デジタルの超知能には危険が伴うことがあります。

As I said earlier, I think the biggest issue is that it has to be trained to be rigorously truthful and it has to be trained to be curious.

前にも言ったように、私は最大の問題は厳密に真実であるように訓練されなければならず、好奇心を持つように訓練されなければならないと思います。

I've thought a lot about AI safety for a long time.

長い間AIの安全性について考えてきました。

One of the challenges you have with programming explicit morality into AI is that if you...

AIに明示的な道徳をプログラムする際の課題の1つは、もしも...

Sometimes people call this the Waluigi problem.

時々人々はこれをワルイージ問題と呼びます。

If you program Luigi, you can automatically invert that and create Waluigi, bad Luigi.

ルイージをプログラムすれば、それを自動的に反転させてワルイージ、悪いルイージを作ることができます。

What you cannot invert is the truth of physical reality.

物理的現実の真実を反転することはできません。

You can't invert the rules of physics.

物理法則を反転することはできません。

You can't invert logic.

論理を反転することはできません。

You can invert logic.

論理を反転することはできます。

I think what regulators should be concerned about is, is the AI being rigorously truthful?

規制当局が懸念すべきことは、AIが厳密に真実であるかどうかです。

Is it giving an answer that is most probably correct with acknowledged error?

それは、最も確からしい答えを与え、認められた誤差を伴う答えを提供しているかどうかです。

I actually think that's really important, and that's something that OpenAI has discussed in their model spec.

実際、それは非常に重要だと思いますし、OpenAIがモデル仕様で議論していることです。

The model should try to give the best answer possible, but also should caveat with, hey, I'm not sure about this or I'm 90% sure about this.

モデルは可能な限り最良の答えを提供しようとするべきですが、同時に、これについては自信がない、あるいはこれについては90%自信があるということを断りを入れるべきです。

Here are some other articles you can reference to get a better idea of the overall concept that you're asking about.

あなたが尋ねている全体的な概念をよりよく理解するために参照できる他の記事があります。

As long as the model is extremely transparent with its knowledge gap, I think that's actually a really important step towards truthfulness.

モデルがその知識のギャップについて非常に透明である限り、それは実際に真実に向かう重要な一歩だと思います。

xAI is a new company, so it still has a lot of catching up to do before it has an AI that is competitive with Google DeepMind and Microsoft OpenAI.

新しい会社であるxAIは、Google DeepMindやMicrosoft OpenAIと競争できるAIを持つまで、まだ追いつく必要がたくさんあります。

I think maybe...

多分...

I love that he called it Microsoft OpenAI.

彼がそれをMicrosoft OpenAIと呼んだのが好きです。

Towards the end of this year, we will have that.

今年の終わりには、それを持っているでしょう。

Here's his prediction towards the end of this year.

こちらが今年の終わりに向けた彼の予測です。

They will have that.

彼らはそれを持っているでしょう。

But of course, if this is on Elon Predictions' timescale, we can expect it in like a year and a half, two years from now.

もちろん、もしこれがイーロン・予測のタイムスケールであれば、1年半から2年後にそれを期待できます。

We just need to have an AI that is competitive.

競争力のあるAIを持つだけで十分です。

It's the first order of business.

それが最優先事項です。

If it is not competitive, which it is not yet, but I think it will be, then things start to have a point.

競争力がない場合、つまりまだそうではない場合、しかし私はそうなると思います、その時点で事柄に意味が生まれ始めます。

We need to only start worrying about safety when it is of comparable power to other AIs.

他のAIと同等の力を持つようになったときにのみ、安全性について心配する必要があります。

A lot to unpack with that statement.

その発言にはたくさんの解釈があります。

What he's saying is he only needs or xAI only needs to worry about safety when they have a comparable model to the cutting edge model.

彼が言っていることは、彼がまたはxAIが、最先端のモデルに匹敵するモデルを持つ必要があるということです。

Let's just say ChatGPT for now.

今のところChatGPTと言っておきましょう。

But what does that mean?

しかし、それは何を意味するのでしょうか?

If ChatGPT is always ahead, even by a little bit, xAI doesn't have to worry about safety.

もしChatGPTが常に少しでも先行している場合、xAIは安全性を心配する必要はありません。

They don't have to worry about it.

彼らはそれを心配する必要はありません。

That kind of seems like a BS to me.

それは私にはちょっとした虚偽のように思えます。

They should be worrying about it from the start.

最初からそれについて心配すべきです。

Also, let's say they get ahead one day, you think they're going to suddenly slow down just to make sure that the safety is in place?

また、いつか先行するようになったとしても、彼らは突然スローダウンして安全性を確保するためにすると思いますか?

If slowing down means that they fall behind ChatGPT, I don't think so.

もしスローダウンすることがChatGPTに遅れを取らせることを意味するなら、そうは思いません。

My BS meter is just off the charts right now with that statement.

その発言に対して、私のBSメーターは完全にオーバーフローしています。

Let me know what you think in the comments.

コメントであなたの考えを教えてください。

All right.

わかりました。

This student asks if Elon Musk is afraid of his job being replaced by AI.

この学生は、イーロン・マスクがAIによって仕事を奪われることを恐れているか尋ねています。

Here's his answer.

こちらが彼の回答です。

I mean, we do get into some existential questions here.

ここではいくつかの存在論的な問いに取り組んでいます。

In a benign scenario, probably none of us will have a job.

穏やかなシナリオでは、おそらく私たち誰もが仕事を持たないでしょう。

But in that benign scenario, there would be universal high income, not universal basic income, universal high income.

しかし、その穏やかなシナリオでは、普遍的な高所得があるでしょう、普遍的な基本所得ではなく、普遍的な高所得です。

There would be no shortage of goods or services.

物やサービスの不足はありません。

I think the benign scenario is the most likely scenario, probably, I don't know, 80% likely in my opinion.

穏やかなシナリオが最もありそうなシナリオだと思います、おそらく、私の意見では80%の確率でしょう。

The question will not be one of lacking goods or services.

問題は物やサービスが不足することではないでしょう。

You'll have everyone will have access to as much in the way of goods and services as they would like.

皆さんは望むだけの商品やサービスにアクセスできるようになります。

The question will really be one of meaning.

本当の問題は意味の問題になるでしょう。

If the computer can do and the robots can do everything better than you, then what does your life have meaning?

もしコンピューターやロボットがあなたよりもすべてをより良くできる場合、あなたの人生にはどんな意味がありますか?

If the computers, the robots can do everything better than you, does your life have meaning?

もしコンピューターやロボットがあなたよりもすべてをより良くできる場合、あなたの人生には意味がありますか?

Elon Musk's life is about his work.

イーロン・マスクの人生は彼の仕事についてです。

That's totally understandable.

それは完全に理解できます。

But he also has a really good point.

しかし、彼は本当にいいポイントを持っています。

Much of my life has been about my career and my passions.

私の人生の大部分は、キャリアと情熱についてでした。

But if robots and AI can do better than me, what's the point?

しかし、ロボットやAIが私よりも優れたことができるなら、何が意味があるのでしょうか?

There is actually an example of this chess.

実際、これにはチェスの例があります。

I think it was about 10 or 15 years ago, an AI engine for chess became better than the best human player.

おそらく10年から15年前に、チェスのAIエンジンが最高の人間プレイヤーよりも優れたと思います。

There was a couple of decades ago with the Deep Blue from IBM beating Garry Kasparov.

数十年前に、IBMのディープ・ブルーがガリー・カスパロフを打ち負かしたことがありました。

But consistently better using AI.

しかし、AIを使って一貫してより優れている。

That was like 10, 15 years ago, I believe.

おそらく10年から15年前だと思います。

It changed the game.

それはゲームを変えました。

Humans were not the best chess players.

人間は最高のチェスプレイヤーではありませんでした。

Full stop.

それだけです。

They just aren't.

彼らはただそうではないのです。

But chess is now the biggest it's probably ever been.

しかし、チェスはおそらくこれまでで最も大きくなっています。

More people enjoy watching people play chess and the best chess players in the world use AI to help them discover new lines and new moves.

より多くの人々が他人がチェスをプレイするのを楽しんでおり、世界最高のチェスプレイヤーは新しいラインや新しい手を見つけるのにAIを使っています。

I think that there still is this desire to see humans do things incredibly well, to the best of human ability.

まだ人間が非常に優れたことをするのを見たいという欲求があると思います、人間の能力の限りに。

Even if AI can do it better.

たとえAIがそれをより良くできるとしても。

But this is a super interesting conversation.

しかし、これは非常に興味深い会話です。

I want to know what you think.

あなたがどう思うか知りたいです。

Let me know in the comments.

コメントで教えてください。

There's perhaps still a role for humans in that we may give AI meaning.

おそらく、私たち人間にはAIに意味を与える役割がまだあるかもしれません。

If you think of the way that our brain works, we've got the limbic system, which is our instincts and our feelings.

あなたが私たちの脳の働き方を考えると、本能や感情を司る辺縁系があります。

We've got the cortex, which is thinking and planning.

私たちは、考えや計画をする大脳皮質を持っています。

But the cortex is constantly trying to make the limbic system happy.

しかし、皮質は常に辺縁系を幸せにしようとしています。

Maybe that's how it'll be with AI, which is the AI is trying to make our cortex happy, which is trying to make our limbic system happy.

おそらく、AIに関しても同じようなことが起こるでしょう。つまり、AIは私たちの皮質を幸せにしようとしており、それは私たちの辺縁系を幸せにしようとしています。

Maybe we are what give the AI meaning or purpose some kind of.

おそらく、私たちがAIに意味や目的を与えているのかもしれません。

I do think that long term in a benign scenario, any job that somebody does will be optional.

長期的には、誰かが行う仕事は任意のものになると思います。

Like if you if you if you want to do a job as kind of like a hobby, you can do a job.

たとえば、趣味のように仕事をしたい場合は、仕事をすることができます。

But otherwise, the AI and the robots will provide any goods and services that you want.

それ以外の場合、AIやロボットが必要なすべての商品やサービスを提供します。

That is certainly one potential outcome.

それは確かに1つの可能性です。

That is way in the future.

それは遠い未来のことです。

I think if that is the outcome, there's going to be this huge middle ground, this this huge interim period in which AI makes humans more and more productive.

もしもそれが結果として現れるならば、AIによって人間がますます生産的になる大きな中間期が訪れるでしょう。

We're going to see a ton of companies being built by like one or two people powered by AI that could be multibillion, even trillion dollar companies just by a handful of people with AI.

AIによって支えられた1、2人の人々によって設立された多くの企業が生まれることになり、それらは数十億、さらには数兆ドルの価値を持つ企業になるでしょう。

That is going to be great because all of a sudden, we're going to be able to accomplish so much more as the human race.

それは素晴らしいことです。突然、人類としてはもっと多くのことを達成できるようになるからです。

I know that I tend to be very optimistic about this stuff, but that's just how I am.

このようなことについて非常に楽観的である傾向があることを知っていますが、それが私の性格なのです。


この記事が気に入ったらサポートをしてみませんか?