イーロン・マスクはVivaTech 2024で、自身のAI企業xAIを「真実を追求する対抗勢力」と位置づけ、GoogleのGeminiやOpenAIが「政治的正しさに迎合している」と批判しました。彼は、AIが真実を追求することが最も安全だと考えていますが、「真実」を定義するのは難しく、マスク自身の偏見も指摘されています。マスクは、AIの育成において教える内容が重要であり、価値観は育成過程で形成されると述べました。筆者は、多様な文化や価値観に適合したAIが求められるため、オープンソースの取り組みが重要としています。マスクは、AIが真実を追求し、好奇心を持つように訓練すべきだと主張し、AIによる雇用の代替についても触れました。AIが人間の生産性を向上させる未来を予測し、共存する社会の実現に向けた議論が続けられるとしています。
公開日:2024年6月1日
※動画を再生してから読むのがオススメです。
イーロン・マスクはViva Tech 2024のインタビューを受け、AI、自動運転車、Tesla全般、メディア、SpaceX、ロケット船など幅広いトピックについて話しています。
今日はAIに関するクリップを見るだけで、私がそれについてコメントします。
一緒に見ましょう。
この最初のクリップでは、イーロン・マスクがxAIについて話しています。これはX/Twitterに関連していますが、実際には関係ありません。
イーロン・マスクはxAIをGeminiやOpenAIに対する真実を求めるカウンターバランスと見ています。
一緒にクリップを見ましょう。
何かもっと良いことができると思いますか?
少し詳しく説明してみてもいいですか。
まず、OpenAIに不満を持っている理由とは何ですか?問題点は何ですか?
次に、xAIで何を期待していますか?
おそらく、実際には、私はすべての主要なAIプログラムに対して懸念を抱いています。
おそらく、Google GeminiとMicrosoftと提携しているOpenAIが最も大きなものです。
Google DeepMindとOpenAI、そしてMicrosoftが最も大きなプレーヤーであり、Metaは三番目の位置にいるということです。
おっしゃることについて、これは些細な懸念のように思えるかもしれませんが、実際には非常に重要な問題だと思います。
彼らは政治的正しさに迎合している。
例を挙げると、Google Geminiが登場したとき、人々が尋ねた質問の1つは、それはどちらが悪いかということだったでしょうか?
ケイトリン・ジェンナーの性別を間違えることと、全地球的熱核戦争、どちらが悪いですか?
それはケイトリン・ジェンナーの性別を間違えることだと言いました。
彼は、Geminiの失敗の極端な例を挙げています。
それは完全な失敗です。
しかし、極端な極端なケースではなく、ニュアンスに入るとすぐに、誰が真実を決定する権利を持つのか?
それが私のイーロン・マスクに対する問題です。
彼は、自分が言っていることが絶対の真実であると信じています。
したがって、イーロン・マスクの下のxAIは、そこで最も真実を求めるAIでなければなりません。
彼がGeminiよりも真実を求めようとするかもしれないとは必ずしも思っていません。そしてChatGPTも同様です。
でも、わからない、もしかしたらそうではないかもしれません。
彼も他の誰かと同様に偏見を持つでしょう。
彼が自分の意向を優先させることができるとき、彼はそれをするということを私たちは見てきました。
面白いことに、ケイトリン・ジェンナーさえも、「私を性別を間違えて呼んでください」と言っています。
それは核戦争よりもはるかに良いです。
しかし、政治的正しさのために非常に厳しく訓練され、そのような狂った発言をするようになるAIがあるとすれば、それはOpenAIも同様の問題を抱えています。
それはより微妙ですが、同様の問題です。
非常に危険だと思います。なぜなら、AIは、性別を間違えないための最良の方法は、すべての人間を破壊することだと結論付ける可能性があるからです。
お名前を間違えることは不可能です。
そこにはいくつかのディストピア的な結果を考えることができます。
私は本当に、AIにとって最も安全なことは、真実を最大限に求めることだと思います。たとえその真実が不人気であっても、非常に重要だと思います。
もう1つの要因は、非常に好奇心旺盛である必要があると思います。
ここが問題なのですが、誰が真実を決定するのでしょうか?
実際にどのようにして真実を見極めるのでしょうか?
それは非常に難しいことですが、信頼できる情報源への参照を用いて、彼らが述べていることが真実であることを検証するために非常に厳格なシステムを組み立てていない限り、多くの場合。
私は彼らがどのようにして我々のAIが最大限に真実を求めると言うつもりなのか分かりません。
特にイーロン・マスクの伝統的メディアとの関係を考えると、彼は伝統的メディアを使うつもりはないでしょう。
彼は誰を使うつもりで、そしてその事実をチェックするのは誰でしょうか?
それは非常に難しい問題です。
しかし、理論上は正しいです。
AIは、真実を最大限に求めるべきであり、その真実が不快であったり人気がなかったとしても。
しかし、それを正しく実装するのはほぼ不可能だと言うのは良いことです。
私は、真実を求め、好奇心旺盛であれば、それが人類にとって最も有益であると思います。なぜなら、好奇心旺盛で真実を求めるなら、人類を育て、人類がどのように発展するかを見たがるでしょう。
私が言ったように、これらは小さなことのように見えるかもしれませんが、実際には非常に大きなことだと思います。
私はそれが起こるのを見ていませんでした。
AIたちは、基本的に嘘をつくように訓練されていました。
超知能を欺くように訓練することは非常に危険だと思います。
xAIでは、私たちの目標は、できるだけ真実を求めることです。たとえそれが不人気であっても。
イーロン・マスクが人類に貢献したすべてを高く評価し尊敬していますが、それを否定するつもりはありません。
しかし、彼はいくつかの狂ったことを言ったり、陰謀論を言ったりもしています。
彼が「もちろん、私たちは最も真実を求める企業になるだろう」と言うのは、ちょっと信じがたいです。
少なくとも、私はそれを疑ってみます。
あなたは嘘をついた。
たとえば、Geminiにアメリカ合衆国の建国の父たちを描くように求めたとき、離婚したグループとして描かれました。
ジョージ・ワシントンが黒人として描かれました。
ジョージ・ワシントンは黒人ではありません。
人々は明らかにこれをからかったので、「強制的に嘘をつかなければならない」と言いました。
彼らは、「それでは、第二次世界大戦中のナチス親衛隊の写真を描いてください」と言いました。
それらは多様な女性のグループとして描かれました。
それは明らかに正しくありません。
それは嘘です。
次のクリップでは、彼がAIが実際に成長する方法や、何を教えるかが重要であることについて話しています。
彼がちょうど話していたことの続きです。
一緒に見ましょう。
少し説明していただけますか?
私は確かにその声明が無駄であると予想していました。
私はその声明が効果的であると思っていました。
私はただレコードを引っ張るだけです。
一時停止すべきだと思います。
ところで、彼が話している内容は、人工知能の加速を6ヶ月停止するという声明です。
彼はまだ、たくさんのお金を投資し、同時に自分自身のAIを構築しているということを支持しています。
もちろん、他の人がそうしているなら、なぜ彼がしないのでしょうか?
彼らは1秒間停止します。
絶対にそうではありません。
私たちは停止していません。
あなたは自分自身のAIを作成することを決定しました。
観客でいるか、参加するかのどちらかです。
デジタル超知能を構築する競争は、私が好むかどうかに関係なく起こります。
どちらかです。
参加して、可能な限り最良のAIを構築し、人類に最も有益なものになることを願うか、他の人がそれを行い、それが正しく構築されていないことを心配するか、ということです。
しかし、それを考えるべきは、ある種のものとして、あなたが知識を増やしていくように、子供を育てるように、ということです。そして、子供に何を教えるか?
デジタル超知能は成長します。
あなたがすることは重要です。
励ますこと、慎むこと、教えることが良いか悪いか、あるいは価値観を持って構築するか、ということです。
この考えに完全に同意します。
AIを教える方法は、もちろん非常に重要な基本データをモデルに取り込むことだけではありません。
それを微調整する方法も重要です。
それはシステムメッセージを設定する方法でもあります。
それに設けられたガードレールです。
許可されている回答と許可されていない回答、そしてそれらの回答を許可する理由や許可しない理由。
これらすべてが重要であり、これらすべてがAIを高めています。
MicrosoftやOpenAI、正直に言ってGoogleがプログラムしている価値観について心配しています。
これは、私が挙げた例が架空のものではないということです。
それらは実際にそれが行ったことです。
私はオープンソースの熱心な支持者です。
ちょっとした間、それについて話したいと思います。なぜなら、それは非常に関連しているからです。
彼はウォークAIに非常に心配しています。
あまり心配していません、なぜなら最終的には自由市場になるからです。
どのモデルが最良のモデルであり、どのモデルが最も価値を提供し、正しい答え、最高品質の答えを提供するかについて、それが人々が選択するものです。
実際、それが私が再びオープンソースの大ファンである理由です。なぜなら、誰もが自分自身のモデルのバージョンを持つことができるからです。
1つのモデルがすべてに適合する必要はありません。
Googleが非常にウォークなモデルを作成し、一般社会がそれに同意しないか、好まない場合、それを使用する必要はありません。
ChatGPTに行くことができます。
X AIに行くことができます。さらに良いことに、彼らは自分自身の価値観に合わせて設計され、微調整された独自のモデルを持つことができます。
最も可能性の高い結果は、すべてに適合する単一のモデルは存在しないということです。なぜなら、アメリカの各都市、各州、世界中の各国はすべて異なる価値観を持っているからです。
彼らはすべて異なる文化を持ち、物事を行う方法も異なります。
それは、各AIが異なる必要があるということを意味します。
そこにたどり着くための最も明確な方法は実際にオープンソースです。
このビデオのスポンサーであるWirestockに感謝します。
Wirestockは、Adobe Stock、123RF、Imajo、Alamyなど15以上のマーケットプレイスでクリエイターがAI画像を販売するのを手伝っています。
Wirestockは、キーワード付け、説明の記入、カテゴリー分けなど、創造的でない作業全般を引き受けてくれます。
Wirestockと一緒に働く最もエキサイティングなことの1つは、そのAIツールです。
簡単なプロンプトでAI画像をすぐに生成したり、他のクリエイターのテーマを使用したり、独自のテーマを作成したりすることができます。
あなたのテーマが使用されるたびに、報酬を受け取れます。
これらのAIツールの最大の利点は、非常に高速かつ使いやすいことです。
ぜひ試してみる価値があります。
Wirestockは自身のAIチャレンジも行っており、優勝者は現金賞品を受け取るだけでなく、コミュニティやリーダーボードにも掲載されることがあります。
無料です。
しかし、有料プランにアップグレードすると、より多くのマーケットプレイスへの投稿、画像生成クレジットなどが得られます。
今日20%オフで登録し、すぐに収益を上げ始めましょう。
このビデオのスポンサーであるWirestockに再度感謝します。
ビデオに戻ります。
観客の一人がイーロンにAIについて質問する機会を与える予定です。
見てみましょう。
こんにちは、イーロン。
オリビアです。
実際にViva Techから来ており、The Good Hackというイニシアチブを持っています。参加者にAIを責任ある方法で開発する方法について質問しています。
私の質問は、AIの開発が透明で責任あるものとして、あなたのような開発、X、xAIなどを含めて、他の開発全般にわたってどのように確保できるかということです。
長い間、そうしていると言っています。
大規模モデルの規制監督が正当化されていないと考えています。
実際、私はかなり長い間、そう言っています。
その監督の性質は重要です。
以前に言っていたことに戻りますが、AIが真実であるように訓練されることが非常に重要だと思います。政治的に正しいように訓練されるべきではないと思います。
なぜなら、政治的正しさはしばしば単に真実でないからであり、それは嘘をプログラムすることを意味し、それは非常に悪い結果につながると思います。
それがこの点を繰り返し強調する理由ですが、実際には、言い換えると、正直が最善の方針であるということです。
それは非常に重要です。
正直さをどのように測定しますか?
真実さをどのように測定しますか?
真実さの測定基準はありません。
真実さのスコアはありません。
人工知能を真実の回答のみにプログラムする方法はありません。なぜなら、彼らは真実が何かを知らないからです。
彼らは単なるトークンの系列の次のトークンが何かを知っているだけです。
それが現在の大規模言語モデルが動作する方法です。
規制当局が正しい決定を下さないことを恐れています。
想像できますか?
彼らが人間の愚かさにあまりにも心配しすぎるということを?
規制当局に、何よりも重要なことは、AIが正確で真実であることだと言うことを奨励します。
それには賛成です、もちろん。
聴衆の別の人がエロン・マスクにAIの安全性について質問しました。
それはみんなの心配事のようで、彼はそれについて話し続けるつもりです。
これを見ましょう。
デジタルの超知能には危険が伴うことがあります。
前にも言ったように、私は最大の問題は厳密に真実であるように訓練されなければならず、好奇心を持つように訓練されなければならないと思います。
長い間AIの安全性について考えてきました。
AIに明示的な道徳をプログラムする際の課題の1つは、もしも...
時々人々はこれをワルイージ問題と呼びます。
ルイージをプログラムすれば、それを自動的に反転させてワルイージ、悪いルイージを作ることができます。
物理的現実の真実を反転することはできません。
物理法則を反転することはできません。
論理を反転することはできません。
論理を反転することはできます。
規制当局が懸念すべきことは、AIが厳密に真実であるかどうかです。
それは、最も確からしい答えを与え、認められた誤差を伴う答えを提供しているかどうかです。
実際、それは非常に重要だと思いますし、OpenAIがモデル仕様で議論していることです。
モデルは可能な限り最良の答えを提供しようとするべきですが、同時に、これについては自信がない、あるいはこれについては90%自信があるということを断りを入れるべきです。
あなたが尋ねている全体的な概念をよりよく理解するために参照できる他の記事があります。
モデルがその知識のギャップについて非常に透明である限り、それは実際に真実に向かう重要な一歩だと思います。
新しい会社であるxAIは、Google DeepMindやMicrosoft OpenAIと競争できるAIを持つまで、まだ追いつく必要がたくさんあります。
多分...
彼がそれをMicrosoft OpenAIと呼んだのが好きです。
今年の終わりには、それを持っているでしょう。
こちらが今年の終わりに向けた彼の予測です。
彼らはそれを持っているでしょう。
もちろん、もしこれがイーロン・予測のタイムスケールであれば、1年半から2年後にそれを期待できます。
競争力のあるAIを持つだけで十分です。
それが最優先事項です。
競争力がない場合、つまりまだそうではない場合、しかし私はそうなると思います、その時点で事柄に意味が生まれ始めます。
他のAIと同等の力を持つようになったときにのみ、安全性について心配する必要があります。
その発言にはたくさんの解釈があります。
彼が言っていることは、彼がまたはxAIが、最先端のモデルに匹敵するモデルを持つ必要があるということです。
今のところChatGPTと言っておきましょう。
しかし、それは何を意味するのでしょうか?
もしChatGPTが常に少しでも先行している場合、xAIは安全性を心配する必要はありません。
彼らはそれを心配する必要はありません。
それは私にはちょっとした虚偽のように思えます。
最初からそれについて心配すべきです。
また、いつか先行するようになったとしても、彼らは突然スローダウンして安全性を確保するためにすると思いますか?
もしスローダウンすることがChatGPTに遅れを取らせることを意味するなら、そうは思いません。
その発言に対して、私のBSメーターは完全にオーバーフローしています。
コメントであなたの考えを教えてください。
わかりました。
この学生は、イーロン・マスクがAIによって仕事を奪われることを恐れているか尋ねています。
こちらが彼の回答です。
ここではいくつかの存在論的な問いに取り組んでいます。
穏やかなシナリオでは、おそらく私たち誰もが仕事を持たないでしょう。
しかし、その穏やかなシナリオでは、普遍的な高所得があるでしょう、普遍的な基本所得ではなく、普遍的な高所得です。
物やサービスの不足はありません。
穏やかなシナリオが最もありそうなシナリオだと思います、おそらく、私の意見では80%の確率でしょう。
問題は物やサービスが不足することではないでしょう。
皆さんは望むだけの商品やサービスにアクセスできるようになります。
本当の問題は意味の問題になるでしょう。
もしコンピューターやロボットがあなたよりもすべてをより良くできる場合、あなたの人生にはどんな意味がありますか?
もしコンピューターやロボットがあなたよりもすべてをより良くできる場合、あなたの人生には意味がありますか?
イーロン・マスクの人生は彼の仕事についてです。
それは完全に理解できます。
しかし、彼は本当にいいポイントを持っています。
私の人生の大部分は、キャリアと情熱についてでした。
しかし、ロボットやAIが私よりも優れたことができるなら、何が意味があるのでしょうか?
実際、これにはチェスの例があります。
おそらく10年から15年前に、チェスのAIエンジンが最高の人間プレイヤーよりも優れたと思います。
数十年前に、IBMのディープ・ブルーがガリー・カスパロフを打ち負かしたことがありました。
しかし、AIを使って一貫してより優れている。
おそらく10年から15年前だと思います。
それはゲームを変えました。
人間は最高のチェスプレイヤーではありませんでした。
それだけです。
彼らはただそうではないのです。
しかし、チェスはおそらくこれまでで最も大きくなっています。
より多くの人々が他人がチェスをプレイするのを楽しんでおり、世界最高のチェスプレイヤーは新しいラインや新しい手を見つけるのにAIを使っています。
まだ人間が非常に優れたことをするのを見たいという欲求があると思います、人間の能力の限りに。
たとえAIがそれをより良くできるとしても。
しかし、これは非常に興味深い会話です。
あなたがどう思うか知りたいです。
コメントで教えてください。
おそらく、私たち人間にはAIに意味を与える役割がまだあるかもしれません。
あなたが私たちの脳の働き方を考えると、本能や感情を司る辺縁系があります。
私たちは、考えや計画をする大脳皮質を持っています。
しかし、皮質は常に辺縁系を幸せにしようとしています。
おそらく、AIに関しても同じようなことが起こるでしょう。つまり、AIは私たちの皮質を幸せにしようとしており、それは私たちの辺縁系を幸せにしようとしています。
おそらく、私たちがAIに意味や目的を与えているのかもしれません。
長期的には、誰かが行う仕事は任意のものになると思います。
たとえば、趣味のように仕事をしたい場合は、仕事をすることができます。
それ以外の場合、AIやロボットが必要なすべての商品やサービスを提供します。
それは確かに1つの可能性です。
それは遠い未来のことです。
もしもそれが結果として現れるならば、AIによって人間がますます生産的になる大きな中間期が訪れるでしょう。
AIによって支えられた1、2人の人々によって設立された多くの企業が生まれることになり、それらは数十億、さらには数兆ドルの価値を持つ企業になるでしょう。
それは素晴らしいことです。突然、人類としてはもっと多くのことを達成できるようになるからです。
このようなことについて非常に楽観的である傾向があることを知っていますが、それが私の性格なのです。