見出し画像

イリヤ・サツケヴァー | ニューラルネットワークがAGIを現実のものに | AGIはまもなく広く使われる | 安全性は必須

イリヤ、No Priorsへようこそ。
ありがとうございます。ここに来られて光栄です。
では、最初から始めましょう。AlexNetの前は、ディープラーニングでは本当に何も機能していませんでした。そのような環境の中で、皆さんは非常にユニークな賭けをしました。何があなたがたをこの方向に向かわせたのでしょうか?
確かに、その暗黒時代には、AIは人々が希望を持てる分野ではありませんでした。そして、成功がなかったため、多くの議論があり、機械学習とAIがどうあるべきかについて、さまざまな学派が異なる議論をしていました。古典的なAIの知識表現に熱心な人々がいました。ベイジアンで、ベイジアン非パラメトリック手法が好きな人々がいました。グラフィカルモデルが好きな人々がいました。そして、ニューラルネットワークが好きな人々がいました。これらの人々は疎外されていました。なぜなら、ニューラルネットワークには数学的定理を証明できないという特性があったからです。何かについて定理を証明できないということは、あなたの研究が良くないということを意味していました。そういう状況だったのです。
しかし、私が最初からニューラルネットワークに惹かれた理由は、それらが小さな脳のように感じられたからです。誰が定理を証明できるかどうかを気にするでしょうか? なぜなら、我々は小さな脳を訓練しているのであり、いつかそれらが何かをするかもしれないからです。
私たちがAlexNetを行うことができた理由は、3つの要因が組み合わさったからです。第一の要因は、これがGPUが機械学習で使用され始めてすぐ後だったことです。人々は、それが良いことだという直感を持っていましたが、今日のようにGPUが何のためにあるのかを正確に知っていたわけではありません。「おお、これらのクールで高速なコンピューターで遊んで、何ができるか見てみよう」というような感じでした。これは特にニューラルネットワークに適していました。そのため、これは確かに私たちの助けになりました。
私は非常に幸運でした。当時のニューラルネットワークが良くない理由は、それらが小さすぎたからだということに気づくことができました。例えば、1000個のニューロンしかないニューラルネットワークでビジョンタスクを解こうとしても、何もできません。学習がどれだけ良くても、他の全てが良くても関係ありません。しかし、はるかに大きなニューラルネットワークがあれば、前例のないことができるのです。
何があなたにそのような直感を持たせたのでしょうか? 当時、それはかなり常識に反する考えだったと思います。あなたが指摘したように、人間の脳がある意味でそのように機能しているとか、他の生物学的な神経回路がそうだとかいうことはありますが、私はただ好奇心があります。何があなたにそのような早い段階でこれが良い方向性だと思わせたのでしょうか?
そうですね、脳を見ることと、特に...これらの全ての事柄は、もしあなたが自分自身にアイデアを受け入れることを許せば、非常に簡単に導き出されます。現在、このアイデアはかなりよく受け入れられています。当時、人々はまだそれについて話していましたが、本当に受け入れたり内面化したりしていませんでした。そのアイデアとは、人工ニューロンがある意味で生物学的ニューロンとそれほど違わないかもしれないというものです。
そうすると、今、動物が脳でしていることを何でも想像できます。同じようなサイズの人工ニューラルネットワークを組み立てれば、おそらく訓練すれば同様のことができるかもしれません。そこで、ニューラルネットワークによって行われる計算をほとんど想像し始めることができます。高解像度の画像があって、大きなピクセルグループに対して1つのニューロンしかない場合、そのニューロンに何ができるでしょうか? それほど多くのことはできません。しかし、多くのニューロンがあれば、実際に何かをして計算することができます。
私はこのように考えていました。これに加えて、技術的な認識がありました。その技術的な認識とは、ニューラルネットワークの動作を指定する十分に大きなトレーニングセットがあり、そのトレーニングセットが大きなニューラルネットワークを十分に制約できるほど大きく、さらにそのニューラルネットワークを見つけるアルゴリズムがあれば、ニューラルネットワークのトレーニングはほとんどニューラル方程式を解くことと見なすことができるということです。ニューラル方程式を解くことは、各データポイントが方程式であり、各パラメータが変数である方程式を解くことです。
複数の要因がありました。前例のないことができる大きなニューラルネットワークの実現、ニューラル方程式を解くコンピューターと大規模なデータセットがあれば実現できるという認識、そしてここで勾配降下法が登場しますが、勾配降下法だけではありません。勾配降下法は長い間存在していました。それを機能させるためのある技術的な洞察が必要でした。なぜなら、当時の一般的な信念は、「これらのニューラルネットを訓練することは絶望的だ」というものだったからです。
サイズだけの問題ではありませんでした。たとえ誰かが「ああ、大きなニューラルネットを訓練できたらクールだろうな」と考えたとしても、この考えを現実にする技術的な能力がなかったのです。ニューラルネットをコーディングするだけでなく、多くのことを正しく行う必要がありました。そうして初めて機能するのです。
もう一つの幸運なことは、私が一緒に仕事をしたアレックス・クリジェフスキーが、GPUを本当に愛していることを発見したことです。彼はおそらく、GPUのために本当に高性能なコードを書くことを本当に好む最初の人の一人でした。そのため、私たちは2つのGPUから多くのパフォーマンスを絞り出し、前例のないものを生み出すことができたのです。
要約すると、複数の要因がありました。この場合、ビジョンニューラルネットワーク、畳み込みニューラルネットワークで、これまでに行われたものよりもはるかに大きな多層のものが何か非常に前例のないことができるという考えがありました。なぜなら、脳は見ることができ、脳は大きなニューラルネットワークであり、私たちは素早く見ることができるからです。つまり、私たちのニューロンにはそれほど多くの時間がないのです。
必要な計算能力、そのようなニューラルネットワークを実際に訓練できるという技術的なノウハウもありました。これは広く普及していませんでした。機械学習の多くの人々は、たとえそうしたいと思っても、そのようなニューラルネットワークを訓練することができなかったでしょう。
皆さんは、サイズの観点から特定の目標を持っていましたか? それとも、ただできる限り大きくしようとしていただけですか? そして、それが生物学的に触発されたものなのか、その数字はどこから来るのか、あるいはただ可能な限り大きくしようとしていたのか教えてください。
確かに、できる限り大きくしようとしていました。なぜなら、覚えておいてください。私たちには有効に使用できる一定量のコンピューターがあり、それで何ができるかを考えていたのです。
OpenAIの起源と組織の目標について考えると、元々の目標は何で、それはどのように進化してきたのでしょうか?
目標は時間とともに進化していません。戦術は進化しました。OpenAIの目標は、最初から人工汎用知能(AGI)、つまり実際に人々が行うほとんどの仕事や活動、タスクを行うことができる自律システムAIが、全人類の利益になることを確実にすることでした。これが最初からの目標でした。
当初の考えは、おそらく最良の方法は多くの技術をオープンソース化することだろうということでした。後に、私たちは非営利団体としてそれを試みました。これは非常に理にかなっているように思えました。これが目標であり、非営利団体がそれを実現する方法だと。
変わったのは何か。OpenAIのある時点で、私たちは気づきました。そして、おそらく私たちは最も早くそれに気づいた部類に入るでしょう。AIで本当に進歩するには、多くの計算能力が必要だということです。
「多く」とは何を意味するのでしょうか? 計算能力への欲求は本当に無限です。今では明らかに見られるようになりました。しかし、私たちは多くの計算能力が必要になることに気づきました。そして、非営利団体ではそこにたどり着くことはできないでしょう。非営利団体では大規模なクラスターを構築することはできないでしょう。
そのため、私たちは「CAP利益」と呼ばれるこの珍しい構造に転換しました。私の知る限り、私たちは世界で唯一のCAP利益企業です。
アイデアは、投資家がお金を投入しますが、たとえ会社が信じられないほど成功したとしても、彼らは元の投資額の数倍以上は得られないというものです。
これを行う理由、なぜそれが理にかなっているのか、その理由は...もちろん、反対の議論もできるでしょう。しかし、賛成の議論は次のようなものです。もし、私たちが構築している技術、AGIが潜在的に人々が行うあらゆるタスクを実行できるほど能力があると信じるなら、それは全ての人を失業させる可能性があるということを意味するのでしょうか? わかりません。しかし、それは不可能ではありません。
そしてもしそうなら、そのような技術を構築した会社が無限の利益を得ようとする動機を持たないようにすることは理にかなっています。
実際にこのように展開するかどうかはわかりません。AIにおける競争のために。複数の企業があるでしょうし、それは私が述べている議論に対していくつかの予期せぬ影響を与えるでしょう。しかし、それが考え方でした。
私は、YCに入居していたときか、何かの空間を共有していたときにオフィスを訪れたことを覚えています。当時、さまざまな取り組みがありました。操作されるロボットアームがあり、そして本当に最先端のビデオゲーム関連の作業がありました。研究アジェンダがどのように進化したのか、そしてトランスフォーマーベースのモデルや他の形式の学習へとどのように導かれたのか、どのように考えていますか?
私たちの考え方は、年々進化してきました。OpenAIを始めた最初の年、確かに私たちはより従来型の機械学習作業をいくつか行いました。従来型の機械学習作業と言いますが、世界は大きく変わったので、2016年や2017年に誰もが知っていたことの多くが、今では完全に忘れ去られています。ほとんど石器時代のようです。
その石器時代において、機械学習の世界は全く異なって見えました。それははるかにアカデミックでした。目標、価値観、目的ははるかにアカデミックでした。それらは小さな知識の断片を発見し、他の研究者と共有し、その結果として科学的認知を得ることについてでした。これは非常に有効な目標であり、非常に理解できるものです。私はAIを20年以上行ってきましたが、AIに費やした時間の半分以上をそのフレームワークの中で過ごしました。
では、何をするのでしょうか? 論文を書き、小さな発見を共有します。2つの気づきがありました。最初の気づきは、高いレベルで見ると、劇的な影響を与えるための方法ではないように思えるということです。なぜでしょうか? AGIがどのように見えるべきかを想像すると、それは多くの計算を使用する何らかの大きなエンジニアリングプロジェクトでなければなりません。それをどのように構築するかわからなくても、それがどのように見えるべきかはわかります。これは目指すべき理想です。そのため、小さなプロジェクトではなく、より大きなプロジェクトに向かって何らかの形で移動したいと考えました。
私たちは最初の大規模プロジェクトを試みました。そこでは、最高の人間と同じくらい上手にリアルタイム戦略ゲームをプレイするようにニューラルネットワークを訓練しました。これは2プロジェクトで、ヤコブ・ボツキとグレッグ・ブロックマンの2人が主導しました。彼らは本当にこのプロジェクトを推進し、成功させました。これが大規模プロジェクトへの私たちの最初の試みでしたが、私たちにとっては正しい公式ではありませんでした。なぜなら、ニューラルネットワークが少し小さすぎて、ただのゲームという狭い領域だったからです。ゲームをプレイできるのはクールですが。
私たちは探し続け、ある時点で気づきました。「ヘイ、非常に大きなニューラルネットワーク、非常に大きなトランスフォーマーを訓練して、テキストをより良く、より良く予測させると、何か非常に驚くべきことが起こるだろう」と。この認識も徐々に到来しました。
私たちは生成モデルを探索していました。次の単語予測に関するアイデアを探索していました。これらは圧縮にも関連するアイデアです。トランスフォーマーが登場し、私たちは本当に興奮しました。「これは最高のものだ。今からトランスフォーマーをやろう。これは明らかに以前のものよりも優れている」と考えました。
私たちはトランスフォーマーを始め、GPT-1を行いました。GPT-1は非常に興味深い生命の兆しを示し始め、それがGPT-2につながり、最終的にGPT-3につながりました。GPT-3は本当に他の人々の目も開かせました。「ヘイ、これは本当に多くの牽引力がある」と。
現在、誰もが行っている特定の公式があります。その公式とは、より大きな、より大きなトランスフォーマーをより多くのデータで訓練することです。
私にとって大きな目覚めの瞬間は、あなたが指摘したように、GPT-2からGPT-3への移行でした。そこで能力の大きなステップアップが見られました。そして明らかに、OpenAIは異なる知識領域や専門分野、思考の連鎖、あるいはモデルが突然創発的な形で行えるようになった他のことについて、本当に興味深い研究を発表しました。
時間とともに、これらのモデルの創発的な振る舞いについて、あなたにとって最も驚くべきことは何でしたか?
その質問に答えるのは非常に難しいです。私は近すぎて、一歩一歩その進歩を見てきたので、答えるのが非常に難しいのです。できれば答えたいのですが、その質問に答えるのは本当に難しいです。
1つ選ばなければならないとすれば、おそらく私にとって最も驚くべきことは、全体がうまく機能しているということです。これをどのように伝えればいいかわかりませんが、多くのニューラルネットワークが驚くべきことをしているのを見れば、明らかにニューラルネットワークは機能するものだと思うでしょう。しかし、私は何年もの間、ニューラルネットワークが全く機能しない世界にいて、それを個人的に目撃しました。そして、今日の状況と対比すると、それらが機能し、これらの驚くべきことをしているという事実が、おそらく最も驚くべきことかもしれません。
1つ選ばなければならないとすれば、それと話すときに理解されていると感じることでしょう。
本当に良い言葉がありますね。アーサー・C・クラークかSF作家の誰かのものだと思いますが、効果的に言っています。「高度な技術は時として魔法と区別がつかない」と。
私は完全にそのキャンプにいます。
ええ、確かにこれらのモデルにはいくつかの魔法のような瞬間がありますね。
内部的に、皆さんが追求できるさまざまな能力があるとして、継続的に大きなプロジェクトのセットを選択する方法はありますか? 集中化と特定の研究方向への大規模なコミットメントがOpenAIの成功にとって本当に重要だと説明されましたが、今や機会の幅が広がっている中で、何が取り組む価値があるかを決定するプロセスは何ですか?
私は、ボトムアップとトップダウンの組み合わせがあると思います。私たちにはいくつかのトップダウンのアイデアがあり、それらが機能すると信じていますが、100%確信しているわけではありません。そのため、良いトップダウンのアイデアを持つ必要があり、それらのトップダウンのアイデアによって導かれた多くのボトムアップの探索もあります。これらの組み合わせが、次に何をすべきかを私たちに教えてくれます。
そして、これらのボトムアップ、つまりどちらの方向性のアイデアについて考えると、明らかにトランスフォーマーのスケーリングを継続するという支配的な方向性がありますが、追加の建築的な方向性を探索していますか? それとも、それは単に関係ないのでしょうか?
確かに、さまざまな改善が見つかる可能性はあります。私は、小さな改善も大きな改善も、あらゆる場所で見つかる可能性があると思います。
考え方としては、現在行われていることは、投入する計算量とデータ量を増やし続けるにつれて、より良くなり続けるということです。そのような特性があります。大きくすればするほど、より良くなります。
また、スケールアップし続けるにつれて、異なるものが異なる量で改善されるという特性もあります。もちろん、私たちが行っていることをスケールアップしたいのですが、同時に可能な限り最良のものをスケールアップし続けたいのです。
AIの能力の観点から、現在の世代のスケールで最も改善されているのは何だと思いますか? おそらく予測する必要はないでしょう。内部で見ることができるからです。
この質問に答える最良の方法は、公開されているモデルを指摘し、それらが昨年と今年でどのように比較されるかを見ることです。その違いはかなり大きいです。
GPT-3とGPT-3.5の違い、そしてChatGPT、GPT-4、ビジョン付きのGPT-4の違いを見ることができます。自分で見てください。物事がかつてどうだったかを忘れるのは簡単ですが、確かに物事が変化している大きな方法は、これらのモデルがより信頼性が高くなっているということです。
以前は、それらは部分的にしか機能していませんでした。今では、ほとんど機能していますが、まだギャップがあります。そして将来的には、おそらくこれらのモデルはさらに機能するようになるでしょう。答えを信頼でき、より信頼性が高くなり、一般的により多くのタスクを実行できるようになるでしょう。
そして、彼らが行うもう1つのことは、より深い洞察を得ることです。私たちが彼らを訓練するにつれて、彼らは人間の世界の真の性質についてより多くの洞察を得ます。そして、彼らの洞察は深まり続けるでしょう。
モデルのスケールが時間とともにどのように関係しているかについて、ちょうど聞こうとしていました。多くの人々は、非常に大規模なモデルの能力と世界の理解に関する創発的な振る舞いに驚いています。そして並行して、人々がこれらのものを製品に組み込む際、これは非常に異なる道筋ですが、彼らはしばしばモデルのスケールとともに推論コストが上昇することを心配し始めます。そのため、彼らはファインチューニングされた小さなモデルを探しています。しかし、もちろんそうすると、洞察力や推論能力の一部を失う可能性があります。
これらすべてが今後数年間でどのように進化すると考えていますか?
実際に、小さなモデルに切り替えると失われる主なものは信頼性だと指摘したいと思います。現時点で、これらのモデルが真に有用であるための最大のボトルネックは信頼性だと主張します。
信頼性をどのように定義していますか?
つまり、モデルが成功している他の質問よりもそれほど難しくない質問をしたときに、それが引き続き成功するという非常に高い確信度を持てるということです。
例を挙げましょう。ある歴史的なことについて学びたいとします。そして、これについての一般的な意見は何か、あれについての一般的な意見は何かと尋ねることができます。質問を続けることができます。そして、20の質問に正しく答えたとしましょう。21番目の質問で重大な間違いをしてほしくありません。それが信頼性の意味です。
あるいは、いくつかの文書、例えば財務文書をアップロードしたとします。それらが何かを述べていて、私はあなたにいくつかの分析をして結論を出してほしいと思います。そして、その結論に基づいて行動を起こしたいと思います。それはそれほど難しいタスクではなく、これらのモデルは明らかにほとんどの場合このタスクに成功します。しかし、毎回成功するわけではないので、それが重要な決定であれば、実際にはモデルを信頼することができず、何らかの方法で答えを検証しなければなりません。
これが私が信頼性を定義する方法です。自動運転車の状況と非常に似ています。自動運転車があって、ほとんどうまくいっているとしても、それだけでは十分ではありません。状況は自動運転車ほど極端ではありませんが、それが私が信頼性で意味することです。
信頼性に関する私の認識は、あなたの指摘のように、モデルのスケールとともに向上しますが、特定の使用事例やインスタンス、データセットに対してファインチューニングすると向上します。そのため、サイズと専門的なファインチューニングと信頼性の間にはトレードオフがあります。
確かに、特定のアプリケーションを気にする人々は、十分に機能する最小のモデルを手に入れるためのあらゆる動機を持っています。これは真実です。否定できません。特定のアプリケーションを気にする人は誰でも、それに対して最小のモデルを望むでしょう。これは自明です。
しかし、モデルがより大きく、より良くなり続けるにつれて、新しい、前例のない価値のあるアプリケーションが解放されると思います。
だから、小さなモデルは、あまり興味深くないアプリケーションのためのニッチを持つでしょう。それでもそれらは非常に有用ですが、より大きなモデルがアプリケーションを提供することになるでしょう。
例を挙げましょう。良い法的アドバイスを提供するタスクを考えてみてください。答えを本当に信頼できるなら、それは本当に価値があります。おそらくそのためにはずっと大きなモデルが必要かもしれませんが、コストは正当化されます。
今年は特に7B、13B、34Bのサイズに多くの投資がありましたが、これらのスケールでの継続的な研究は無駄だと思いますか?
もちろん違います。私の考えでは、一般的に、中期的な時間スケールで言えば、エコシステムが存在するでしょう。異なるモデルサイズには異なる用途があるでしょう。最高の7Bモデルで十分だと非常に興奮している人々がたくさんいるでしょう。彼らはそれで非常に満足するでしょう。そして、それでは不十分な非常に非常に興奮する素晴らしいアプリケーションがたくさんあるでしょう。
これが全てだと思います。大きなモデルは小さなモデルよりも優れているでしょうが、全てのアプリケーションが大きなモデルのコストを正当化するわけではありません。
このエコシステムにおけるオープンソースの役割はどのようなものだと思いますか?
オープンソースは複雑です。私の心的イメージを説明しましょう。近い将来、オープンソースは単に企業が有用なものを生産するのを助けているだけだと思います。
クローズドソースのモデルの代わりにオープンソースのモデルを使用する理由は何でしょうか? 私は、モデルの使用方法を最終的に決定し、どの使用事例をサポートしたいかを決定する最終決定者になりたいという願望は非常に正当だと思います。近い将来、オープンソースモデルへの需要は非常に高くなり、それを使用する企業もかなりあると想像します。
長期的には、オープンソースモデルの状況はより複雑になると思います。正しい答えが何なのかはわかりません。現時点では想像するのが少し難しいです。未来の帽子をかぶる必要があります。未来学者の帽子をかぶる必要があるかもしれません。コンピューターと話をしていて、それらが私たちを理解しているということを思い出すと、SFモードに入るのはそれほど難しくありません。
しかし、これまでのところ、これらのコンピューター、これらのモデルは実際にはあまり有能ではありません。タスクを全く実行できません。いつか、モデルの能力レベルが非常に高くなる日が来ると思います。結局のところ、インテリジェンスはパワーですよね?
現時点では、これらのモデルの主な影響は、少なくとも一般的な影響は、主にエンターテイメントと簡単な質問応答に関するものだと言えるでしょう。モデルと話をして、「ワオ、これはすごい」と思い、いくつかの画像を生成し、会話をし、何か質問に答えてもらうかもしれません。しかし、大規模で複雑なタスクを完了することとは非常に異なります。
例えば、大規模なテクノロジー企業を自律的に立ち上げて構築できるモデルがあったらどうでしょうか? これらのモデルがオープンソースだった場合、予測困難な結果をもたらすでしょう。現時点では、このようなモデルからはかなり遠い状況です。時間スケールで言えば、これは今話しているようなことではありません。
しかし、自律的に科学を行うモデルが登場する日が来るでしょう。彼らは大規模な科学プロジェクトを実現します。そうなると、そのような力を持つモデルをオープンソース化することが望ましいかどうかはより複雑になります。現在のレベルのモデルは非常に有用で、オープンソース化されているのは素晴らしいと思います。しかし、ある能力までは素晴らしいですが、非常に強力なモデルが構築されると、それらをオープンソース化することの利点がはるかに明白ではなくなる可能性があります。
スーパーアラインメントについて話しましょうか?
はい、ぜひ。
単に定義し、そして...私たちはオープンソースでこれらの能力を持つ必要があると感じ始める境界線について話していましたが、スーパーアラインメントとは何で、なぜ今それに投資するのですか?
あなたの質問への答えは、AIがどこに向かっていると思うかによって本当に異なります。未来を想像してみようとするなら、もちろん非常に難しいことですが、試みてみましょう。5年後、10年後にどこにいると思いますか?
進歩は本当に驚くべきものでした。過去数年間で、おそらく少し遅くなるかもしれませんが、それでもこの種の進歩を外挿すると、5年後には非常に非常に異なる場所にいるでしょう。10年後はなおさらです。
人々よりもはるかに賢いコンピューター、データセンターを持つことは、全く不可能ではないように思えます。賢いというのは、単により多くのメモリーやより多くの知識を持っているということだけではなく、私たち人間が研究している同じ主題についてより深い洞察力を持っているということも意味します。人々よりもさらに速く学習するということも意味します。
そのようなAIは何ができるでしょうか? わかりません。確かに、もしそのようなAIが何らかの人工生命の基礎になれば、それはよく...どのように考えればいいでしょうか? 非常に強力なデータセンターがあり、それも生きているという意味で...これがあなたが話していることです。
この世界を想像すると、私の反応は「ああ、これは非常に予測不可能だ。何が起こるかわからない」というものです。非常に予測不可能ですが、最低限、私たちが明確に述べることができるのは、もしそのような超...もしそのような非常に非常に知的な超知的なデータセンターが構築されるのであれば、私たちはそれらのデータセンターが人々に対して、人類に対して温かく肯定的な感情を持つことを望みます。
なぜなら、これは潜在的に非人間的な生命になる可能性があるからです。そうなる可能性があります。そして、私はそのような超知能のどのインスタンスも、人類に対して温かい感情を持つことを望みます。
これが私たちがスーパーアラインメントプロジェクトで行っていることです。私たちは言っています。「ヘイ、もしあなたが自分自身に許すなら、もしあなたが私たちが見てきた進歩を受け入れるなら、おそらくそれはより遅くなるかもしれませんが、続くでしょう。」もしあなたがそれを許すなら、今日から生産的な仕事を始めて、そのような未来の超知能を制御する問題に対処できる科学を構築することができます。
人々に対して親切で優しくなりたいという強い欲求を彼らに刷り込むことです。なぜなら、それらのデータセンターは、本当にかなり強力になるでしょうから。おそらく多くのものがあるでしょう。世界は非常に複雑になりますが、何らかの形で、彼らが自律的である限り、彼らがエージェントである限り、彼らが存在である限り、私は彼らが親社会的で人間に友好的であることを望みます。これが目標です。
その目標の可能性についてどう思いますか? その一部は、あなたが希望的に影響を与えることができる結果のように感じます。しかし、私たちは個人的に、あるいは種として友好的なAIを持つ可能性が高いでしょうか?
まあ、友情の部分は必要ありません。その友情の部分はオプションだと思います。しかし、私たちは非常に親社会的なAIを持ちたいと思います。私はそれが可能だと思います。保証されているわけではありませんが、可能だと思います。可能になると思います。
その可能性は、より多くの人々が自分自身に未来を見ることを許し、5年から10年先の未来を見て、「AIは何ができると期待しますか? その時点でどれほど能力があると期待しますか?」と自問することで増加するでしょう。
私は、AIが改善し続け、人々がそれを経験するにつれて、各年が過ぎるごとに...なぜなら、今私たちは議論をしていますが、実際に経験すると「ああ、去年のAIは本当に役立ちましたが、今年のAIは前のものを恥ずかしがらせます」と思うでしょう。そして、「わかった」と思います。そして1年後、1年後、AIが科学を始め、AIソフトウェアエンジニアが本当に優れ始めたとしましょう。
これにより、あなたが今述べたような未来の超知能、人類を愛する超知能への欲求がより多く生まれると思います。可能な限り。
私は、多くの意見の相違があり、多くの政治的な質問があると思います。しかし、人々がAIが実際に良くなるのを見て、それを経験するにつれて、親社会的な超知能、人類を愛する超知能への欲求は増加すると思います。可能な限り。
科学的な問題については、現在まだあまり多くの人が取り組んでいない分野だと思います。AIが十分に強力になり、本当に生産的に研究し始めることができます。近々いくつかの非常に興奮する研究を共有する予定です。
しかし、私はこれが大きな状況だと言いたいと思います。本当に、これまでAIで経験してきたものを見て、「減速しているのか? 来年減速するのか?」と自問してください。私たちはそれを見て、何度も何度も経験するでしょう。そして、何をすべきかがより明確になり続けると思います。
私たちは単に加速的な道筋にいると思いますか? 根本的に、特定の技術の波を見ると、それらは屈曲して加速する傾向があります。減速する傾向ではなく。そして、今私たちは減速局面ではなく、加速局面にいるように本当に感じます。
ええ、私たちは今、確かに加速局面にいます。どうなるかを言うのは難しいです。複数の力が作用します。加速する力もあれば、減速する力もあります。
例えば、コストとスケールは減速する力です。私たちのデータが有限であることは、ある程度減速する力です。言い過ぎたくないのですが...
それはある種の漸近線内にありますね。ある時点でそれに到達しますが、標準的なSカーブのようなものです。
特にデータに関しては、単に問題にならないと思います。なぜなら、私たちは他の何かを考え出すからです。
しかし、エンジニアリングプロジェクトの規模は加速する力だと主張するかもしれません。単に管理の複雑さです。
一方で、投資の量は加速する力です。人々、エンジニア、科学者からの関心の量は加速する力です。
そして、もう1つの加速する力があると思います。それは、生物学的進化がそれを解明できたという事実です。そして、これまでのAIの進歩が、この奇妙な特性を持っていたという事実です。実行するのは非常に難しかったのですが、ある意味では、予想されていたよりも単純だったのです。
ある意味で、私は物理学についてあまり知りませんが、私の理解では、量子物理学で進歩したいなら、本当に賢くて、大学院で何年も勉強してこれらのものがどのように機能するかを学ぶ必要があります。一方、AIでは、人々が来て、迅速に追いつき、迅速に貢献し始めます。その風味は何か異なります。
この特定の研究分野には多くの余地があります。これも加速する力だと思います。
これらがどのように展開されるかは、見守る必要があります。おそらく、必要なスケール、エンジニアリングの複雑さが、進歩の速度が遅くなり始めるようになるかもしれません。それでも続くでしょうが、以前ほど速くはないかもしれません。
あるいは、それを推し進める力が集まって、おそらくもう数年間は同じくらい速くなるかもしれません。その後、遅くなり始めるかもしれません。もしそうなるとしてもですが。これが私の見解です。
イリヤ、これは素晴らしい会話でした。参加してくれてありがとうございます。
会話を本当に楽しみました。ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?