見出し画像

イリヤ・サツケバー | AIは全ての人のライフスタイルを変える | AIは全能だが危険

自分でメモカードを用意したので、準備はできています。まず、こんな質問から始めましょう。あなたはずっと以前から、ディープラーニングの推進派でした。非常に早い段階から、モデルを大規模化すれば本当に予想外の興味深い挙動が見られると確信していました。そんな確信はどこから来たのでしょうか。
大規模ニューラルネットワークが素晴らしいことをできるという確信を得るには、2つの信念が必要だと私は考えています。1つはやや理解しづらく、もう1つは比較的簡単です。
簡単な方の信念は、人間の脳が大きいということです。人間の脳は大きく、猫の脳はそれより小さく、昆虫の脳はさらに小さい。そして、それに応じて人間にはできることが猫にはできないというように、能力の差が見られます。これは理解しやすいでしょう。
難しい部分は、人工ニューラルネットワークの人工ニューロンが、本質的な情報処理の面で生物学的ニューロンとそれほど違わないのではないかと考えることです。つまり、生物学的ニューロンは非常に複雑で多くの機能を持っていますが、結局のところ入力信号と出力信号があるだけで、かなり単純な人工ニューロンでも多くのことを説明できるのではないかということです。
生物学的ニューロンと人工ニューロンは異なり、生物学的ニューロンの方が複雑だということを認めつつも、十分似ているのではないかと考えてみましょう。そうすると、大規模ニューラルネットが素晴らしいことを成し遂げられるという存在証明が得られます。存在証明はあるのです。あとは、それを実現できるようにすればいいのです。そのためには学習が必要です。
これが、私が大学院生時代にジェフと一緒にニューラルネットについて考えていた環境では、他の場所よりも実現可能性が高かったのかもしれません。
確かに、以前にもニューラルネットを試してみましたが、同じような結果は得られませんでした。それは規模がずっと小さかったからです。
興味深いですね。では、AGIの定義から始めましょう。あなたの考えるAGIとは何ですか。
はい。OpenAIには、OpenAIの目標を概説したオープンチャーターという文書があります。そこでAGIの定義を示していて、AGIとは知的労働の大部分を自動化できるコンピューターシステムだと述べています。これは1つの有用な定義です。
ある意味、AGIは人間と同じくらい賢いコンピューターだという直感があります。例えば、コンピューターが同僚になるようなものです。これはAGIの直感的に納得できる定義だと思います。
ただし、この用語は少し曖昧です。AGIのGは「一般的」を意味しますが、AGIで重視するのは一般性だけでしょうか。実際には一般性以上のものを求めています。一般性と能力の両方が必要なのです。
何か新しいことを投げかけても適切に対応できるという意味で一般的である必要がありますが、同時に能力も必要です。質問をしたり何かをするよう頼んだりしたときに、それをきちんとこなせる能力が必要なのです。
はい、最後の非常に実用的な定義が気に入りました。それによって、どの程度近づいているかを測定できる指標が得られますからね。AGIに到達するために必要な要素は全て揃っていると思いますか。もし足りないものがあるとすれば、そのスタックの中で何が欠けているのでしょうか。既にかなり複雑なスタックになっていますが。
トランスフォーマーだけで十分なのでしょうか。有名な「Attention Is All You Need」論文へのオマージュを込めて聞いてみました。
この質問への回答は具体的にはしませんが、質問の後半部分、つまり「トランスフォーマーだけで十分か」という点についてコメントします。
この質問は少し間違っていると思います。なぜなら、二者択一的なものを示唆しているからです。トランスフォーマーが十分か十分でないかという二択を示唆しています。
しかし、税金のように考えた方がいいと思います。トランスフォーマーがあって、それはかなり優れています。もしかしたら、より効率的で高速なもっと良いものがあるかもしれません。しかし、ご存知の通り、トランスフォーマーを大規模化すれば、依然として性能は向上します。ただ、向上の速度が遅くなるかもしれません。
現在のアーキテクチャを大幅に改良できることは間違いありませんが、たとえ改良しなくても、非常に遠くまで到達できるでしょう。
アルゴリズムの違いは重要だと思いますか。例えば、LSTMとトランスフォーマーを十分に大規模化した場合、効率性の違いはあるかもしれませんが、結局は同じ結果に辿り着くのではないでしょうか。
ほぼその通りだと思います。ただし、留保条件があります。2つの留保条件があるのですが、どの程度詳しく説明すべきか考えています。詳細は省略しましょう。
会場の皆さんの中で、LSTMを知っている人はどのくらいいますか。おお、ほとんどの方が知っているようですね。それなら大丈夫でしょう。では、掘り下げてみましょう。
LSTMにいくつかの簡単な修正を加えれば、隠れ状態はかなり小さいので、何らかの方法でそれを大きくし、そして学習方法を考え出す手間をかければ...。LSTMは再帰型ニューラルネットワークで、我々はそれについて少し忘れてしまいました。努力を払っていないのです。
ニューラルネットワークの学習がどのように機能するか知っていますよね。ハイパーパラメータがありますが、それらをどう設定すればいいのでしょうか。学習率をどう設定すればいいのか分からない、学習しない場合はなぜなのかを説明できない...。このような作業がLSTMではなされていないのです。そのため、LSTMを学習させる能力が低下しています。
しかし、もしその作業を行って、LSTMを学習させることができ、隠れ状態のサイズを増やすような簡単な工夫をいくつか行えば、トランスフォーマーよりは劣るでしょうが、それでもLSTMで非常に遠くまで到達できると思います。
スケーリング則についての理解はどの程度進んでいますか。これらのモデルをスケールアップした場合、特定のモデルの能力をどの程度確実に予測できますか。その科学はどの程度確立されているのでしょうか。
それは非常に良い質問です。答えは「まあまあ」です。
もっと明確な答えを期待していました。
「まあまあ」というのは非常に明確な答えです。つまり、私たちの理解は素晴らしいわけではありませんが、絶望的に悪いわけでもないということです。しかし、確かに素晴らしいとは言えません。
スケーリング則は、ニューラルネットワークへの入力と、次の単語の予測精度のような簡単に測定できるパフォーマンス指標との関係を示します。その関係は非常に強いものです。
しかし、難しいのは、私たちが本当に気にしているのは次の単語の予測ではないということです。それを間接的に気にしているだけで、実際には他の付随的な利点に注目しているのです。
例えば、皆さんご存じの通り、次の単語を十分に正確に予測できれば、さまざまな興味深い創発的性質が得られます。これらを予測するのは非常に難しく、少なくとも私はそのような研究を知りません。
誰か興味深い研究課題を探している人がいれば、これは1つの選択肢かもしれません。
OpenAIでGPT-4の開発過程で行った1つの例を挙げましょう。より興味深いタスク、つまりコーディング問題を解く精度を予測するためのスケーリング則を試みました。これを非常に正確に行うことができ、それはかなり良いことです。
なぜなら、これは次の単語の予測精度よりも、私たちにとってより関連性の高い指標だからです。つまり、単に次の単語を予測する能力よりも、コーディング問題を解く能力を知ることの方が、私たちにとってより関連性が高いのです。
しかし、それでも本当に重要な質問、つまりまだ見たことのない創発的な振る舞いを予測できるかという問いには答えられません。
これらの創発的能力について話すと、モデルがスケールアップされるにつれて、最も驚いた能力はどれですか。「これはモデルができるとは思わなかった」と驚いたことは何ですか。
それは答えるのが非常に難しい質問です。なぜなら、現状に慣れてしまうのがあまりにも簡単だからです。確かに驚いた瞬間はありましたが、適応が早すぎて...本当に驚くべきことです。
私にとって大きな驚きは、おそらくこの会場の多くの人には奇妙に聞こえるかもしれませんが、ニューラルネットワークがそもそも機能するということです。
この分野で仕事を始めたとき、ニューラルネットワークは機能していなかったからです。というか、「機能する」の定義を明確にしましょう。少しは機能していましたが、本当の意味では機能していませんでした。最も熱心な愛好家以外の誰もが気にするほどには機能していませんでした。
そして今、私たちは「ああ、ニューラルネットは機能するんだ」と思っています。つまり、人工ニューロンは少なくとも生物学的ニューロンとある程度関連しているのだと。あるいは、少なくともその基本的な仮定がある程度検証されたということです。
創発的性質については、特に印象に残っているものはありますか。例えば、コード生成とか...。それとも、あなたの頭の中では違うかもしれません。単に「ニューラルネットは機能し、スケールアップできる」ということを見て、もちろんこれらの性質は全て創発するだろうと考えたのかもしれません。
なぜなら、極限では人間の脳を構築しているわけで、人間はコードを書くことも、タスクについて推論することもできるからです。そういうことですか。それとも...
確かに驚きはありました。その理由を説明しましょう。人間の脳にはそういった能力がありますが、だからといって私たちの学習プロセスが似たようなものを生み出すということにはなりません。
確かに非常に驚くべきことでした。そうですね、コーディング能力が急速に向上するのを見るのは本当に驚きでした。
特に、これまで誰もコンピューターがコードを書くのを見たことがなかったからです。プログラム合成と呼ばれるコンピューターサイエンスの小さな分野がありましたが、それはごく限られた分野でした。成果を上げられなかったため、非常に限られた分野だったのです。彼らは非常に困難な経験をしていました。
そこにニューラルネットが登場し、「ああ、コード合成ね。あなたたちがいつか達成したいと思っていたことを、私たちは明日にでも成し遂げますよ」と言ったのです。
ところで、ディープラーニングの話題からは少しそれますが、コードを書くとき、どのくらいの割合があなた自身のコードで、どのくらいがニューラルネットとの...つまり、コラボレーションですが...
私は、ニューラルネットがほとんどを書いてくれるのを楽しんでいます。
では、話題を少し変えましょう。これらのモデルがますます強力になるにつれて、AI安全性についても話す価値があります。OpenAIは最近、あなたも署名者の1人である文書を公開しました。サムは議会で証言しました。AI安全性に関して、最も懸念していることは何ですか。
はい、それについて話しましょう。まず、世界の現状について考えてみましょう。
AIの研究が進み、それは刺激的でした。そして今、GPTモデルがあり、皆さんはさまざまなチャットボットやアシスタント、そしてChatGPTで遊ぶことができます。「なるほど、これはかなりクールだ。いろいろなことができる」と思うでしょう。実際、すでにできています。
今日我々が持っているツールの影響について心配し始めるかもしれません。それはとても妥当なことだと思います。しかし、私が懸念を向けているのはそこではありません。
本当に難しくなるのは、何年か先、例えば10年後にAIがどれほど強力になっているかを想像したときです。もちろん、このAIの驚異的な未来の力は、正直なところ想像するのが難しいと思います。
このような強力なAIがあれば、おそらく私たちの夢の外にあるような信じられないほど素晴らしいことができるでしょう。本当に劇的に強力なAIがあれば...。しかし、課題が生じるのはまさにこのAIの力と直接結びついています。AIは強力で、信じられないほど驚異的な力を持つことになるでしょう。この力ゆえに安全性の問題が浮上するのです。
私は3つの問題を挙げたいと思います。数日前、実際には昨日ですが、OpenAIで超知能のもたらす課題に対処するために実施すべきだと考えるアイデアについての書簡を投稿しました。
なぜ超知能という言葉を選んだのでしょうか。超知能という言葉は、単なるAGIのようなもの、つまり人間のような同僚のようなものではなく、はるかに能力の高いものを表現するためです。
そのような能力を持つと、それがどのようなものになるか想像できるでしょうか。疑いの余地なく、信じられないほど強力なものになるでしょう。それを使えば、想像もつかないほど難しい問題を解決できるはずです。
もし適切に使用され、超知能がもたらす課題をうまく乗り越えることができれば、生活の質を劇的に向上させることができるでしょう。しかし、超知能の力は非常に広大なので、懸念が生じます。
1つ目の懸念は、多くの人が表明しているもので、アラインメントの科学的問題です。これは原子力安全性のアナロジーとして考えることができます。原子炉を建設する際、エネルギーを得たいと思いますが、地震が起きても、誰かがトラックで突っ込んでも溶融しないようにする必要があります。
これが超知能の安全性であり、超知能の莫大な力を制御するためには、この問題に取り組まなければなりません。これがアラインメント問題と呼ばれるものです。
我々の提案の1つは、国際機関がこの非常に高いレベルの能力に対してさまざまな基準を作成するというアプローチでした。
また、OpenAIのCEOであるサム・アルトマンの議会証言でAI規制を提唱したことについても触れたいと思います。その意図は主に、非常に高いレベルの能力に対して、さまざまな種類の規則や基準を設けることです。
GPT-4から始めるかもしれませんが、それは本当に興味深いものではありません。ここで関連するのは、それよりもはるかに強力なものです。そのような強力な技術を持つと、その力に対して何かをしなければならないことは明白になります。これが1つ目の懸念であり、克服すべき1つ目の課題です。
2つ目の課題は、もちろん私たちは人間であり、人間には利害関係があるということです。超知能が人間によって制御されれば、何が起こるか分かりません。この時点で、超知能自体が、それが生み出す世界の課題を解決するのを手伝ってくれることを願っています。
これはもはや非合理的なことではありません。私たちよりもはるかに深く物事を見通し、現実をより良く理解できる超知能を想像してみてください。それを使って、それが生み出す課題を解決するのを手伝ってもらうことができるでしょう。
そして3つ目の課題は、自然選択の課題かもしれません。仏教徒が言うように、変化こそが唯一の定数です。世界に超知能が存在し、アラインメントの問題を全て解決し、誰も非常に破壊的な方法でそれらを使用したがらないようにすることに成功したとしても、信じられないほどの豊かさの生活を創造することができたとしても...。
単に物質的な豊かさだけでなく、健康、長寿など、あまりにも明らかに不可能なので夢見ようとさえしないようなことすべてを手に入れたとしても、そこには3つ目の課題である自然選択があります。
物事は変化します。自然選択がアイデアや組織にも適用されることはご存じでしょう。これも課題です。おそらく、人々がAIの一部になるというニューラリンクのソリューションが、この問題に対処する1つの方法になるかもしれません。分かりません。
これが私の懸念を説明したものです。具体的に言えば、懸念が大きいのと同様に、それらを克服する価値は非常に大きいのです。なぜなら、克服できれば、自分たちのために本当に信じられないような、完全に想像もつかないような生活を創造できるからです。
だからこそ、それは本当に乗り越える価値のある課題なのです。
本当に注意を払うべき閾値があるという考えが非常に気に入りました。というのも、ドイツ人として言わせていただくと、欧州スタイルの規制は、その分野についてあまりよく知らない人々によって行われることが多く、イノベーションを完全に殺してしまう可能性があるからです。それは少し残念なことです。
では、話題を少し変えましょう。この部屋には主に起業家が集まっています。その多くが実際にOpenAIのツールを使用しています。
実用的な観点から、大規模言語モデルを基盤にして構築している人々に対して、どのようなアドバイスを主に与えますか。彼らが読むべき、考えるべき標準的なものは何でしょうか。これらのモデルを使用する上で...。
はい、アドバイスを...。残り時間は数分ですね。実用的なアドバイスを...。
私は同じ立場にいないという但し書きをつけた上で、2つの点に注目する価値があると思います。
1つ目は明白なことですが、他では見つからない特別なデータを持っていることです。それは非常に有益です。
2つ目は、現在の状況だけでなく、2年後、4年後にどうなっているかを常に念頭に置き、それに向けて計画を立てることです。
この2つのことは非常に有用だと思います。データは今日役立ちますが、3年後にどのような状況になっているか、それが製品の基本的な前提にどのように影響するかについて、直感的な感覚を少しでも掴もうとすることも役立つと思います。
そうですね。これについて考えるとき、私は...以前は本当に小さなコンテキストウィンドウの世界にいました。エンベディングを使い、コンテキストウィンドウにページングするなど、古典的なやり方をしていました。しかし、もしかしたらそれがなくなるかもしれません。コンテキストウィンドウが非常に大きくなるかもしれません。
これらの過去の事例から外挿しようとしているのですが、そういうことを意味しているのでしょうか。
別の例を挙げましょう。例えば、モデルで遊んでいて、モデルが本当にクールで素晴らしいことができるのを見つけたとします。もし信頼性があれば素晴らしいのですが、非常に信頼性が低いので、「忘れよう、使う価値はない」と思ってしまうかもしれません。
これが変わる可能性があるのです。信頼性の低いものが十分に信頼できるようになるかもしれません。
ですので、これらのモデルを体験し、人々が共有していることに注意を払い、「ああ、これはたまに機能する素晴らしいものだけど、もし常に機能したらどうなるだろう」と考えてみるのです。
このような思考実験は、近い将来から中期的な未来に備えるのに役立つと思います。
それは非常に良いアドバイスですね。
残念ながら、時間が来てしまいました。もっと続けられたらいいのですが...。
皆さん、イリヤに拍手をお願いします。

この記事が気に入ったらサポートをしてみませんか?