見出し画像

イリヤ・サツケヴァー | AIは将来全能になる | 人類が直面する難問をすべて解決する

「最初に、OpenAIについて話し合う前に、お二人の経歴から始めるのが良いかもしれませんね。OpenAIの歴史、設立、そして核となるミッションについて話し、その後、現在の研究や、ロボット工学、ビデオゲーム、そして自然言語処理の分野での取り組みについても触れていきましょう。」
「はい、もちろんです。皆さん、聞こえていますか?聞こえない方は手を挙げてください。私の経歴ですが、AIとの最初の出会いは、実はアラン・チューリングの1950年の論文「計算機械と知能」を読んだときでした。これは、チューリングテストについて述べた論文です。私をワクワクさせたのは、人間と同じレベルのタスクを実行できる機械を作れるという驚くべきアイデアだけでなく、そのような機械をどのように構築するかについての部分でした。チューリングは、そのような複雑なものをプログラムすることは決してできないだろうから、代わりに、人間の子供にするように、データや世界を見せることで学習できる機械を作る必要があると言いました。そのアイデアに私は本当に魅了されました。唯一残念だったのは、これが2008年のことで、当時はこの技術が実際には存在せず、何も機能しなかったことです。そのため、いくつかのスタートアップに携わり、ハーバード大学やMITに短期間在籍した後、シリコンバレーに来ました。常に、この技術が実際に存在すると感じられる時を待っていました。そして、イリヤは2012年にこれを前面に押し出した人物の一人です。」
「私の場合は、なぜか10代の頃からAIに興味を持っていました。数学と脳に非常に興味があり、『私とは何か?コンピューターとは何か?それがどうして存在し得るのか?』という疑問がありました。そのため、AIは非常に興味深いものでした。その中でも、機械学習、特に学習そのものが本当に神秘的なものでした。数学には論理や演繹がありますが、明日太陽が昇ることをどうやって知ることができるのか、その根拠は何なのか。そういうわけで、機械学習が最も興味深いものだと結論づけ、大学院に進学しました。幸運なことに、トロントにいたジェフ・ヒントンと一緒に仕事をする機会があり、9年間彼と一緒に働きました。2012年に大きな進歩を遂げるまでの間です。」
「お二人ともOpenAIを共同設立されましたね。OpenAIは、例えばレッド・ホフマンやピーター・ティールなど、印象的な支援者を惹きつけています。設立の理由について話していただけますか?何が原動力となっているのか、誰かに研究の理由を聞かれたときに何を指摘するのでしょうか?」
「素晴らしい質問です。私から始めましょう。私には複数の動機がありました。当時、Googleで働いており、そこでの仕事にはとても満足していました。しかし、いくつかの思いがありました。AIは非常に大きな影響力を持つだろうと感じていました。AI安全性の概念が重要だと考えていました。そして、OpenAIのような新しい組織なら、本当に劇的な進歩を遂げる機会があるのではないかと思いました。最も重要なのは、グレッグと出会い、これがうまくいくと思ったことです。グレッグ、あなたからも質問に答えていただきたいですね。そして、なぜOpenAIを非営利組織として設立することにしたのか、最近のキャップ付き営利への移行という珍しい構造についても触れていただけますか?」
「2015年、今から約4年前になりますが、パロアルトで夕食会がありました。その夕食会に参加した4人が、この会社を共同設立することになりました。私たち二人とサム・アルトマン、イーロン・マスクです。私たちを結びつけたのは、AI技術の行く末についての共通のビジョンだったと思います。2012年、イリヤと彼の共同研究者たちがディープラーニングの波を起こし、それ以来、私たちが目にしてきた本当に驚くべきAIの進歩は、すべてこの一つの技術から生まれています。これがどこに向かうのか、という問いは、私たちの想像力だけによって制限されているのです。人類が今日直面している最も複雑な学際的な課題、例えば気候変動や、誰もが低コストで手の届く医療を受けられるようにすることなどに、人々と協力して取り組むことができるシステムを本当に構築できたらどうなるか、考えてみてください。この技術の影響は、私たちがこれまで見てきたものとは全く異なる、想像を超えるものになるでしょう。」
「つまり、私たちは皆、その可能性を見たのです。しかし、本当に強力なものには裏側もあります。リスクは何か、どのように間違う可能性があるのか、適切な倫理を適用し、この技術を正しい方法で構築していることをどのように確認できるのか、そういった問いかけをする必要があります。この二重の懸念が、私たちを結集させ、組織を形成する原因となったのだと思います。私たちの主な動機は、人工汎用知能(AGI)と呼ぶこの技術を構築し、それが世界に利益をもたらすことを確実にすることです。組織としての私たちのすべての選択は、最終的にこの目的に収束します。」
「組織の歴史を振り返ると、私たちは非営利組織として始まりました。なぜなら、ミッションを達成するために必要な技術的進歩を実現するために、リソースや人材を獲得し、本当に技術的進歩を遂げるための最適な構造が何なのか、当時はよくわかっていなかったからです。その後、約3年間、技術を前進させる取り組みを続けました。いくつかの本当にエキサイティングな進歩がありましたが、同時に、現在の技術レベルだけでなく、本当に最初の人工汎用知能を構築するにはどうすればいいのかという問いにも答えようとしました。」
「その核心は、結局のところ計算能力だと思います。過去7年間のすべての進歩を見ると、その根底にあるのは、使用する計算量の膨大な増加です。実際、時間の経過とともに計算量がどのように変化したかを示すスライドがあると思います。そのスライドを表示できますか?」
「はい、このグラフは対数プロットなので、非常に直線的に見えますが、実際には指数関数的な増加を意味しています。これらのモデルに投入される計算量は、2012年以来、毎年約10倍のペースで増加しています。これは本当にクレイジーなことです。人間は指数関数的な増加を内面化するのが本当に苦手だと思います。それを実感するのは難しいですね。」
「これを考える一つの方法として、今日1日持つスマートフォンのバッテリーが、5年後には約800年持つようになり、さらに5年後に目覚めると、今度は1億年持つようになる、というようなものです。これが、これらのシステムに投入される脳力の増加の規模です。」
「そうですね。私のスマートフォンのバッテリーは、運が良ければ1日しか持ちませんが。」
「その通りです。素晴らしい類推ですね。」
「では、それがどのようなことを可能にしているのか、現在の取り組みについて話していただけますか?先ほど言及されたビデオゲーム、Dota 2という人気のMOBA(マルチプレイヤーオンラインバトルアリーナ)ゲームについてや、その研究の応用可能性について。必ずしもビデオゲームをマスターすることが目的ではなく、先ほど言及された人工汎用知能に向けた取り組みだと思いますが。」
「ビデオゲームに関する私たちの取り組みの一つの見方は、強化学習と計算能力を組み合わせたものだということです。強化学習は、2013年のDeepMindのAtariの仕事でディープラーニングの舞台に登場しました。ゲームは興奮を呼びましたが、同時にシンプルにも見え、強化学習にはそれほど多くのことができないように思えました。」
「DOTAに関する私たちの仕事の考え方としては、シンプルな強化学習に大量のスケールを使用すれば、当時誰もが考えていたよりもはるかに先に進めることを示したということです。今では誰もが『もちろん、ゲームを解決できる。もちろん、リアルタイムストラテジーゲームを解決できる。それは古いニュースだ』と言うでしょう。しかし、それは私たちが新しいiOSバージョンを電話にインストールしてから2週間後には慣れてしまうのと同じように、技術に慣れてしまうだけなのです。」
「そうですね。付け加えると、本当に重要なのは、この技術が実際にどのように機能するかを理解することです。次のスライドに行きましょう。AIが見ているのは、ただ大きな数字のリストです。人間から見れば、キャラクターがたくさん走り回るゲームがあり、プロの多くの人々がゲーミングハウスで一緒に住んで、このゲームに非常に集中しています。しかし、AIにとっては、それはただの大きな数字のリストです。」
「次のスライドを見ると、私たちが行った他の仕事でも、AIは全く同じものを見ています。ただの別の数字のリストです。昨年行った別の仕事では、ロボットハンドのコントローラーを作ることができました。これは誰も成し遂げていなかったことです。人々は20年間、これらのロボットハンドに意味のあるタスクを実行させるためのプログラムを作ろうとしてきましたが、人間のプログラマーにはあまりにも難しすぎました。しかし、全く同じ技術を使用し、ただ大きな数字のリストを見て、何かを試すたびに報酬を得るシステムを使用することで、ビデオゲームで世界チャンピオンを打ち負かし、同時に誰も制御できなかったこのロボットハンドを制御することができたのです。」
「これが本当の核心です。これが、本当に想像力をかき立てる種類の技術です。コンピューターにとって意味のある数字のリストに変換できる他の問題は何か、そして報酬を最大化するために必要な戦略を見つけ出すことができるのか、と考えると、その答えは本当に無限です。」
「あなたが解決しようとしているそれらの問題の別の一つは、自然言語ですね。基本的に、人間が書いたかもしれないような非常に説得力のあるAmazonの製品レビューのスニペットや、短い小説のページを生成することができます。最近発表したGPT-2、この自然言語モデルについて、そして他のプロジェクトとどのように似ていて、どのように異なるのか話していただけますか?」
「はい、私から始めましょう。GPT-2で行ったことは、大規模な言語コーパスを取り、非常に大きなニューラルネットワークを使用し、そのニューラルネットワークに次の文字を予測することを学習させることでした。多くのGPUを使用しましたが、それだけです。これは新しいことではありません。人々は長い間このようなニューラルネットを訓練してきましたが、私たちはそれをより大きくし、より興味深いデータセットで訓練しました。そしてこの2つのことが、自然言語処理と自然言語生成において不釣り合いな進歩をもたらしたように見えます。」
「ここで興味深い核心は、私たちが約2年半の間、同じ種類のパラダイムを押し進めてきたことです。最初の成功は、センチメントニューロン論文と呼ばれるものでした。ここでは、ニューラルネットにこの全く同じゲームをプレイさせました。つまり、テキストが与えられ、次に何が来るかを予測するよう求められます。人間が次に何を書くかを予測するのです。そして、ある特定の大きさのモデルを持っていたときに、そのモデルが実際に最先端の感情分析分類器を内部で学習したことがわかりました。これは驚くべきことでした。なぜなら、このモデルに単に次に何が来るかを予測するよう求めただけだからです。明らかに学習すると思われることは、単語のスペリング、スペースをどこに置くか、ピリオドをどこに置くか、これらの非常に詳細な統計です。しかし、これは誰かが意味論が現れるのを見た最初の時でした。言葉の意味について何も教えていないのに、何かが意味を持つことを見つけ出したのです。」
「そしてここにもう一つのクレイジーなことがあります。モデルを4分の1に縮小すると、この効果は完全に消えてしまいました。GPT-2は単なるスケールアップです。アーキテクチャが少し異なり、異なるトリックがありますが、根本的には私たちがスケールアップしたニューラルネットワークです。そして突然、本当に興味深い振る舞いが見られるようになりました。実際にかなり説得力のあるエッセイを書くことができるのです。」
「例えば、なぜリサイクルが世界にとって悪いのかについてのエッセイを書きました。それを読むと、実際に『問題は、そもそもこれほど多くの廃棄物を生み出していることだ。だから本当に、サプライチェーンを見直すべきだ』という議論をしています。それはかなり説得力があります。誰かがOpenAIのリサイクルビンにこれを投稿しました。完全にニューラルネットによって書かれたものです。」
「私たちがそのエッセイを読んだとき、これはインターネットのどこかからコピーされたものに違いないと思いました。なぜなら、そのようにモデルは訓練されたからです。私たちは長い間、誰かがこのようなことを言っているフォーラムの投稿を見つけようとしましたが、見つけることができませんでした。somehow ニューラルネットは、他の人が言ったことを私たちが検出できるよりも洗練された方法で言い換えているのかもしれませんが、根本的には、アイデアを組み合わせて、実際に私たちにとってかなり説得力のあるものを生み出すことができたのです。」
「それは、説明可能性に関するあなたの仕事への自然な繋がりですね。非常に優れたモデルを持つことは素晴らしいです。望むようなテキストを生成したり、与えられたテキストを理解したりできます。しかし、それがどのように機能するのかということは、多くの人が知りたいことだと思います。あなたは自然言語処理だけでなく、コンピュータービジョンに関しても説明可能性の面で大きな進歩を遂げています。最近のブログ投稿で詳述された活性化分析、モデルトレーニングへのアプローチについて話していただけますか?これにより、ニューラルネットワークのどの部分がデータセットについて何を推論しているのかを人々が見ることができるようになります。」
「ニューラルネットワークの説明可能性は非常に重要な問題です。なぜなら、ニューラルネットワークが賢くなるにつれて、私たちはそれらにより多くのことをさせたいと思うからです。時々、それらは決定や予測を行いますが、なぜその特定の予測をしたのかを理解することが望ましいでしょう。これらのニューラルネットは非常に大きいので、それらが意味することを理解するのは難しいように思えます。」
「ビジョンモデルの説明可能性に関する私たちの仕事では、単一のニューロンの本質、つまり単一のニューロンが何を探しているのかを理解することができました。そして、人間が理解できる形で、画像の認識がどのように組み立てられるかを説明するコンパクトで簡潔な回路図を抽出することができました。」
「長期的には、この作業が進むにつれて、言語モデルや他の領域のモデルにも同様のツールを適用することを期待しています。そして最終的には、モデルがあるとき、そのモデルの言語能力を使って、なぜその決定をしたのかを私たちに説明させることができるでしょう。これは非常に有用です。なぜなら、『決定Xを理由Yで行った』と教えてくれるからです。」
「これは本当にエキサイティングだと思います。なぜなら、ニューラルネットはブラックボックスだという神話が本当にあるからです。何か答えを出すけれど、それがどこから来たのか全く理解できない。人間がどのように機能するかを考えると、これは実際にそれほど良いわけではありません。誰かになぜその決定をしたのか尋ねることはできますが、実際に心理学研究を行うと、しばしば全く無関係な理由でその決定をしたことがわかります。」
「しかし、私たちはニューラルネットでもっと良くできると思います。そして、私たちは実際にそれができるという証拠を見ています。繰り返しになりますが、本当に希望しているのは、AIが社会でより重要なタスクを任されるようになるにつれて、なぜそのような決定をしているのかを理解できるようになること、実際に私たちが思っていることを行うことを確認できること、そして実際に人々に利益をもたらすために使用されることを確認できることです。だから、この種の仕事は本当に重要だと思います。」
「実際、この仕事が重要だと思う二つ目の理由があります。それはGoogleとの協力です。変革的な技術を登場させるときに本当に重要なことの一つは、それが安全であることを確保するための軸での協力だと思います。自動車メーカーがシートベルトで協調することは誰にとっても良いことです。そして、AIを開発している全ての人が安全性で協調することは、誰にとっても良いことだと思います。」
「そうですね。以前のブログ投稿で詳しく説明されていましたが、GPT-2の研究を発表したとき、最も能力の高いモデルを公開しないことを決めたことは重要かもしれません。それが悪用される可能性を心配していたと言いましたね。説明可能性の部分が整い、使用している人に決定を下した理由を基本的に説明できるモデルを扱うようになれば、現在ほど懸念する必要がなくなると思いますか?」
「GPT-2のリリースは本当に興味深いケーススタディだと思います。なぜなら、本当にそれが始まったのは、私たちが予想外の能力を持つモデルを作成し、これが何に使われるのか、その限界はどこにあるのかを評価するのが難しかったからです。私たちはそれを見て、見て、会社の多くの人々が関与する内部プロセスを経ました。その結論は、完全に問題ないという多くの議論がある一方で、フェイクニュースを書くのに使える可能性があるという議論もありました。私たちは実際に最高のフェイクニュースを書こうとはしませんでしたが、それは可能性の範囲内にあると感じました。」
「しかし、私たちを決定づけた議論は、GPT-2については両方向に合理的な議論ができるが、この技術が進歩するにつれて、二重用途の意味を持つモデルが非常に明確になるだろうということでした。素晴らしいアプリケーションを持ち、素晴らしいことができますが、それは正しい方法で使用された場合のみです。また、あまり良くないことにも使用される可能性があります。コミュニティとして明らかに欠けているのは、そのような形のモデルがあるときに何をすべきかという答えです。」
「本当に怖いものができたときに、これを解決しようとするのは望ましくありません。本当に必要なのは、ドライランです。もしモデルを偶然漏洩させたり、誰かが怒ってそれを再現しようとしても、壊滅的な影響がないようなテストランが必要です。だから、私たちにとって、『共有しないことの規範をどのように開発するか』というフラッグを立てることが本当に重要だったのです。」
「実際、結果には非常に満足しています。多くの議論がありました。これは残念なことで、私たちはそのような反応を望んでいませんでした。しかし、誰かが初めて『私たちは確信が持てないものを持っている』と言ったとき、そのような反応を引き起こし、人々に本当に感情を表現させることは必要だったと思います。そこから多くのことを学びました。」
「それ以来、いくつかの異なるグループが再現を試みたり、実際に再現したりしているのを見ています。そして、同様の結論に達しています。今のところ控えめにしておこう、と。私たちは今、パートナーと協力して、その能力を本当に研究し、フェイクニュースの軽減にどのように使用できるかを理解しようとしています。このような取り組みは本当に重要だと思います。そして、次に誰かがこのようなモデルを持ったときに、本当に良い先例を作ることを願っています。」
「付け加えると、それは結局のところ、機械学習がより能力を持つようになっているということに帰結します。それだけです。能力が高くなればなるほど、良い使い方も悪い使い方も増えます。そのため、ただ明確さが失われていくのです。」
「将来的に、このような高度な能力を持つモデル、おそらくコンピュータービジョンモデルや他のAIの分野のモデルを開発したとき、それを公開する前に、安全対策を講じるまで控えめにすることを検討しますか?」
「それは本当に私たちについてというよりも、コミュニティの規範についてだと思います。セキュリティコミュニティを見ると、責任ある開示を理解するのに長い時間がかかりました。責任ある開示とは、ご存じない方のために説明すると、あるベンダーのソフトウェアに脆弱性を見つけた場合、まずベンダーと話し、ベンダーが対応しないか適切に処理しない場合に、その脆弱性を公開する道筋を提供するというアイデアです。そしてコミュニティはあなたを見て、『あなたは正しいことをした』と言うのです。」
「これは全く自明なプロセスではありません。なぜなら、この脆弱性を野に放つことで、人々が実際にそのベンダーを攻撃したり、誰知らぬことに使用したりする可能性があるからです。本当に多くの痛みと苦しみを経て、様々な人々が訴えられたり攻撃されたりしながら、そこに到達したのだと思います。そして、セキュリティの世界は今はずっと良くなっていると思います。人々がそのプロセスを経たおかげで、私たちはみんなより安全になっています。」
「だから、私たちが行ったことを本当にコミュニティ規範を形成するための最初のステップとして見ています。そして、今や規範が形成され始めていることを願っています。実際、人々はより良い答えを持つことができると思います。そして、遅延リリースや特定のパートナーとの連携など、いくつかの有用な規範がすでに開発されています。そして一緒に公開することができます。これらのことは、将来的に人々がその影響が不確かなモデルを持ったときに、それほど大きな問題にならないはずです。」
「では、少し明るい話題で締めくくりたいと思います。お二人とも、今後の興味深い展開について話されていましたね。AIの分野で、個人的に本当にワクワクすることは何ですか?OpenAI内の研究であっても、あるいはより広くarXivで発表された論文についてでも構いません。お二人の考えをお聞かせください。」
「私が最も興奮しているのは、ディープラーニングにはまだまだ多くの可能性があるということです。より大きなニューラルネットワークを訓練すれば、より多くのことができるようになります。今は解決できないタスクを解決できるようになることを願っています。例えば、推論においても進歩ができることを願っています。それはかなり素晴らしいことでしょう。つまり、より大きなネットワークをより難しい問題に対して訓練すること、それが私がワクワクしていることです。」
「私がワクワクしているのは、イリヤがさまざまな方法で触れたことです。OpenAIでイリヤと私がリードしている新しいチーム、推論チームについてです。私たちが解決したい問題は、ある意味で初日からあった問題です。シンボリックシステムのルートに行くべきか、ニューラルネットのルートに行くべきか、というものです。答えは、両方が必要だと思います。私たちは、推論が可能で、今日解決できないタスクを解決できるニューラルネットを実際に得ることにワクワクしています。」
「素晴らしいですね。近いうちにそれについて読めるのを楽しみにしています。」
「ありがとうございました。」
「ありがとうございました。」

この記事が気に入ったらサポートをしてみませんか?