OpenAI社長のGreg BrockmanによるTEDトークの要約 + 全文書き起こし翻訳


OpenAI社長のGreg BrockmanによるTEDトークが公開されたので、以下に要点をまとめました。

要約

【導入パート】

  • OpenAIを開始したのは7年前

  • AI分野はとんでもなく進化した

  • 興奮と不安の両方の意見を聞く。私達も同じ気持ち

  • 将来の世界を定義してしまうような歴史的な瞬間にいる

  • 上手く対応できると信じている

【ChatGPTプラグインのデモ】

  • ChatGPTに「TED後の食事を提案して、その絵を描いて」と入力すると、DALL·Eプラグインがディナーの画像を生成して返答

  • メモリプラグインを使うと生成した画像を保存しておける

  • 全てのChaGPTユーザーも今後数ヶ月で使えるようになる(現在はwaitlistに申請した人だけ)

  • プラグインはChatGPTにより生成されたプロンプトを人間が確認できるようになっている。そのプロンプトを保存しておくこともできる

  • 「以前に私が提案した美味しい物の買い物リストを作ってください。そして、そこにいる全てのTED視聴者にツイートしてください」というトリッキーなプロンプトを入力

    • InstacartプラグインがInstacartに買い物リストを送信

    • Zapierプラグインが#TEDハッシュタグをつけてツイート

  • どのプラグインを利用するかを明示的に指定する必要はない。ChatGPTが自ら選択してくれる。 -> UIが画期的に変わる

  • 従来のUIも有効。ChatGPTプラグインは従来のUIを拡張するものだと捉えると良い

【ChatGPTの訓練方法】

  • ChatGPTは2段階の方法で訓練する

  • まずは教師なし学習。インターネットを学習させて、次に来るテキストを予測させる

  • 次に人間によるフィードバック学習。これにより人間の意図を推測できるよになり、未経験のシナリオにも対応できるようになる

【ChatGPT上でのファクトチェック】

  • 人間によるフィードバックには限界がある。現状は間違いを返すこともある(ハルシネーション)

  • ChatGPT上でファクトチェックできるようになる。ChatGPTに「ファクトチェックしてください」と入力すると、ChatGPTのSearchプラグインがwebを検索して事実かどうかをチェックしてくれる。引用も出してくれる(見た感じBingに似ている)

  • プラグインはAI(ChatGPT)と他のAI(Searchプラグイン)が協調して動作する初期の例。これはとてもエキサイティングな結果をもたらす

【CodeInterpreterモデル】

  • CodeInterpreterモデルはPythonを実行できるインタプリタ

  • モデル選択の欄からCodeInterpreterを選択 -> ファイルをアップロード(デモではArXivに投稿された過去30年分の論文データ約167,000件のExcelをアップロード) -> 自然言語で質問すると、ファイル名・カラム名・型などからデータの意味を推測して、論文ごとの著者数のヒストグラム、1年ごとの論文の時系列、論文タイトルのワードクラウドなどを返答

  • グラフはPythonで描画される

【ChatGPTが犬の命を救った話】

  • ある人が病気の犬を獣医に連れて行ったが、どれだけ治療を受けても改善しなかった。ChatGPTに血液検査の結果を入力し、診断を依頼したところ、免疫介在性溶血性貧血にかかっている可能性があることが判明した。別の獣医にかかると、ChatGPTが正しいことをが証明された。

  • この話は興味深い。1人目の獣医は犬の命を救えなかったが、2人目の獣医は犬の命を救った。ChatGPTをブレーンストーミングのパートナーとして使うと、今までできなかったことが可能になる

【まとめ】

  • みんなでリテラシーを高めていかなければならない。それがChatGPTをリリースした理由の一つでもある

  • AIを正しく使うには、みんなの参加が必要

グレッグの話はここまで。ここからはクリス・アンダーソンが出てきてグレッグに色々質問

【どうしてOpenAIはChatGPTを開発できたのか?】

  • Googleでは何千人もの従業員がAIに取り組んでいるのに、数百人の従業員しかいないOpenAIがなぜChatGPTを開発できたのか?

  • 最も重要なことは、互いにまったく異なる人たちのチームが調和して仕事をすること

【創発】

  • 創発の重要な考え方は、あるものをより多く手に入れることになると、突然、異なるものが出現するというもの。これはよくあること

  • 例えばアリをたくさん集めると、完全に創発的で異なる挙動を示すアリのコロニーができあがる

  • 別の例では数軒の家が集まっただけでは、ただの家同士に過ぎないが、家の数を増やすと郊外や文化センター、交通渋滞など、さまざまなものが出現する

  • LLMはスケールすることで様々な能力を創発してきた

  • 更にスケールすることで、本当に恐ろしいものが現れる危険性があるのでは? -> 程度・規模・タイミングの問題

【安全性】

  • AIの安全性を実現するには、現実を直視させるという、というのが唯一の道。そして、人々に意見を述べる時間を与えることが大事

  • コンピュータの歴史全体を見ても、これは業界全体、あるいは人類が技術を発展させていく過程での大きな変化である

  • あらゆる技術の歴史は、段階的に行うこと、そして、技術を増やす瞬間ごとに管理する方法を考えなければならない、というものだった

  • AIのためにガードレールを用意し、賢くなるように教え、私たち全員を破滅させないようにするのが、私たち集団の責任

【ソース】

全文翻訳

こんにちは。私たちが7年前にOpenAIを始めたのは、AIで本当に面白いことが起こっていると感じ、それをポジティブな方向に導く手助けをしたいと思ったからです。それ以来、この分野全体がどれだけ進歩したかを見るのは、正直言って本当に素晴らしいことです。

そして、レイモンドのように、私たちが構築している技術を他の人たちに使って、多くの素晴らしいことを行っている人たちから話を聞けるのは、本当にありがたいことです。私たちは、興奮する人、心配する人、その両方の感情を同時に感じている人たちから話を聞きます。そして正直なところ、それは私たちの気持ちでもあるのです。

何より、これからの社会にとって非常に重要な技術を、私たち世界が定義していく歴史的な時期に今、入っているように感じます。そして、私たちはこれを良い方向にマネジメントしていけると信じています。そこで今日は、その技術の現状と、私たちが大切にしている設計の基本原則を紹介したいと思います。

そこで、最初にお見せするのは、人間のためにツールを作るのではなく、AIのためにツールを作るというのはどういうことなのか、ということです。そこで、画像を生成する新しいドリーモデルを用意し、GPTチャットのアプリとして公開することで、お客様に代わって使っていただくことにしました。そして、尋ねたり、素敵なポステッドミールを提案したり、その絵を描いたりといったことができるのです。

チャットGPTで得られるような、アイデア出しやクリエイティブなやり取り、細部への配慮ができるようになったのです。さあ、これで完成です。食事のアイデアだけでなく、非常に詳細な見開きがあります。

では、どんなものが出てくるか見てみましょう。しかし、GPTチャットはこの場合、画像を生成するだけではありません、すみません、テキストを生成するわけではありません。画像も生成してくれるんです。

これは、あなたの意図を実現するために、あなたの代わりにできることの幅を広げてくれるものです。なお、これはすべてライブデモです。これはすべてAIが生成したものです。

だから、実は何が出てくるかわからないんです。これは素晴らしいですね。見ているだけでお腹が空いてきそうです。

今は、他のツールでもチャットchを拡張しています。例えば、メモリーです。これを後で保存しておくと言うことができます。

このツールの面白いところは、とても検査がしやすいことです。ドリーアプリを使うという小さなポップアップが表示されます。ちなみに、このアプリは今後数ヶ月の間に、すべてのチャットGPTユーザーに提供される予定です。

そして、このツールの裏側を見てみると、人間が書くのと同じように、実際にプロンプトが書かれていることがわかります。このように、機械がどのようにツールを使っているかを検査することで、機械にフィードバックを与えることができるのです。今は保存されています。

そして、その情報を使って、他のアプリケーションとも連携するようなことをお見せしましょう。先ほど提案した美味しいものの買い物リストを作り、AIに少し手間をかけさせ、テッドの視聴者のためにツイートすると言うことができます。もし、あなたがこの素晴らしい素晴らしい料理を作ったら、その味をぜひ教えてください。

しかし、ChatGBPは、私がどんな状況でもどのツールを使うべきかを明示的に指示しなくても、これらすべての異なるツールを選択していることがお分かりいただけるでしょう。これは、ユーザーインターフェースに関する新しい考え方を示していると思います。例えば、私たちは、これらのアプリを使い、アプリ間をクリックし、アプリ間でコピー&ペーストを行う、という考え方に慣れきっています。

そして、通常は、メニューを知っていて、すべての選択肢を知っているような人であれば、アプリの中で素晴らしい体験をすることができます。はい、そうしてほしいです。はい、お願いします。

常に丁寧であることが大切です。ツールの上に統一された言語インターフェイスがあることで、AIがそういった細部をすべて取り除いてくれるのです。だから、何が起こるかわからないような小さなことをいちいち説明する必要はないのです。

と言ったように、これはライブデモですから、時には予期せぬことが起こることもあります。でも、ついでにInstacartの買い物リストも見てみましょう。Instacartに食材のリストを送っているのがわかりますね。

これが必要なものすべてです。興味深いのは従来のUIがまだ貴重だということですこれを見ると、まだクリックして実際の数量を変更することができますね。このように、従来のUIは決して消えてはいないのです。

従来のUI、それは私たちがそれらを構築するための新しい拡張された方法を持っているというだけです。そして今、私たちのレビューのために下書きされたツイートがあります、これも非常に重要なことです。実行をクリックすれば、その通りになります。

私たちはマネージャーです。私たちは検査することができますし、AIの仕事を変えようと思えば変えることができます。それで、この講演の後、あなた自身がこれにアクセスできるようになるのです。

そして、そこに行く。クールです。では、みなさん、ありがとうございました。

ULC、スライドに戻ります。さて、これをどのように構築するかについて重要なことは、単にこれらのツールを構築することだけではありません。AIに使い方を教えることなのです。

このような非常に高度な質問をするとき、私たちは何をさせたいのでしょうか。そのために、私たちはある古いアイデアを使います。アラン・チューリングが1950年に発表したチューリング・テストの論文に戻ると、彼はこう言っています。その代わりに、答えを学ぶことができる。

人間の子供のようなマシンを作り、フィードバックを通じて教えることができます。ChatGPTのトレーニングは、まさにこの2つのステップで行われます。

まず、教師なし学習プロセスによって、チューリングが「子機」と呼んだであろうものを作り出します。全世界、つまりインターネット全体を見せて、「見たことのないテキストで、次に何が来るか予測しなさい」と言うのです。そして、このプロセスによって、あらゆる種類の素晴らしいスキルが付与されるのです。

例えば、数学の問題を見せられたとして、その数学の問題を実際に完成させるためには、例えば、その次に来るもの、あそこにある緑の9を実際に解くしかないのです。しかし、実は第二段階として、AIにそのスキルを使って何をすべきかを教えなければなりません。そのために、私たちはフィードバックを提供します。

AIに複数のことを試してもらい、複数の提案を出してもらい、それを人間が評価して、「こっちの方がいい」と言うのです。そうすると、AIが言った特定の事柄だけでなく、AIがその答えを導き出すために使ったプロセス全体が強化されます。そうすることで、AIは一般化することができ、あなたの意図を推測して、今まで見たことのないシナリオやフィードバックを受けたことのないシナリオに適用することができるようになるのです。

さて、AIに教えなければならないことが、予想と違うこともあります。例えば、GPDFourをカーン・アカデミーに初めて見せたとき、彼らは「わあ、これはとても素晴らしい」と言いました。生徒たちに素晴らしいことを教えられるようになるんだ」と。

ただ一つ問題があります。それは、生徒の計算をダブルチェックしないことです。もし悪い数学があれば、1+1=3ということにして、喜んで実行に移すでしょう。

そこで、フィードバックデータを収集する必要がありました。サル・カーンはとても親切で、自分の時間を20時間提供してくれて、私たちのチームと一緒に機械にフィードバックしてくれました。そして、数カ月かけて、AIに「このようなシナリオでは、人間の背中を押すべきだ」と教えることができたのです。

この方法で、モデルにはたくさんの改良が加えられています。チャットGPTで親指を下に向けると、「ここが弱点だからフィードバックを集めてね」とチームにバットシグナルを送るようなものです。そうすることで、私たちはユーザーの声に耳を傾け、誰にとってもより便利なものを作り上げることができるのです。

さて、質の高いフィードバックを提供するのは難しいことです。子供に部屋の掃除を頼むことを考えると、床の点検しかしていないのであれば。おもちゃを全部クローゼットに詰め込むように教えているだけでは、わからない。ところで、これはいいドリー生成画像ですね。

そして、同じような理屈がAIにも当てはまります。より難しいタスクに移行するにつれ、質の高いフィードバックを提供する能力をスケールアップする必要があります。しかし、これについては、AI自身が喜んで手助けしてくれるでしょう。

時間が経つにつれて、さらに良いフィードバックができるようになり、マシンを監督する能力がスケールアップするのは嬉しいことです。そして、私が何を言いたいのか、お見せしましょう。例えば、教師なし学習と人間のフィードバックからの学習に関するこの2つの基礎的なログの間にどれくらいの時間が経過したかというこのような質問をGPDFourに求めることができます。

そして、モデルには2ヶ月経過と書かれています。しかし、それは本当なのでしょうか?このようなモデルは100%信頼できるわけではありませんが、私たちがフィードバックをするたびに良くなっています。しかし、私たちは実際にAIを使って事実確認をすることができますし、AIは実際に自分の仕事をチェックすることができます。

これをファクトチェックしてくれ、と言うことができます。さて、この場合、実はAIに新しいツールを与えました。これはブラウジングツールで、モデルは検索クエリを発行し、ウェブページをクリックすることができます。

そして、実際に思考の連鎖をすべて書き出すのです。これを検索してみよう、と言うのです。そして実際に検索するのです。

そして、その検索結果の中から出版日を探し出します。その後、別の検索クエリを発行しています。ブログの記事をクリックすることになります。

そして、このすべてはあなたができることです。でも、とても面倒な作業なんです。人間が本当にやりたいと思うようなことではありません。

運転席に座って、必要であれば仕事や結果の引用を三重にチェックできるマネージャーの立場にいるほうが、ずっと楽しいです。そのため、実際に行って、一連の推論を簡単に検証することができるのです。そして、実際に2カ月という期間が間違っていたことが判明したのです。

1週間で2ヶ月。というのが正解でした。スライドに戻ります。

このプロセス全体について、私にとって非常に興味深いのは、人間とAIの間で何段階もの共同作業が行われていることです。この事実確認ツールを使っている人間は、別のAIが人間にとってより有用になるようにデータを作成するために、この作業を行っています。人間と機械が、ある問題にどのように適合し、どのようにその問題を解決したいのか、非常に注意深く、繊細に設計されているのです。人間が管理、監督、フィードバックを行い、機械が検査可能で信頼できる方法で動作していることを確認するのです。

そして、一緒になって、さらに信頼できるマシンを実際に作ることができるのです。そして、このプロセスがうまくいけば、やがて不可能な問題も解決できるようになると考えています。どの程度不可能かというと、コンピュータとの付き合い方のほとんどすべての面を見直すことができるようになると思うのです。

例えば、表計算ソフトについて考えてみましょう。40年前のVisiCalc以来、いくつかのフォーラムで紹介されています。この間、それほど大きく変化したとは思えません。

そして、こちらは過去30年間のアーカイブにあるすべてのAI論文の具体的なスプレッドシートです。約167,000件あります。そして、ここでデータを見ることができます。

しかし、このようなデータセットを分析する方法について、ChatGPTの見解をお見せしましょう。そこで、ChatGPTに別のツールにアクセスさせることにします。これはPythonのインタプリタです。

データサイエンティストが行うようなコードを実行することができるのです。ですから、文字通りファイルをアップロードして、それについて質問することができます。とても便利なことに、ファイル名がわかるので、「これはCSVのカンマ区切り値ファイルです」と表示されます。

解析してあげましょう。ここにある情報は、ファイル名、ご覧いただいたような列名、そして実際のデータだけです。そこから、これらの列が実際に何を意味しているのかを推測することができるのですが、意味的な情報はそこにはありません。

Archiveは論文を投稿するサイトだから、こういうものがあって、これは整数値なんだ、という世界知識をまとめなければならない。だから、論文の著者の数とか、そういうのは人間がやることで、AIは喜んでそれを手伝います。さて、私は何を聞きたいのかさえ分からないので、幸いなことに、機械に、探索的なグラフを作れないか、と尋ねることができます。そしてもう一度言いますが、これは背後に多くの意図を持つ超高レベルの命令です。

でも、私は自分が何をしたいのかさえわかっていません。そこでAIは、私が何に興味があるのかを推察する必要があるのです。そうすると、いいアイディアが浮かんでくるんですよ、きっと。

論文ごとの著者数のヒストグラム、1年ごとの論文の時系列、論文タイトルのワードクラウドなど、どれも興味深いものになると思います。そして、素晴らしいことに、実際にそれを行うことができます。さあ、やってみましょう。

素敵なベルカーブですね。3本が最も多いことがわかりますね。そして、1年あたりの論文のプロットを作成することになります。

2023年には何かおかしなことが起きているようですが。指数関数的に進んでいたのが、崖っぷちに落ちたように見えますね。何が起こっているのでしょうか?ちなみに、これはすべてPythonのコードで、検査をしてからワードクラウドを見ることができますよ。

だから、これらのタイトルに登場する素晴らしいものを見ることができるのです。しかし、私はこの2023年というものにかなり不満があります。今年が本当に悪く見えてしまう。

もちろん、問題は今年が終わっていないことです。だから、マシンの背中を押してあげる。だから、4月13日は確か締切日だった。

公平な予想ができるのか?ということで、見てみましょう。これは、ちょっと野心的なものです。だから、ここでもまた、機械に求めるものがもっとあったような気がするんだ。

私は本当にこのことに気づいてほしかったのです。私が望んでいるのはこれだ、と魔法のように推測するのは、少し行き過ぎかもしれません。しかし、私は自分の意図を伝え、追加のガイダンスを提供しました。

そして、その下で、AIはまたコードを書いているだけなのです。ですから、AIが何をしているのか調べようと思えば、それはとても可能なことなのです。そして今、それは正しい投影を行う。

気がつけば、タイトルも更新されています。私が頼んだわけではないのですが、私が何を望んでいるのかが分かっているのです。それでは、再びスライドに戻りましょう。

このスライドは、私たちが、将来、この技術をどのように使うことになるのか、そのビジョンをたとえ話として示したものです。ある人が重病の犬を獣医に連れてきたところ、獣医は「様子を見ましょう」と誤った判断をしました。しかし、獣医師は「様子を見ましょう」という判断を下しました。その判断に耳を傾けていれば、その犬は今ここにいないでしょう。

その間、彼はGPTFourに全医療記録のような血液検査を提供し、それは、私は獣医ではありませんよ。専門家に相談する必要がある。ここにいくつかの仮説があります。

その情報を2人目の獣医に伝え、獣医はその情報を使って犬の命を救いました。さて、このようなシステム、完璧ではありません。過度に依存することはできません。

しかし、この話は、医療従事者のいる人間が、チャットGPTをブレーンストーミングのパートナーとして、他の方法では起こり得なかった結果を得ることができたということを示していると思うのです。このことは、私たちがこのシステムをどのように私たちの世界に組み込んでいくかを考える上で、反省し、考えるべきことだと思います。そして、私が深く信じていることは、AIを正しく使うには、みんなの参加が必要だということです。

そして、それをどのように組み込むかを決めるためです。AIが何をし、何をしないか、道のルールを決めるためです。この講演から得られるものがあるとすれば、それは、このテクノロジーは、人々が予想していたものとは違って見えるということです。

それで、みんなでリテラシーを高めていかなければならない。それが正直なところ、ChatchiBTをリリースした理由の一つでもあります。一緒に、人工一般知能が全人類に利益をもたらすようにするというOpenAIのミッションを達成できると思っています。

ありがとうございます、グレッグ。ありがとうございます。さて、ここにいるすべての人の心の中には、別に、動揺している感覚があるのではないでしょうか。

これをご覧になった非常に多くの方が、これを見て、ああ、大変だ、と思われたのではないでしょうか。自分の仕事のやり方について、ほとんどすべてのことを考え直さなければならない。そこには、新しい可能性があるのです。自分のやり方を見直す必要があるなんて、誰が思う?ええ、それは素晴らしいことですが、同時にとても怖いことでもあります。

だから、話をしよう。グレッグ話し合いましょう私たちは絶対に

最初の質問は、一体どうやってこれを実現したのかということです。OpenAIには数百人の従業員がいます。Googleは何千人もの従業員が人工知能に取り組んでいます。なぜ、世界に衝撃を与えたこの技術を開発したのは、あなたなのでしょうか?ええ、まあ、つまり、私たちは皆、巨人の肩の上に立っているということですよね?計算機の進歩、アルゴリズムの進歩、データの進歩、これらすべてが業界全体の進歩であることに疑問の余地はないでしょう。

しかし、OpenAIの中では、初期から非常に意図的な選択をたくさんしてきたと思います。最初のものは、現実をそのまま直視することで、ここで進歩するためには何が必要なのかを、ひたすら考えてきました。私たちは多くのことを試しましたが、うまくいかなかったので、うまくいったことだけを見ることができました。そして、最も重要なことは、互いにまったく異なる人たちのチームが調和して仕事をすることだと思います。ところで、水をここに持ってきてもらえますか?必要になりそうなので、言っておきます。

辛口の話題ですが、この言語モデルに何かを見出したということは、投資を続けて育てれば、いつかは何かが生まれるかもしれないということではないのでしょうか。そうですね、正直なところ、この話はとても分かりやすいと思います。私たちは、ディープラーニングラボを設立し、その方法を確立したいとずっと考えていました。しかし、初期のころはわかりませんでした。

ある人は、Amazonのレビューの次の文字を予測するモデルのトレーニングに取り組んでいました。コンマがどこにあるか、名詞と動詞がどこにあるかを予測するモデルですが、彼は実際に最先端の感情分析分類器を手に入れ、このモデルによってレビューが肯定的か否定的かを知ることができました。今日、私たちは「そんなこと、誰でもできるだろう」と思っています。

しかし、このように、基礎となる構文プロセスから意味論が生まれるのを見たのはこれが初めてでした。そして、このことをスケールアップして、その行く末を見守ることになったのです。というのも、これらは予測機械と説明されていますが、実際に見てみると、予測機械から生まれるとは思えないようなものばかりなのです。今、あなたが見せてくれたものだけです。

そして、創発の重要な考え方は、あるものをより多く手に入れることになると、突然、異なるものが出現するというものです。これはよくあることです。アリのコロニー、一匹のアリが走り回っている。

このようなアリをたくさん集めると、完全に創発的で異なる挙動を示すアリのコロニーができあがります。また、都市では、数軒の家が集まっただけでは、ただの家同士に過ぎません。しかし、家の数を増やすと、郊外や文化センター、交通渋滞など、さまざまなものが出現してきます。

その瞬間を教えてください。あなたのために、何かが飛び出し、あなたの心を揺さぶり、あなたが来るとは思わなかったことを教えてください。そうですね、では、これをチャットJPTで試してみてください。

40桁の数字、40桁の数字、40桁の数字を足すと、このモデルはそれをやってのけます。つまり、どうやるかという内部回路を本当に学習しているのです。面白いのは、40桁の数字と35桁の数字を足すような広告を出すと、しばしば間違うことです。このように、プロセスは学習しているのですが、まだ完全には一般化していないことがわかります。

そうですね。40桁の足し算の表を暗記できないのと同じことです。それは、宇宙の数よりも多い原子の数です。

つまり、一般的なことは学んでいるはずなのですが、任意の長さの任意の数を足すということについては、まだ完全には学んでいないのです。つまり、スケールアップして信じられないほどの数のテキストを見ることができるようになり、その結果、学習能力があるとは思ってもみなかったようなことを学習するようになったということなのです。というのも、私たちが得意とし始めた科学のひとつが、このような新しい能力を予測することだからです。

そのために、この分野ではエンジニアリングの品質というものが非常に重要視されています。ロケットを作ることを考えると、すべての公差は非常に小さいものでなければなりません。機械学習でも同じことが言えます。

スタックのすべてのピースを適切に設計し、それから予測を開始する必要があります。驚くほど滑らかなスケーリングカーブがあるのです。これは、インテリジェンスについて深く基本的なことを物語っています。

GPDFourのブログ記事を見ていただければ、これらの曲線がすべて掲載されているのがおわかりいただけると思います。そして今、私たちは予測ができるようになりつつあります。例えば、コーディングの問題では、1万倍や1,000倍も小さいモデルを見て、その性能を予測できるようになりました。

このように、まだ初期段階であるにもかかわらず、実際にスムーズにスケーリングできるものがあるのです。そこで、ここから生じる大きな不安の1つがあります。もし、スケールアップすると、ある程度の信頼性をもって予測できることが現れるというのが、ここで起きていることの基本だとしたら、しかし、それはあなたを驚かせる可能性があるのですから、本当に恐ろしいものが現れる危険性はないのでしょうか?これらはすべて、程度や規模、タイミングの問題だと思います。

そして、人々が見落としていることのひとつに、世界との統合が、信じられないほど創発的で、非常に強力なものであるということがあります。それが、段階的に展開することが重要だと考える理由の1つです。この話を聞いて、私たちは今、このような状況を目の当たりにしています。

私が重視しているのは、今日も本当に質の高いフィードバックを提供することです。私たちが行うタスクは、検査することができますよね?数学の問題を見て、「機械がない」と思うのはとても簡単なことです。7が正解のようにね。

でも、本の要約だって、監修するのは大変なんですよ。この本の要約がいいかどうか、どうやったらわかるんですか?本全体を読むしかない。誰もそんなことはしたくない。

重要なのは、一歩一歩進んでいくこと、そして、本の要約に移行する際には、この作業をきちんと監督することだと思います。そして、この機械が私たちの意図することを実際に実行できるという実績を積み上げていかなければなりません。そして、より優れた、より効率的な、より信頼性の高いスケーリング方法を生み出さなければならないでしょう。

機械が自分と同じ方向を向くようにするようなものです。このセッションの後半で聞きますが、基本的にシステム内部には本当の理解がなく、エラーが発生しないかどうか、常識がないのかどうかなど、常にわからないという批判があります。しかし、スケールの拡大や人間からのフィードバックによって、真理や知恵のようなものに到達するための旅に、高い信頼性で出ることができると思いますか?確信が持てます。

そうですね、OpenAIは、簡単に言えば、「はい、そうです」と答えます。オープンAIのアプローチは、常に「現実を直視せよ」というものでした。この分野は、専門家たちが「Xが実現する」と言う、約束破りの分野なのです。Yはどのように機能するのか。

ニューラルネットはうまくいかないと70年前から言われています。まだ正しいとは言えません。でも、その通りかもしれません。

70年プラス1とか、そういうのが必要なのかもしれません。しかし、私たちのアプローチは常に、この技術の限界に挑戦し、実際に動作しているところを見ることだと考えています。つまり、公の場に出して、それを活用するのが正しいやり方だという、あなたのスタンスは非常に物議を醸していますね。

自分のチームだけがフィードバックするのではなく、世界がフィードバックするようになった。しかし、もし悪いものが出てくるとしたら、それは外にあるものです。私がOpenAIについて聞いた最初の話では、非営利団体として設立されたとき、大企業がAIを使って未知の、おそらく悪事を働いているのをチェックする偉大な存在として、大企業に責任を負わせるモデルを構築し、必要であればその分野を減速させることができるとしていたのです。

少なくとも、私はそう思っていました。GPT、特にChatGPTのリリースは技術界に大きな衝撃を与え、今ではGoogleやMetaなどが追いつこうと躍起になっています。そして、彼らの批判の中には、「適切なガードレールもなく、無理やりこれを世に送り出すのか、さもなくば我々は死ぬ」というものもあります。

自分のやったことが、ここでは責任あることで、無謀なことではないということを、どう主張するのか。ええ、私たちはこのような疑問について、真剣に、いつも考えています。そして、いつも正しいことができるわけではないと思うのです。しかし、1つだけ、最初から信じられないほど重要だと思うことがあります。人工知能を構築する方法を考えるとき、実際に全人類に利益をもたらすような、そんなことをするのでしょうか?そうでしょう?秘密裏に構築し、超強力なものを手に入れ、その安全性を確認した上で、うまくいくことを祈りながら突き進むというのが、デフォルトの計画なのです。

私はその計画を実行する方法を知らない。他の人ならわかるかもしれません。しかし、私にとってそれは常に恐ろしいことでした。

それは正しいとは思えませんでした。だから、この代替案は、現実を直視させるという、私が考える唯一の道だと思います。そして、人々に意見を述べる時間を与えるのです。

これらの機械が完璧になる前に、超強力になる前に、実際に動作しているところを見る能力が必要なのです。GPT-3では、それを確認することができましたね?GPT-3。私たちが本当に恐れていたのは、人々がこの機械を使って誤報を作り出し、選挙を揺るがそうとすることでした。

その代わり、1位はバイアグラのスパムを発生させることでした。つまり、バイアグラスパムは悪いことですが、もっと悪いことがあるのです。もし、ここで思考実験をしてみてください。

あなたが部屋に座っていて、テーブルの上に箱が置いてあるとします。その箱の中には、あなたの家族やみんなに素敵なプレゼントを贈ることができる、とても素晴らしいものが入っている可能性が非常に高いとあなたは思っています。しかし、実はそこには小さな字でPandoraと書かれた1%のものもあるのです。

そして、それが実は想像を絶する悪を世界に解き放つ可能性もあるのです。その箱を開けるか?まあ、だから絶対にしない。そういうやり方はしない方がいいと思います。

正直なところ、これまで話したことのない話をしますと、OpenAIを立ち上げた直後、AIカンファレンスでプエルトリコに行ったときのことです。ホテルの部屋に座って、素晴らしい海を眺めながら、みんな楽しそうに過ごしていました。そして、ちょっと考えてみたんです。

パンドラの箱が5年先か500年先か、ある種潜在的に選べるとしたら、どちらを選ぶか?そうでしょう?一方では、あなた個人にとっては、5年先のほうがいいのかもしれない、と思うかもしれません。でも、もし500年先になったら、人々はより多くの時間をかけてそれを正しく理解することができるようになる。その時、私は本当にそう思いました。もちろん、500年先も本気でやるんだろうなと。

私の兄は当時、軍に所属していたのですが、当時、コンピューターに入力したり、この技術を開発したりする私たちよりも、はるかに現実的な方法で、自分の命を危険にさらしているのだと思うのです。だから、私は、「正しいアプローチをしなければならない」と思っているんです。でも、それは本当の意味での「フィールドプレイ」ではないと思うんです。コンピュータの歴史全体を見ても、これは業界全体、あるいは人類が技術を発展させていく過程での大きな変化であると言えるでしょう。

そして、そこにある断片をまとめなければならないほど、我々はまだ高速のコンピュータを作り、アルゴリズムを改良しているのです。このようなことは、すべて起こっているのです。つまり、誰かが回路に接続したり、誰かが回路に接続した瞬間に、突然、非常に強力なものを手に入れることができるのです。

誰も調整する時間がなかったんだ。どのような安全対策がとられるのか、誰にもわからないのです。他の種類の技術の開発について考えてみても、核兵器について考えてみても、人間ができることはゼロから1に変わるというようなことが言われています。しかし、実際に能力というものを見てみると、それは時間の経過とともに非常にスムーズに変化してきたと思うのです。

私たちが開発してきたあらゆる技術の歴史は、段階的に行うこと、そして、技術を増やす瞬間ごとに管理する方法を考えなければならない、というものでした。つまり、私たちは、人類をまったく新しい世界に導く超能力を持つかもしれない、特別な子供を産んだということなのです。この子のためにガードレールを用意し、賢くなるように教え、私たち全員を破滅させないようにするのが、私たち集団の責任なのです。

基本的にはそういうモデルなのでしょうか?そうだと思いますね。そして、これが変化する可能性があるということも重要だと思うんですね。私たちは、その都度、一歩一歩を踏み出していかなければならないのです。そして、今日、私たちがこのテクノロジーに精通し、フィードバックを提供する方法を考え、それに何を求めるかを決めることは、非常に重要なことだと考えています。

しかし、このような討論ができるのはとても良いことです。このような討論がなければ、私たちはこのような討論をすることはなかったでしょう。グレッグ・ブロックマン、テッドに来てくれて、私たちの心を揺さぶってくれて、本当にありがとう。ありがとうございました。

アプリーチしてください。

この記事が気に入ったらサポートをしてみませんか?