見出し画像

サム・アルトマン: OpenAI、GPT-5、Sora、Board Saga、イーロン・マスク、イリヤ、電力と AGI | レックス・フリドマン ポッドキャスト #419

※47,976文字と長文のため、テキストの読み上げ機能の使用を想定しております。各OS標準搭載のアクセシビリティ機能(読み上げコンテンツ)でも良いですが、個人的にはMicrosoft Edgeブラウザの「音声で読み上げる」機能をおすすめします。

サム・アルトマン: 私は、コンピューティングが未来の通貨になると考えています。おそらく世界で最も貴重な商品になるでしょう。今後10年の終わりまでに、そしておそらくそれよりも早く、私たちが見て「ワオ、これは本当に驚くべきものだ」と言うような、かなり高性能なシステムを手に入れることになると予想しています。AGIへの道は巨大な権力闘争になるはずです。そうなると予想しています。
レックス・フリードマン: AGIを最初に作った人が多大な力を手に入れることになります。あなたはそれほどの力を自分自身に任せられますか?
これは、サム・アルトマンとの2回目の対話です。彼はOpenAIのCEOで、GPT-4、ChatGPT、Soraを開発した会社であり、おそらくいつの日かAGIを構築する会社でもあります。これはレックス・フリードマンポッドキャストです。サポートするには、説明欄のスポンサーをチェックしてください。さて、親愛なる皆さん、ここにサム・アルトマンがいます。
11月16日木曜日、あなたにとっては多分11月17日金曜日に始まったOpenAIの取締役会の騒動について説明してください。
サム: それは間違いなく私の人生で最も痛みを伴う職業上の経験でした。混沌として、恥ずかしく、動揺し、他にもネガティブな要素がたくさんありました。素晴らしい面もありましたが、アドレナリンが急上昇していたため、その時に立ち止まって評価することができなかったのが残念です。その時期の私のツイートを見返すと、自分の葬儀に参列しているようで、人々が自分について素晴らしいことを言っているのを聞いているようでした。愛する人々からの信じられないほどのサポートがありました。それは本当に素晴らしかったです。その週末全体を通して、一つの大きな例外を除いて、大きな愛を感じ、憎しみをほとんど感じませんでした。何が起こっているのか、これからどうなるのか全く分からず、本当に悪い感じがしましたが。確かに、AIの安全性にとって最悪のことの一つになると思った時もありました。ただ、比較的早い段階でこれが起こったことは嬉しいです。OpenAIが始まってからAGIを作るまでの間に、何か狂気的で爆発的なことが起こると思っていましたが、もしかしたらもっと狂気的で爆発的なことが起こるかもしれません。それでも、ある程度の回復力を築き、将来のより大きな課題に備えるのに役立ったと思います。
レックス: でも、あなたが経験するだろうと感じていたのは、ある種の権力闘争ですね。
サム: AGIへの道は巨大な権力闘争になるはずです。世界は... まあ、そうならないはずです。そうなると予想しています。
レックス: そして、あなたはそれを乗り越えなければならず、可能な限り頻繁に繰り返し、取締役会の構造をどうするか、組織をどうするか、一緒に働く人々の種類をどうするか、それをどのように伝えるかを理解し、可能な限り権力闘争を緩和し、鎮静化する必要があります。
サム: しかし、この時点では、過去にあった本当に不快で本当に難しく痛みを伴うものであるように感じます。しかし、私たちは仕事に戻り、物事はとても忙しく激しいので、それについて多くの時間を費やして考えることはありません。その後、ある時期がありました。その後の約1ヶ月間、多分45日間は一種の夢遊病状態で、ただ日々をさまよっているような感じでした。本当に気分が落ち込んでいました。
レックス: 個人的な心理的レベルでですね。
サム: はい。本当に痛みを伴い、その最中にOpenAIの運営を続けなければならなかったのは大変でした。ただ洞窟に潜り込んでしばらく回復したいと思っていました。しかし今は、私たちはただミッションに取り組むことに戻っています。
レックス: まあ、取締役会の構造、権力のダイナミクス、企業の運営方法、研究と製品開発、お金などの間の緊張関係について振り返り、考えることはまだ有用です。AGIを構築する可能性が非常に高いあなたが、将来的にはもう少し組織的で、劇的でない方法でそれを行うことができるようにするためです。そこには価値があります。あなたをリーダーとしての個人的な心理的側面と、取締役会の構造やそういった複雑なことについて考えるためです。
サム: 確かに、構造とインセンティブ、そして取締役会に必要なものについて多くのことを学びました。ある意味で、これが今起こったことは価値があると思います。おそらくこれがOpenAIの最後の高ストレスの瞬間ではないと思いますが、かなり高ストレスの瞬間でした。会社は本当に破壊寸前でした。そして、私たちはAGIのために正しくしなければならない他の多くのことについて多く考えています。しかし、回復力のある組織を構築し、世界からの多くのプレッシャーに耐えられる構造を構築する方法について考えることは、近づくにつれてますます重要になると予想します。それは非常に重要だと思います。
レックス: 取締役会による審議プロセスがどれほど深くて厳格だったかについて、感覚はありますか?このような状況に関わる人間のダイナミクスについて、少し光を当てていただけますか?ただいくつかの会話があって、突然エスカレートして、サムを解雇しようというような感じだったのでしょうか?
サム: 取締役会メンバーは全体的に善意のある人々だったと思います。そして、人々が時間的プレッシャーやその他を感じるストレスの多い状況では、理解できることですが、人々は最適でない決定を下すと信じています。そして、OpenAIの課題の一つは、プレッシャーの下でうまく機能する取締役会とチームを持たなければならないということです。
レックス: 取締役会に力が強すぎたと思いますか?
サム: 取締役会は多くの力を持つべきだと思いますが、私たちが見た企業構造の一つは、通常、取締役会は株主に答える責任があるということです。時には人々が超議決権株を持っていたりしますが。この場合、私たちの構造について、おそらく私たちが考えるべきだったもう一つのことは、非営利団体の取締役会は、他のルールを設けない限り、かなりの力を持っており、彼ら自身以外の誰にも答える必要がないということです。それには良い面もありますが、私たちが本当に望むのは、OpenAIの取締役会が世界全体に対して答える責任を持つことです。それが実践的なことである限りです。
レックス: 新しい取締役会が発表されましたね。
サム: はい。
レックス: まず小さな新しい取締役会があり、そして今は新しい最終的な取締役会があります。
サム: まだ最終的な取締役会ではありません。いくつか追加しました。さらに追加する予定です。
レックス: いくつか追加したのですね。わかりました。新しい取締役会で、前の取締役会で壊れていたかもしれないものは何が修正されましたか?
サム: 古い取締役会は約1年の間に徐々に小さくなっていきました。9人だったのが6人になり、そして誰を追加するかについて合意できませんでした。また、取締役会には経験豊富な取締役会メンバーがあまりいませんでした。OpenAIの新しい取締役会メンバーの多くは、単に取締役会メンバーとしての経験が豊富です。それが役立つと思います。
レックス: 追加された人々について批判されています。例えば、ラリー・サマーズの追加について多くの人から批判を聞きました。取締役会の選択プロセスはどのようなものでしたか?それにはどのようなことが関係していましたか?
サム: ブレットとラリーは、この非常に緊張した週末の熱の中で決定されました。その週末は本当にローラーコーステルのようでした。多くの上昇と下降がありました。私たちは、ここの経営陣と古い取締役会メンバーの両方が合理的だと感じる新しい取締役会メンバーに同意しようとしていました。ラリーは実際に彼らの提案の一つでした。古い取締役会メンバーの。ブレットは、その週末以前に提案されましたが、彼は忙しくて引き受けたくないと言っていました。そして、私たちは本当に助けが必要でした。他の多くの人々についても話し合いましたが、私が戻るためには新しい取締役会メンバーが必要だと感じました。古い取締役会と同じ構成で再び働くことはできないと思いました。ただし、その後アダムが残ることを決め、感謝しています。しかし、私たちは3人の取締役会にしたいと考え、比較的短期間で2人の新しい取締役会メンバーを見つけなければなりませんでした。正直に言って、それらは... それは戦場でやるようなものです。厳密なプロセスを設計する時間はありません。今後追加する新しい取締役会メンバーについては、取締役会が持つべき重要だと考える基準がいくつかあります。取締役会に必要な異なる専門知識があります。エグゼクティブを雇うのとは異なり、一つの役割をうまくこなす必要がありますが、取締役会は全体的なガバナンスと思慮深さの役割を果たす必要があります。ブレットが言っていることの一つで、私が本当に気に入っているのは、取締役会メンバーを一度に一人ずつではなく、グループとして雇いたいということです。そして、非営利の専門知識、企業運営の専門知識、優れた法的およびガバナンスの専門知識を持つ人々のグループを考えることです。それが私たちが最適化しようとしているものです。
レックス: では、個々の取締役会メンバーにとって技術的な知識は重要ですか?
サム: すべての取締役会メンバーにとってではありませんが、確かにいくつかは必要です。それは取締役会が行う必要があることの一部です。
レックス: つまり、興味深いのは、OpenAIについて人々がおそらく理解していないのは、ビジネスを運営するすべての詳細についてです。取締役会について考えるとき、ドラマを考えると、あなたのことを考え、AGIに到達したり、これらの信じられないほど影響力のある製品を構築して展開したりする場合、取締役会との会話はどのようなものかを考えます。そして、彼らは考えます。そのような状況で審議するのに適切な部隊は何だろうか、と。
サム: そうですね、確かに技術の専門家が必要です。そして、人々を世界で最も助け、異なる視点を持つ人々にこれをどのように展開できるかについて考える人々も必要です。あなたや私が犯す可能性がある間違いは、技術的な理解だけが重要だと考えることです。それは確かに取締役会が持つべき会話の一部です。しかし、それが社会や人々の生活にどのように影響するかについても、そこで代表される必要があります。
レックス: 人々の経歴を見ているのか、それとも単に会話をしているのですか?
サム: 経歴は大きな問題です。もちろん、多くの会話をします。私が経歴を完全に無視し、単に傾きだけを見る役割もありますが、y切片を無視します。
レックス: 聴衆のために数学的にしてくれてありがとうございます。
サム: 取締役会メンバーの場合、私はy切片をもっと気にします。そこには経歴と経験について深く言えることがあると思います。それは非常に代替が難しいものです。
レックス: 経歴に多項式関数を当てはめようとしていますか、それとも指数関数を当てはめようとしていますか?
サム: それほど類推は成り立ちません。
レックス: わかりました。あなたはその週末の低迷点について言及しました。あなたにとって心理的に最も低迷した点は何でしたか?アマゾンのジャングルに行ってアヤワスカを飲んで永遠に姿を消すことを考えましたか?
サム: つまり、非常に悪い時期でした。素晴らしい高揚点もありました。私の電話は、毎日一緒に働いている人々や10年間話していなかった人々からの素晴らしいメッセージで絶え間なく鳴り続けていました。私はこの戦いの真っ只中にいたので、それを十分に評価することができませんでしたが、本当に素晴らしかったです。しかし全体的には、非常に痛みを伴う週末でしたし、また非常に...予想以上に公の場での戦いでした。それは本当に疲れ果てました。私は戦いは一般的に疲れるものだと思いますが、これは本当に疲れました。取締役会は金曜日の午後にこれを行いました。私は多くの答えを得ることができませんでしたが、「まあ、取締役会にはそれをする権利がある」とも思いました。そして、私は少し考えて何をしたいかを決めようと思いましたが、ここに隠れた祝福を見つけようとしました。そして私は思いました。「まあ、OpenAIでの私の現在の仕事は、この時点でかなりの規模の会社を運営することでした。」そして、私が常に最も好きだったのは、研究者たちと一緒に働くことでした。そして、私は非常に集中したAI研究の取り組みができると興奮しました。それは当時、私には全くこれがすべて元に戻る可能性があるとは思いもよりませんでした。これは金曜日の午後のことでした。
レックス: ああ、つまりあなたは死を受け入れた-
サム: 非常に速く、非常に速く。つまり、少しの混乱と怒りの期間を経験しましたが、非常に速く。そして金曜日の夜までには、次に何があるかについて人々と話をしていて、それに興奮していました。私が初めてここの経営陣から聞いたのは金曜日の夜だったと思います。「ねえ、私たちはこれと戦うつもりだ」と。まあ、何でもいいです。そして私は、まだ興奮して寝ました。
レックス: 前進、眠ることはできましたか?
サム: あまり眠れませんでした。奇妙なことの一つは、4日半の期間があり、あまり眠らず、あまり食べず、それでも驚くほどの量のエネルギーがありました。アドレナリンと時間について奇妙なことを学びます。
レックス: つまり、あなたはこの赤ちゃんOpenAIの死を受け入れたのですね?
サム: そして新しいことに興奮していました。ただ、「これは狂っているが、まあいいや」と思いました。
レックス: それは非常に良い対処メカニズムです。
サム: そして土曜日の朝、取締役会メンバーの2人が電話をして言いました。「ねえ、私たちは不安定にしてしまった。物事を不安定にするつもりはなかった。ここで多くの価値を失うのは望んでいない。あなたが戻ってくることについて話し合えますか?」そして私はすぐにそうしたくありませんでしたが、もう少し考えて、「まあ、ここの人々、パートナー、株主のことを本当に気にかけている。この会社を愛している」と思いました。そしてそれについて考え、「まあ、いいけど、これが私に必要なものだ」と言いました。そしてその週末の中で最も痛みを伴う時間、私は何度も考え、言われ続けました... 私だけでなく、ここのチーム全体が、世界中が分裂させようとしている間、OpenAIを安定させようとし続けました。人々は採用しようとし、何でもしようとしていました。私たちは「よし、もうすぐ終わる、もうすぐ終わる。あと少し時間が必要だ」と言われ続けました。そしてそれは非常に混乱した状態でした。そして日曜日の夜、再び数時間ごとに、私は終わりに近づいていて、私が戻る方法を見つけ、物事が元の状態に戻ると期待していました。取締役会は新しい暫定CEOを任命しました。そして私は...つまり、それは本当に悪い感じがしました。それがこの全体の最低点でした。知っての通り、あなたに何か言わせてもらえば、それは非常に痛みを伴いましたが、その週末全体を通して多くの愛を感じました。日曜日の夜のその一瞬を除いて、私の感情を怒りや憎しみとは特徴づけません。本当に...人々から人々への多くの愛を感じました。それは痛みを伴いましたが、その週末の支配的な感情は愛であり、憎しみではありませんでした。
レックス: あなたはミラ・ムラティについて高く評価していましたね。彼女が特にあなたがツイートで言ったように、「大切な静かな瞬間に」助けてくれたと。少し話題を変えてもいいですか。ミラについて何を賞賛していますか?
サム: まあ、彼女はその週末の多くの混乱の中で素晴らしい仕事をしました。しかし、人々はしばしばリーダーを危機の瞬間、良いか悪いかで見ます。しかし、私がリーダーに本当に価値を置くのは、火曜日の朝9時46分の退屈な時間に人々がどのように行動するか、日々の平凡さの中で、誰かが会議にどのように現れるか、彼らが下す決定の質です。それが私が静かな瞬間について言及した意味です。
レックス: つまり、ほとんどの仕事は日々、会議ごとに行われ、ただそこにいて素晴らしい決定を下すということですね。
サム: はい。つまり、見てください、あなたが最後の20分間話したかったことは、この非常にドラマチックな週末についてだと理解しています。しかし、それは本当にOpenAIが何であるかではありません。OpenAIは本当に他の7年間についてのものです。
レックス: まあ、人類文明はナチスドイツによるソ連侵攻についてのものではありませんが、それでも人々は完全にそれに焦点を当てています。
サム: 非常に理解できます。
レックス: それは人間の性質、人間の性質の極端さについての洞察を与えてくれます。そしておそらく人類文明の一部の損害と一部の勝利がそれらの瞬間に起こり得ます。だから、それは説明的です。イリヤについて聞かせてください。彼は秘密の核施設に人質として捕らえられていますか?
サム: いいえ。
レックス: 通常の秘密施設についてはどうですか?
サム: それもありません。
レックス: 核ではない安全でない施設についてはどうですか?
サム: それもありません、そのどちらでもありません。
レックス: つまり、これはある時点でミームになっていますね。あなたはイリヤを長い間知っていますね。彼は明らかにこの取締役会のドラマの一部でした。今、彼との関係はどうですか?
サム: 私はイリヤを愛しています。イリヤに対して途方もない尊敬の念を抱いています。彼の計画について今言えることは何もありません。それは彼に聞くべき質問です。しかし、私は確実に私のキャリアの残りの期間、彼と一緒に仕事をすることを強く望んでいます。彼は私より少し若いので、もしかしたら彼はもう少し長く働くかもしれません。
レックス: 彼が何かを見たというミームがあります。彼はAGIを見たかもしれず、それが彼に内部で多くの心配を与えたというものです。イリヤは何を見たのですか?
サム: イリヤはAGIを見ていません。私たちの誰もAGIを見ていません。私たちはAGIを構築していません。私がイリヤについて本当に愛しているたくさんのことの一つは、彼がAGIと安全性の懸念を広く捉えて、これが社会に与える影響などを含めて非常に真剣に受け止めているということです。そして、私たちが重要な進歩を続けるにつれて、イリヤは過去数年間で私が最も時間を費やして話し合ってきた人の一人です。これが何を意味するのか、私たちがそれを正しく行うために何をする必要があるのか、ミッションを成功させるために何をする必要があるのかについてです。つまり、イリヤはAGIを見ていません。しかし、イリヤは人類にとって称賛に値する存在です。これを正しく行うことを確実にするためにどれほど考え、心配しているかという点で。
レックス: 私は過去に彼と何度か会話をしました。彼が技術について話すとき、彼は常にこの長期的な思考をしているようです。つまり、彼は1年後にこれがどうなるかを考えているのではありません。彼は10年後のことを考えています。
サム: はい。
レックス: ただ原理から考えて、スケールはどうなのか、ここでの基本的なものは何か、これはどこに向かっているのかを考えています。そしてそれが、他のすべての安全性の懸念などについて考えるための基礎となっています。それが彼を本当に魅力的な人間にしています。彼がなぜ静かにしているのか、何か考えはありますか?ただ自己探求をしているのでしょうか?
サム: 繰り返しますが、イリヤのために話したくありません。それは彼に聞くべきです。彼は確かに思慮深い人です。私はイリヤを常に自己探求をしている人だと思っています。本当に良い意味で。
レックス: はい。また、彼は沈黙の力を理解しています。また、彼はおバカな一面もあると聞いていますが、私はその一面を見たことがありません。
サム: それが起こるととても sweet です。
レックス: 私はおバカなイリヤを見たことがありませんが、それも楽しみにしています。
サム: 最近、彼と夕食会にいて、彼が子犬と遊んでいました。彼は非常におバカな気分で、とても愛らしく、私は「ああ、これは世界が最も見ないイリヤの側面だ」と思いました。
レックス: では、この騒動全体をまとめると、取締役会の構造やこのすべてについて、そしてそれがどこに向かっているかについて、良い感じがしていますか?
サム: 新しい取締役会について素晴らしい気分です。OpenAIの構造に関しては、取締役会の任務の一つはそれを見て、どこをより堅牢にできるかを見ることです。まず新しい取締役会メンバーを配置したかったのですが、明らかにこのプロセスを通じて構造について教訓を学びました。私は非常に深いことを言うとは思いません。それは狂った、非常に痛みを伴う経験でした。それは奇妙さの完璧な嵐のようでした。それは私にとって、賭け金がどんどん高くなり、堅牢なガバナンス構造とプロセスと人々が必要になるにつれて何が起こるかのプレビューでした。それが起こった時期に幸せですが、それは驚くほど痛みを伴うものでした。
レックス: それによって、人を信頼することにもっと躊躇するようになりましたか?
サム: はい。
レックス: 個人的なレベルで。
サム: はい。
レックス: 私は非常に信頼する人間だと思います。私は常に、すべての偏執狂について心配したり、エッジケースについて心配したりしないという人生哲学を持っています。少し騙されることと引き換えに、防御を下げて生きることができます。
サム: これは私にとって非常にショッキングでした。私は完全に不意を突かれ、それは間違いなく人々のデフォルトの信頼や悪いシナリオに備えることについて、私の考え方を変えました。そして私はこれが本当に好きではありません。
レックス: 少し冷笑的になり過ぎないように気をつける必要がありますね。
サム: 私は冷笑的になりすぎることを心配していません。私は冷笑的な人間の正反対の極端だと思います。しかし、単にデフォルトで信頼する人間になることが少なくなることを心配しています。
レックス: 実際、AGIを開発している人にとって、信頼する方がいいのか、信頼しない方がいいのか、どちらのモードで操作するのが最適なのかわかりません。あなたは興味深い旅をしていますね。しかし構造に関しては、私はより人間的なレベルに興味があります。クールなものを作っているけれど、賢明な決定も下す人間たちをどのように周りに集めるのでしょうか?なぜなら、お金を稼ぎ始めるほど、そしてその事業が持つ力が大きくなるほど、人々はより奇妙になるからです。
サム: 取締役会メンバーについて、あるいは私がそこにどのくらいの信頼を置くべきだったか、あるいは物事をどのように違って行うべきだったかについて、あらゆる種類のコメントができるでしょう。しかし、ここのチームに関しては、私にとても良い評価をしなければならないと思います。そして私は毎日一緒に仕事をしている人々に対して、ただ大きな感謝と信頼と尊敬の念を抱いています。そして、そのような人々に囲まれていることは本当に重要だと思います。
レックス: 私たちの共通の友人であるイーロンがOpenAIを訴えました。彼が批判している本質は何ですか?彼にはどの程度道理があり、どの程度間違っているのでしょうか?
サム: 本当に何が問題なのかわかりません。私たちは最初、ただの研究所になるつもりで、この技術がどうなるかについて全く知りませんでした。7、8年前のことなので、当時がどんな感じだったか本当に思い出すのは難しいです。言語モデルが大きな話題になる前、これはAPIや対話型ボットへのアクセスを販売することについて全く考えていなかった時期でした。私たちが製品化することについても全く考えていませんでした。だから私たちは「ただ研究をしよう、そしてその研究で何をするかは本当にわからない」と言っていました。多くの根本的に新しいものと同様に、暗闇の中を手探りで始め、いくつかの仮定を立てますが、そのほとんどは間違っていることが判明します。そして、私たちが異なることをする必要があり、また莫大な資本が必要になることが明らかになりました。そこで私たちは「わかった、この構造はうまくいかない。どうやってこの構造にパッチを当てよう?」と言いました。そしてそれを何度もパッチを当て続け、最終的に少なくとも眉をひそめるようなものになりました。しかし、私たちはそこに徐々に到達し、その過程で各時点で合理的な決定を下したと思います。もし今、オラクルがあれば全く違うことをするだろうということではありませんが、当時にはオラクルはありませんでした。しかし、いずれにせよ、イーロンの本当の動機が何なのかについては分かりません。
レックス: 覚えている限りで、OpenAIがブログ投稿で回答したのはどのようなものでしたか?要約できますか?
サム: ああ、私たちはただ「イーロンはこの一連のことを言った、これが私たちの特徴づけ、あるいは私たちの特徴づけではなく、これがどのように進んだかの特徴づけだ」と言いました。私たちは感情的にならないように努め、ただ「これが歴史だ」と言おうとしました。
レックス: イーロンがここで誤解しているところがあると思います。あなたが先ほど言及した点の一つ、つまり当時あなたがたがどの程度不確実だったかということについてです。あなたがたは、みんながその考えを笑っていた時に、AGIについて狂ったように話していた小さな研究者のグループでした。
サム: そんなに長い間ではありませんが、イーロンも人々が笑っていた時にロケットを打ち上げることについて狂ったように話していたのではないでしょうか?だから彼はこれについてもっと共感を持つはずです。
レックス: つまり、ここには個人的なものがあると思います。OpenAIと多くの素晴らしい人々がイーロンと袂を分かつことを選んだという分裂がありました。だから個人的な-
サム: イーロンが別れることを選んだのです。
レックス: その「別れることを選んだ」ということを正確に説明できますか?
サム: 彼はOpenAIが失敗すると思いました。彼はそれを立て直すために完全なコントロールを望みました。私たちは今OpenAIになっている方向に進み続けたいと思いました。彼はまた、テスラがAGIの取り組みを構築できるようにしたいと思いました。様々な時点で、彼はOpenAIを彼がコントロールできる営利企業にしたいと思ったり、テスラと合併させたいと思ったりしました。私たちはそうしたくありませんでした。そして彼は去ることを決めました。それはそれで構いません。
レックス: そしてそれがブログ投稿で述べられていることの一つです。彼はOpenAIをテスラに買収させたいと思っていたということです。マイクロソフトとのパートナーシップと同じような、あるいはもっと劇的な形で。
サム: 私の記憶では、提案はただ「はい、テスラに買収されて、テスラが完全にコントロールする」というものでした。それがそうだったと確信しています。
レックス: では、当時のイーロンにとってOpenAIの「オープン」という言葉は何を意味していたのでしょうか?イリヤはメールのやり取りなどでこのことについて話していました。当時のあなたにとって、そして今のあなたにとって、それは何を意味しますか?
サム: 確実に違う...オラクルと一緒に過去に戻るなら、違う名前を選びます。私が思うに、OpenAIが行っていることの中で最も重要なことの一つは、強力な技術を無料で公共の利益として人々の手に渡すことです。私たちは無料版で広告を表示しません。他の方法でも収益化しません。ただ、それは私たちのミッションの一部だと言います。私たちは、ますます強力なツールを無料で人々の手に渡し、それを使ってもらいたいと思っています。そして私は、そのような「オープン」が私たちのミッションにとって本当に重要だと思います。人々に素晴らしいツールを与え、それを使う方法を教える、あるいは教えなくても彼らが理解し、お互いのために素晴らしい未来を築いていくことができると思います。それは大きなことです。だから、もし私たちが無料または低コスト、あるいは無料と低コストの強力なAIツールを世界に出し続けることができれば、それは私たちがミッションを果たす上で大きな意味があると思います。オープンソースかどうかについては、はい、私たちはいくつかのものをオープンソース化すべきで、他のものはそうすべきではないと思います。それは宗教的な戦線になってしまい、ニュアンスを持つのが難しくなりますが、私はニュアンスが正しい答えだと思います。
レックス: 彼は「名前をClosedAIに変えれば訴訟を取り下げる」と言いました。これはミームの世界で名前をめぐる戦場になるのでしょうか?
サム: それはイーロンがこの訴訟をどれほど真剣に考えているかを物語っていると思います。それは驚くべき発言だと思います。
レックス: まあ、訴訟は、間違っていたら指摘してください、法的に真剣なものではないかもしれません。それはAGIの未来と、現在その道を先導している会社について指摘するためのものかもしれません。
サム: そうですね、Grokは人々が少し偽善的だと指摘するまで何もオープンソース化していませんでした。そして彼は今週、Grokがものをオープンソース化すると発表しました。私はオープンソースか否かが彼にとって本当の問題だとは思いません。
レックス: まあ、オープンソースについては後で話しましょう。競争を批判することは素晴らしいと思います。ちょっとしたシットトークは素晴らしいですが、友好的な競争と、個人的に憎むこととは別物です。私は個人的に訴訟が嫌いです。
サム: そうですね、これ全体が建設者にふさわしくないと思います。そして私はイーロンを私たちの時代の偉大な建設者の一人として尊敬しています。そして彼は嫌な人々が彼を攻撃することがどんなものか知っているので、彼がこれをしていることが余計に悲しいです。
レックス: はい、彼は史上最大の建設者の一人、おそらく史上最大の建設者かもしれません。
サム: それは悲しいです。そして多くの人々を悲しませていると思います。長い間彼を本当に尊敬してきた多くの人々がいて、これを言いました。私はあるインタビューか何かで「古いイーロンが恋しい」と言いました。そして「それが私の気持ちを正確に表している」というメッセージを多く受け取りました。
レックス: 彼はただ勝つべきだと思います。GrokをGPTに勝たせ、そしてGPTがGrokに勝つ、そしてそれが競争で、みんなにとって美しいものになるべきです。しかし、オープンソースの問題については、多くの企業がこのアイデアで遊んでいると思いますか?それはかなり興味深いです。驚くべきことに、Metaがこの分野をリードしていると言えるでしょう。あるいは少なくともチェスゲームの最初の一手を踏み出しました。モデルを本当にオープンソース化しました。もちろん、それは最先端のモデルではありませんが、LlamaをオープンソースにしGoogleも小さなバージョンをオープンソースにするアイデアを持っています。オープンソース化の長所と短所は何ですか?このアイデアで遊んだことはありますか?
サム: はい、確かにオープンソースモデルの場所があると思います。特に、人々がローカルで実行できる小さなモデルには大きな需要があると思います。いくつかのオープンソースモデルがあり、いくつかのクローズドソースモデルがあるでしょう。それは他のエコシステムと同じようなものになるでしょう。
レックス: All In ポッドキャストでこの訴訟について話しているのを聞きました。彼らはより非営利から、この上限付きの営利への移行が他のスタートアップにどのような先例を作るかについて懸念していました。
サム: 非営利として始めて、後で営利部門を追加することを考えているスタートアップがあれば、それを強く思いとどまらせるでしょう。ここで先例を作るとは思いません。
レックス: わかりました。だから、ほとんどのスタートアップはただ-
サム: 確かに。そして繰り返しますが、もし私たちが何が起こるか知っていたら、私たちもそうしたでしょう。
レックス: まあ、理論的には、あなたがここで美しく踊れば、税制上の優遇措置などがあります-
サム: しかし、それは多くの人々がこれらのことをどのように考えているかではないと思います。
レックス: スタートアップがこの方法でたくさんのお金を節約することは可能ではありません。
サム: いいえ、それを非常に難しくする法律があると思います。
レックス: イーロンとの関係がどうなることを望んでいますか?この緊張関係、このダンス、あなたはこれがどうなることを望んでいますか?1年、2年、3年後を見据えて、個人的なレベルでの彼との関係、友情、友好的な競争、このようなことすべてについて。
サム: はい。つまり、私は本当にイーロンを尊敬しています。そして何年か先の未来には、私たちが友好的な関係を持っていることを望んでいます。
レックス: はい、あなたがたが今月中に友好的な関係を持ち、ただ競争し、勝利し、一緒にこれらのアイデアを探求することを願っています。確かに人材をめぐる競争はあるかもしれませんが、それは友好的な競争であるべきです。ただクールなものを作り続けてください。イーロンはクールなものを作るのが得意ですが、あなたもそうです。
さて、クールなものと言えば、Soraについて聞かせてください。聞きたいことは山ほどあります。まず、それは製品レベルでも、哲学的なレベルでも本当に素晴らしいです。では、技術的/哲学的な質問をさせてください。例えばGPT-4と比べて、Soraは世界について何をより理解していると思いますか?言語トークンではなく、これらのパッチで訓練する際の世界モデルについて。
サム: これらのモデルはすべて、私たちの多くが考えている以上に世界モデルについて何かを理解していると思います。そして、彼らが単に理解していないこと、あるいは正しく理解していない非常に明確なこともあるので、弱点を見て、ベールを通して見て、これはすべて偽物だと言うのは簡単です。しかし、それはすべて偽物ではありません。ただ、いくつかは機能し、いくつかは機能しないだけです。Soraの動画を初めて見始めたとき、人が何かの前を数秒歩いて遮蔽し、そして離れても同じものがまだそこにあるのを見て、「これはかなり良い」と思いました。または、基礎となる物理が一連のステップで非常によく表現されている例があります。これはかなり印象的です。しかし、根本的に、これらのモデルはただ良くなり続けており、それは続くでしょう。DALL·E 1から2、3、そしてSoraまでの軌跡を見ると、各バージョンで多くの人々が「これはできない、あれはできない」と批判しましたが、私は「今を見てください」と言います。
レックス: まあ、あなたが just 言及したことは、基本的に世界の3次元物理をモデル化し、そのような種類のものを捉えるのに十分に物理学をモデル化しているということですね。
サム: そうですね。
レックス: はい、多分あなたは遮蔽に対処するために、世界モデルが何を必要とするかについて教えてくれるかもしれません。
サム: はい、私が言いたいのは、遮蔽に対処するために何かをとてもうまくやっているということです。私がそれが世界の素晴らしい基礎的な3Dモデルを持っていると表現するのは、少し飛躍しすぎかもしれません。
レックス: しかし、このような2次元の訓練データアプローチだけで、そこまで到達できるのでしょうか?
サム: このアプローチは驚くほど遠くまで行けそうです。どの限界を乗り越え、どの限界を乗り越えないかについて、あまり推測したくありません。
レックス: システムの興味深い制限にはどのようなものがありますか?あなたが投稿した面白いものもありましたね。
サム: あらゆる種類の面白いものがあります。例えば、猫がビデオの中でランダムな時点で余分な肢を生やすなど、好きなものを選んでください。まだ多くの問題があり、多くの弱点があります。
レックス: それはアプローチの根本的な欠陥だと思いますか、それともより大きなモデルや、より良い技術的詳細、より良いデータ、より多くのデータで猫が余分な肢を生やす問題は解決されると思いますか?
サム: 両方にイエスと言えます。アプローチには、私たちが考え、学ぶ方法とは異なると感じるものがあると思います。そして同時に、スケールとともに良くなっていくと思います。
レックス: LLMsにはテキストトークンがあり、Soraには視覚的なパッチがあると言及しました。つまり、多様な種類の視覚データ、ビデオや画像をすべてパッチに変換します。言える範囲で、訓練は完全に自己教師あり学習ですか?何か手動のラベル付けが行われていますか?これらすべてに人間はどのように関与していますか?
サム: Soraのアプローチについて具体的なことは言わずに、私たちの仕事では多くの人間のデータを使用しています。
レックス: しかしインターネットスケールのデータではありません。多くの人間、多くの複雑な言葉ですね、サム。
サム: この場合、多くというのは公平な言葉だと思います。
レックス: しかし、私にとって多くというのは、聞いてください、私は内向的な人間で、3人と一緒に過ごすのが多くの人です。はい、4人が多くの人です。しかし、あなたはもっと多くを意味していると思います-
サム: これらのモデルのデータにラベルを付ける作業には3人以上の人が携わっています。はい。
レックス: わかりました。しかし、根本的には、多くの自己教師あり学習があります。技術レポートで言及されているように、インターネットスケールのデータがあります。それは別の美しい、詩のようなものです。つまり、人間がラベル付けしていない多くのデータがあります。その意味で自己教師ありです。そして、質問は、もし自己教師ありの詳細を知っていれば、このような自己教師あり方式に適したインターネット上にどれだけのデータがあるのでしょうか。もう少し詳細を公開することを考えたことはありますか-
サム: 考えました。Sora特有のことですか?
レックス: Sora特有です。なぜなら、それがとても興味深いからです。LLMsの同じ魔法が今、視覚データに向かって動き始めることができるのか、そしてそれを行うには何が必要なのかということについてです。
サム: つまり、私にはそうに見えますが、まだやるべき仕事があります。
レックス: もちろん。危険性は何ですか?このシステムをリリースすることについて、なぜ懸念していますか?考えられる危険性には何がありますか?
サム: 率直に言って、このシステムをリリースする前にしなければならないことの一つは、人々がこれから望むであろうスケールを提供できるレベルの効率でそれを機能させることです。だから、それを軽視したくありませんし、そこにはまだたくさんの仕事があります。しかし、ディープフェイクや誤情報の問題を想像できます。私たちは世界に何を出すかについて思慮深い会社であろうとしています。そして、これがどのように悪くなる可能性があるかについて考えるのにそれほど多くの思考は必要ありません。
レックス: ここには多くの難しい質問があります。あなたは非常に難しい分野で取り組んでいます。AIのトレーニングは著作権法の下で公正利用であるべきだと思いますか、またはそうだと思いますか?
サム: その質問の背後にある質問は、価値あるデータを作成する人々がそのデータの使用に対して何らかの形で報酬を得る方法があるべきかということだと思います。そして、それに対する答えはイエスだと思います。まだ答えが何なのかはわかりません。人々は多くの異なることを提案しています。私たちはいくつかの異なるモデルを試してみました。しかし、例えば私がアーティストだとしたら、私のスタイルでアートを生成することをオプトアウトできるようにしたいし、もし彼らが私のスタイルでアートを生成するなら、それに関連する何らかの経済モデルがあってほしいと思います。
レックス: はい、それはCDからNapster、そしてSpotifyへの移行のようなものです。私たちは何らかのモデルを見つける必要があります。
サム: モデルは変わりますが、人々は支払いを受ける必要があります。
レックス: まあ、もっと大きく考えれば、人間がクールなことを続けるための何らかのインセンティブがあるべきです。
サム: 私が心配することすべてについて、人間はクールなことをし続け、社会は何らかの方法でそれに報いる方法を見つけるでしょう。それは非常にハードワイヤードされているように思えます。私たちは創造したい、役立ちたい、何らかの形でステータスを達成したいと思っています。それはなくならないと思います。
レックス: しかし、報酬は金銭的、財政的なものではないかもしれません。他のクールな-
サム: 他の形で金銭的かもしれません。繰り返しますが、経済システムがどのように機能するかについての最後の進化を見たとは思いません。
レックス: はい。しかし、アーティストやクリエイターは心配しています。Soraを見ると、彼らは「なんてこった」と言います。
サム: もちろん。アーティストは写真が登場したときも非常に心配しました。そして写真は新しい芸術形式となり、人々は写真を撮ることで多くのお金を稼ぎました。そして、そのようなことは続くでしょう。人々は新しいツールを新しい方法で使用するでしょう。
レックス: YouTubeなどを見ると、今後5年間でその中でどれくらいがSoraを使用した、つまりAIが生成したコンテンツになると思いますか?
サム: 人々は5年後にAIがどれだけの仕事をするかについて話します。人々が持っているフレームワークは、現在の仕事の何パーセントが完全にAIによって置き換えられるかというものです。私が考える方法は、AIがどれだけの割合の仕事をするかではなく、AIがどれだけの割合のタスクをどのようなタイムホライズンで行うかです。経済のすべての5秒のタスク、5分のタスク、5時間のタスク、さらには5日のタスクを考えると、AIがそのうちどれだけを行えるでしょうか?私はそれがより興味深く、影響力があり、重要な質問だと思います。なぜなら、それはますます高度な洗練度で、より長いタイムホライズンで、より多くのタスクに対して機能するツールであり、人々がより高いレベルの抽象化で操作できるようにするからです。おそらく人々は自分の仕事でずっと効率的になります。そしてある時点で、それは単なる量的な変化ではなく、質的な変化にもなります。頭の中で保持できる問題の種類についてです。YouTubeの動画については同じだと思います。多くの動画、おそらくほとんどの動画が制作にAIツールを使用するでしょう。しかし、それらは依然として基本的に、それについて考え、まとめ、一部を行い、ある種の指揮をし、実行する人によって駆動されるでしょう。
レックス: はい、それはとても興味深いです。つまり、怖いですが、考えるのは興味深いです。私は人間が他の人間や人間らしいものを見るのが好きだと信じる傾向があります。
サム: 人間は他の人間のことを本当に気にかけています。
レックス: はい。人間よりもクールで良いものがあれば、人間はそれを2日間気にしてから、また人間に戻ります。
サム: それは非常に深くワイヤードされているように見えます。
レックス: それは全体的なチェスの話です。しかし今や、みんなはチェスを続けて遊び、人間がAIシステムと比べてチェスが本当に下手だという部屋にいるアルファを無視しています。
サム: 私たちはまだレースを走っていますが、車ははるかに速いです。つまり、たくさんの例があります。
レックス: はい。そしておそらく、それはAdobe suiteのようなツール化になるでしょう。ビデオ制作がずっと簡単になるでしょう。聞いてください、私はカメラの前に立つのが嫌いです。カメラの前に立たなくて済む方法があれば、大歓迎です。残念ながら、それにはまだ時間がかかるでしょう。顔を生成するのは上手くなってきていますが、特定の人物の顔をビデオ形式で生成するのは、一般的な人物と比べてまだ難しいです。
GPT-4について聞かせてください。たくさんの質問があります。まず、これも素晴らしいです。振り返ってみると、おそらくこれはGPTを持つ3、5、4という歴史的な重要な瞬間になるでしょう。
サム: おそらく5が重要な瞬間になるかもしれません。わかりません。前を向いて言うのは難しいです。
レックス: 私たちには決してわかりません。それが未来の厄介なところです。予測するのが難しいのです。しかし私にとっては、振り返ってみるとGPT-4、ChatGPTはかなり印象的で、歴史的に印象的です。では、あなたにとってGPT-4とGPT-4 Turboの最も印象的な能力は何ですか?
サム: 正直に言うと、それはあまり良くないと思います。
レックス: うーん。典型的な人間も素晴らしいものに慣れてしまったようですね。
サム: いいえ、それは素晴らしいものだと思います。しかし、私たちが到達する必要がある場所や、私たちが到達すると信じている場所と比べると、GPT-3の時には人々は「ああ、これは素晴らしい。これは技術の驚異だ」と言っていました。そしてそうでした。しかし今、私たちはGPT-4を持っていて、GPT-3を見ると、それは想像もつかないほどひどいものです。5と4の差は、4と3の差と同じくらい大きいと予想しています。そして私たちの仕事は、数年先の未来に生きることだと思います。そして、今私たちが持っているツールは、振り返ってみるとかなりひどいものだと覚えておくことで、未来をより良いものにすることができます。
レックス: GPT-4が最も素晴らしく「ひどい」点は何ですか?つまり-
サム: それができる最高のことは何ですか?
レックス: それができる最高のことは何で、その最高のことの限界が「ひどい」と言えるほどで、それによって未来への希望と刺激を与えるものは何ですか?
サム: 最近、私がそれをより使用している一つのことは、一種のブレインストーミングのパートナーとしてです。
レックス: はい。ほぼそのために。
サム: そこには何か素晴らしいものの輝きがあります。人々がそれが何をするかについて話すとき、「より生産的にコードを書くのを助けてくれる。より速く、より良く書くのを助けてくれる。この言語から別の言語に翻訳するのを助けてくれる」など、すべてのこれらの素晴らしいことを言います。しかし、創造的なブレインストーミングのパートナーとしての何かがあります。このものの名前を考える必要がある。この問題を別の方法で考える必要がある。ここで何をすべきかわからない。これは、私が将来もっと見たいと思うものの一瞥を与えてくれると思います。
見ることができるもう一つの非常に小さな一瞥は、より長期的なタスクで助けることができることです。何かを複数のステップに分解し、おそらくそれらのステップのいくつかを実行し、インターネットを検索し、コードを書くなど。それをまとめる。それがうまくいくとき、それはあまり頻繁ではありませんが、非常に魔法のようです。
レックス: 人間との反復的なやりとりは、私にとってはよく機能します。うまくいくとはどういう意味ですか?
サム: 人間との反復的なやりとりはより頻繁に機能しますが、それが10ステップの問題を自分で行うことができるときは、そんなに頻繁には機能しません。
レックス: 複数の抽象化レベルを追加するという意味ですか、それとも単に順次的なものですか?
サム: 両方です。分解して、異なる抽象化レベルで物事を行い、それらをまとめることです。GPT-4の成果を過小評価したくありませんが、過大評価もしたくありません。そして、私たちが指数関数的な曲線上にいるという点で、比較的すぐにGPT-4を振り返ると、今私たちがGPT-3を振り返るのと同じように見えると思います。
レックス: とはいえ、ChatGPTは人々が信じ始めた転換点でした。内部のOpenAIではないかもしれませんが。ここには信者がいますが、考えるとき-
サム: そしてその意味で、世界の多くが信じていないことから信じることへの瞬間だったと思います。それはより多くChatGPTのインターフェースについてでした。インターフェースと製品によって、モデルの事後トレーニングや、それをあなたにとって役立つものにチューニングする方法、使用方法も意味します。基礎となるモデル自体よりもです。
レックス: それらのことのそれぞれがどれくらい重要ですか?基礎となるモデルと、人間にとってより魅力的で効果的で生産的になるようにチューニングするRLHFのようなものは。
サム: 両方とも非常に重要ですが、RLHF、事後トレーニングのステップ、計算の観点からは小さなラッパーですが、基本モデルの上に行う大量の作業、それに製品を構築する作業を含めると、本当に重要です。ある意味で、私たちは2つのことをしなければなりませんでした。基礎となる技術を発明し、それを人々が愛する製品にする方法を見つけることです。それは単に実際の製品作業だけでなく、それを調整して有用にする方法についての全く別のステップです。
レックス: そして、多くの人々が同時に使用できるようにスケールを機能させる方法など、すべてのことです。
サム: しかし、それは知られている難しいことでした。私たちはそれをスケールアップする必要があることを知っていました。私たちは以前に行われたことがない2つのことを行わなければなりませんでした。両方ともかなり重要な成果だと言えると思います。そして、他の会社が以前に行わなければならなかったような、それをスケールアップするなどの多くのことがありました。
レックス: GPT-4からGPT-4 Turboへの文脈ウィンドウの8Kから128Kトークンへの拡大は、どのように比較されますか?
サム: ほとんどの人は、ほとんどの時間128まで全部必要ではありません。もし遠い未来を夢見るなら、遠い未来には数十億の文脈の長さを持つでしょう。あなたはすべての情報、すべての履歴時間を入力し、それはあなたをどんどん良く知るようになり、それは素晴らしいことでしょう。今のところ、人々はこれらのモデルを使用する方法で、そのようなことをしていません。人々は時々論文や大きな部分のコードリポジトリなどを投稿します。しかし、モデルの使用のほとんどは、ほとんどの時間長い文脈を使用していません。
レックス: これがあなたの「I have a dream」スピーチのようですね。いつの日か、あなたの性格全体の文脈、あるいはあなたの人生全体によって判断されるでしょう。それは興味深いです。つまり、それはあなたが望んでいる拡張の一部で、より大きな、より大きな文脈ですね。
サム: 私はこのインターネットクリップを一度見ました。数字を間違えるかもしれませんが、ビル・ゲイツが初期のコンピューターのメモリ量について話していました。おそらく64Kか640Kくらいで、その大部分は画面バッファに使われていました。そして彼は本当に正直に見えました。世界がいつかコンピューターにギガバイトのメモリやテラバイトのメモリを必要とするとは想像もできませんでした。そして、あなたは常にテクノロジーの指数関数的な進化に従う必要があります。私たちはより良いテクノロジーの使い方を見つけるでしょう。だから、今の時点で文脈の長さが数十億に達することがどのようなものか本当に想像できません。文字通りそこまで行かないかもしれませんが、効果的にはそのように感じるでしょう。しかし、私たちはそれを使用し、一度それを手に入れたら本当に戻りたくなくなると知っています。
レックス: はい、10年後には数十億と言うことさえ馬鹿に聞こえるかもしれません。それは数兆、数兆になるかもしれません。
サム: もちろん。
レックス: 実質的に無限の文脈のように感じる何らかのブレークスルーがあるでしょう。しかし、120でさえ、正直に言うと、私はそこまで押し進めていません。おそらく本全体や本の一部、論文などを入れることができます。GPT-4の興味深い使用例で、あなたが見たものは何ですか?
サム: 私が最も興味深いと思うのは、特定の使用例ではなく、それについて話すことはできますが、それを知識労働の任意の種類のタスクのデフォルトの出発点として使用する人々です。これは主に若い人々ですが、多くのことを合理的にうまくできるという事実です。GPTVを使用したり、コードを書くのを助けるために使用したり、検索を助けるために使用したり、論文を編集するために使用したりできます。私にとって最も興味深いのは、ワークフローの出発点としてそれを使用する人々です。
レックス: 私も多くのことでそうしています。本を読むパートナーとして使用し、考えを整理するのを助けてくれます。特に本が古典的なものであれば、それについてよく書かれているので、実際にはよく扱われているトピックについてWikipediaよりも有意義であることがよくあります。何らかの形でより均衡が取れていて、ニュアンスに富んでいるように感じます。あるいはそれは私のことかもしれませんが、Wikipediaの記事よりも深く考えるよう刺激されます。それが何なのかはよくわかりません。あなたが言及したこのコラボレーションについて、魔法がどこにあるのか、それがここにあるのか、あそこにあるのか、それとも両者の間のどこかにあるのかわかりません。しかし、知識タスクでGPTから始める時に私が心配することの1つは、通常、その後に事実確認をする必要があることです。偽のものを作り出さなかったかチェックする必要があります。GPTが本当に説得力のある偽の情報を作り出す可能性があることをどのように理解しましたか?それをどのように真実に根ざしたものにしますか?
サム: それは明らかに私たちにとって非常に関心の高い分野です。今後のバージョンでずっと良くなると思いますが、引き続き取り組む必要があり、今年中にすべて解決することはないでしょう。
レックス: まあ、怖いのは、それが良くなるにつれて、あなたはますます事実確認をしなくなるということですね。
サム: それについては2つの考えがあります。人々は私たちがしばしば考える以上に洗練された技術ユーザーだと思います。そして人々は、GPTやこれらのモデルが時々幻覚を見ることをよく理解しているようで、ミッションクリティカルな場合は確認する必要があります。
レックス: しかしジャーナリストはそれを理解していないようです。GPT-4を半端に使っているジャーナリストを見たことがあります。
サム: ジャーナリストを批判したいことのリストの中で、これは私のトップの批判ではありません。
レックス: まあ、おそらくより大きな批判は、ジャーナリストであることのプレッシャーとインセンティブが、非常に迅速に仕事をする必要があり、これはショートカットだということかもしれません。私たちの社会が、数日や数週間かかるジャーナリズムの取り組みにインセンティブを与え、深い洞察に満ちたジャーナリズムに報いることを願っています。
サム: 私もそう願っています。
レックス: また、物事をバランスの取れた方法で表現するジャーナリズム、つまり批判しながらも人々を称賛するようなものです。批判がクリックを集め、作り話もクリックを集め、完全に誤解を招くような見出しも集めます。あなたを批判する人々がたくさんいると思います...まあ、あのドラマはおそらくたくさんのクリックを集めたでしょう。
サム: おそらくそうでしょう。
レックス: そしてそれは人類文明についてのより大きな問題です。私たちがもう少し称賛することを祝うようになれば素晴らしいと思います。あなたはChatGPTに以前の会話を記憶する能力を与えました。そのことについて遊んでいて、また記憶をオフにする能力もありますね。私も時々そうできたらいいのにと思います。状況に応じてオンオフできれば。まあ、アルコールはそれをある程度できますが、最適ではありませんね。会話を覚えたり覚えなかったりすることで、どのようなことを見てきましたか?
サム: ここでの探索はまだ非常に初期段階ですが、人々が望んでいること、少なくとも私自身が望んでいることは、時間とともに私のことを知り、より役立つようになるモデルだと思います。これは初期の探索です。他にもたくさんやるべきことがありますが、そちらに向かいたいと思います。モデルを使用し、あなたの人生の過程で、または多くのモデルになるかもしれないシステムを使用し、人生の過程でそれがどんどん良くなっていくことを望んでいます。
レックス: はい。その問題はどれくらい難しいですか?今のところ、それは小さな事実や好みを覚えるようなものですよね。11月に経験したすべての騒動や全ドラマを覚えてほしくないですか。そうすれば-
サム: はい、はい、はい。
レックス: なぜなら今、あなたは明らかにそれを少し遮断しているようですから。
サム: それを覚えてほしいだけでなく、その教訓を統合し、将来何を違うようにすべきか、何に気をつけるべきかを思い出させてほしいのです。私たちは皆、人生の過程で経験から学びます。程度は様々ですが。そして私は、私のAIエージェントもその経験とともに成長してほしいと思います。だから、もし私たちが戻って、数兆、数兆の文脈の長さを想像させてください。もし私が人生で誰かと交わしたすべての会話を入れることができ、私のすべてのメールを入力できたら...質問するたびに私のすべての入出力が文脈ウィンドウにあれば、それはかなりクールだと思います。
レックス: はい、それはとてもクールだと思います。人々はそれを聞いて、プライバシーについて心配することがあります。AIがあなたの経験とデータをすべて統合して、より効果的になり、アドバイスを提供するという側面について、プライバシーについてどう考えますか?
サム: 正しい答えは単にユーザーの選択だと思います。私のAIエージェントから記録を削除したいものは何でも削除できるようにしたいです。何も覚えたくなければ、それも可能にしたいです。あなたと私では、自分のAIのプライバシーと有用性のトレードオフについて異なる意見を持つかもしれません。それは全く問題ありません。しかし、答えは本当に簡単なユーザーの選択だと思います。
レックス: しかし、ユーザーの選択については、会社からある程度の高レベルの透明性があるべきです。過去の会社は時々、ユーザーの選択についてかなり怪しげな態度を取っていました。「はい、私たちはあなたのデータをすべて収集していると想定され、広告などの良い理由で使用しています」というようなことがありましたが、その詳細については透明性がありませんでした。
サム: それは全くその通りです。あなたは先ほど、私が11月のことを遮断していると言及しました。
レックス: ただ冗談を言っているだけです。
サム: まあ、それは非常にトラウマになる出来事で、長期間私を無力化しました。確かに、最も困難な仕事関連のことは、ただその期間中働き続けることでした。なぜなら、ショックと痛みの中にいながら、ここに戻ってきて破片を拾い集めようとしなければならなかったからです。誰も本当にそのことを気にしません。チームは私に許しを与え、私は通常のレベルで働いていませんでしたが、両方をしなければならない期間があり、本当に大変でした。しかしある朝目覚めて、「これは私に起こった恐ろしいことだ。永遠に犠牲者のように感じることもできる」と思いました。または「これは私の人生で触れる最も重要な仕事だ。そしてそれに戻る必要がある」と言うこともできます。それは抑圧したということではありません。時々夜中に目覚めてそのことを考えることがありますが、前進し続ける義務があると感じています。
レックス: それは美しく言われていますが、そこにはまだ何か残っているかもしれません。私が心配するのは、あなたが言及した信頼の問題です。人々に対して偏執的になるのではなく、ただ誰もが、あるいはほとんどの人を信頼する、あるいはあなたの直感を使うことです。それは確かに難しいダンスです。私が部分的な探求で見てきたのは、ゼレンスキー政権やプーチン政権、そして戦時下の非常にストレスの多い環境での動きを深く掘り下げてきました。そして起こるのは、不信感が生まれ、両者が自分自身を孤立させ始め、世界を明確に見ることができなくなることです。それが懸念事項です。それは人間の懸念事項です。あなたはそれをうまく受け止め、良い教訓を学び、愛を感じ、その愛にエネルギーを与えたようですが、それでもまだそこに残っている可能性があります。GPTが何ができて何ができないかについて、あなたの直感に聞きたいいくつかの質問があります。それは生成する各トークンにほぼ同じ量の計算を割り当てています。より遅い思考、順次的な思考のためのこのようなアプローチに余地はありますか?
サム: その種の思考のための新しいパラダイムがあると思います。
レックス: それは現在のLLMsで見ているものと建築的に似ているでしょうか?それはLLMsの上に乗る層ですか?
サム: それを実装する多くの方法を想像できます。あなたが出そうとしていた質問、つまり答えをすぐに得る必要がないより遅い種類の思考をする方法が必要かどうかということよりも、それは重要ではないと思います。...つまり、精神的に言えば、AIがより難しい問題についてより一生懸命考え、より簡単な問題についてはより速く答えることができるようにしたいと言えるでしょう。そしてそれは重要になると思います。
レックス: それは人間の思考なのでしょうか?一生懸命考えられるべきだという...それは間違った直感でしょうか?
サム: それは合理的な直感だと思います。
レックス: 興味深いですね。つまり、GPTがGPT-7になったら、瞬時にRSTMの証明を見ることができるというのは不可能ですか?
サム: 私には、より難しい問題にはより多くの計算を割り当てたいと思えます。そのようなシステムに、RSTMの証明対...今日の日付は何ですか?と尋ねたとき、すでに答えを記憶していて知っていない限り、それを数え出す必要があると仮定すると、より多くの計算が必要になるように思えます。
レックス: しかし、それは基本的にLLMが自分自身と話しているように見えることができますか?
サム: たぶん。つまり、それが機能する可能性のあるものはたくさんあります。正しい方法や最良の方法が何になるかはわかりません。
レックス: これは神秘的なQ-Starプロジェクトの背後にある伝説を思い起こさせます。この神秘的なQ-Starプロジェクトとは何ですか?それも同じ核施設にありますか?
サム: 核施設はありません。
レックス: それは核施設を持つ人が常に言うことです。
サム: 秘密の核施設を持つのは素晴らしいでしょう。ありません。
レックス: いつかはね。
サム: たぶんいつか。
レックス: 夢を見ることはできます-
サム: OpenAIは秘密を守るのが得意な会社ではありません。たくさんのリークに悩まされています。そのようなものを持てたら素晴らしいでしょう。
レックス: Q-Starについて話せますか?
サム: それについて話す準備はできていません。
レックス: そう、でもそのような答えは、話すべき何かがあることを意味します。とても神秘的ですね、サム。
サム: つまり、私たちはあらゆる種類の研究に取り組んでいます。しばらくの間、これらのシステムでのより良い推論が私たちが追求したい重要な方向性だと言ってきました。まだコードを解読していません。非常に興味があります。
レックス: Q-Starであれ他のものであれ、GPTのような飛躍があるでしょうか。そこであなたは「これは-」と言うような瞬間が。
サム: それは良い質問です。私はそれについてどう考えているでしょうか?興味深いことに、それはすべて非常に連続的に感じます。
レックス: これは一種のテーマですね。あなたは基本的に指数関数的な傾斜を徐々に上っていると言っています。しかし、外部の人間の視点から見ると、私にとっては飛躍があるように感じますが、あなたにとってはそうではありません。
サム: 私は、私たちがすべきだったかもしれないことを考えています。私たちがこのように展開する理由の一部は、私たちはそれを反復的な展開と呼んでいますが、GPT-5まで秘密裏に構築するのではなく、GPT 1、2、3、4について話すことにしました。その理由の一部は、AIと驚きは相性が悪いと思うからです。また、世界、人々、機関、何と呼びたいにせよ、これらのことに適応し、考える時間が必要だからです。そして私は、OpenAIが行った最も良いことの一つは、この戦略であり、世界に進歩に注目させ、AGIを真剣に受け止め、銃口を突き付けられて急いで決定を下さなければならない前に、どのようなシステム、構造、ガバナンスを望むかを考えさせることだと思います。それは本当に良いことだと思います。しかし、あなたや他の人々が、まだ飛躍があると感じると言うという事実は、私たちがもっと反復的にリリースすべきだということを示唆しているのかもしれません。それがどういう意味なのかわかりません。すぐに答えは用意できません。しかし、私たちの目標は世界にショックを与えるような更新をすることではありません。その逆です。
レックス: はい、確かに。もっと反復的であれば素晴らしいでしょう。それはみんなにとって美しいことだと思います。
サム: しかし、それが私たちが試みていることです。それが私たちの戦略の状態であり、私たちはどこかでマークを外しているのだと思います。だからたぶんGPT-5を異なる方法でリリースすることについて考える必要があるかもしれません。
レックス: はい、4.71、4.72。しかし、人々は祝うのが好きです。誕生日を祝うのが好きです。人間のことをご存知かどうかわかりませんが、彼らはこのようなマイルストーンを好みます。
サム: 人間を何人か知っています。人々はマイルストーンが好きです。それは完全に理解できます。私たちもマイルストーンが好きです。これで勝利を宣言し、次のことを始めるのは楽しいです。でも、はい、私たちはこれを少し間違えているような気がします。
レックス: では、GPT-5はいつ出るのでしょうか?
サム: わかりません。それが正直な答えです。
レックス: ああ、それが正直な答えですね。今年中だったら2回まばたきしてくださいとか。
サム: 私たちは今年素晴らしいモデルをリリースします。何と呼ぶかはわかりません。
レックス: では、これをどのようにリリースするかという質問に戻りますね。
サム: 私たちは今後数ヶ月間に多くの異なるものをリリースします。それらはとても cool だと思います。GPT-5のようなモデル、そう呼ぶかどうか、あるいはGPT-5から期待されるものよりも少し悪いか少し良いかについて話す前に、私たちには先にリリースすべき他の多くの重要なことがあることを知っています。
レックス: GPT-5に何を期待すればいいのかわかりません。あなたは私を緊張させ、興奮させています。結局何と呼ばれるにせよ、GPT-5のための最大の課題とボトルネックは何ですか?計算側なのか、技術側なのか、聞くのは興味深いです。
サム: それは常にこれらすべてです。大きな突破口は何ですか?より大きなコンピューターですか?新しい秘密ですか?それとも他の何かですか?それはこれらすべてを合わせたものです。OpenAIが本当によくやっていることは、これは実際にイリヤの元の引用で、私が台無しにするかもしれませんが、「私たちは200の中規模のものを掛け合わせて1つの巨大なものにする」というようなものです。
レックス: つまり、分散した継続的なイノベーションが起こっているのですね。
サム: はい。
レックス: つまり、技術面でも、例えば詳細なアプローチ、あらゆる詳細な側面で...それはどのように機能するのですか?異なるチームとの間で。中規模のものはどのように1つの巨大なトランスフォーマーになるのですか?これはどのように-
サム: 全体をまとめることを考えなければならない人が数人いますが、多くの人々が頭の中で大部分の絵を保持しようとしています。
レックス: ああ、個々のチーム、個々の貢献者が大きな絵を保持しようとしている-
サム: 高いレベルでは。はい、正確にすべての部分がどのように機能するかは知りません。もちろん。一般的に私が信じていることの一つは、時々ズームアウトして全体の地図を見ることが有用だということです。これは技術的な問題にも当てはまると思います。ビジネスでのイノベーションにも当てはまると思います。しかし、物事は予想外の方法で一緒になり、その全体像を理解することは、たとえほとんどの時間は一つの領域の細部で操作していても、驚くべき洞察をもたらします。実際、私が以前持っていて、非常に価値があると思っていたものの一つは、技術産業のすべての、あるいはほとんどのフロンティアの良い地図を持っていたことです。そして、一つの領域にだけ深く入っていたら思いつかないようなつながりや新しいことが時々見えることがありました。なぜなら、すべてのデータを持っていないからです。今はそれほど持っていません。今は非常に深く入り込んでいます。しかし、それが価値のあるものだということは知っています。
レックス: あなたはかつての自分ではなくなったのですね、サム。
サム: 今は以前とはまったく異なる仕事をしています。
レックス: ズームアウトについて言えば、別の冗談めいたことですが、おそらく深遠なことについてズームアウトしましょう。あなたは7兆ドルが必要だとツイートしました。
サム: そんなツイートはしていません。「7兆ドルを調達している」とか何とか言ったことはありません。
レックス: ああ、それは他の人ですね。
サム: はい。
レックス: でも、あなたは「くそ、たぶん8兆」と言いましたよね。
サム: okay。一度、世界に誤情報が出回ると、私はミームを作ります。
レックス: ああ、あなたはミームを作るのですね。しかし、誤情報には洞察の基礎があるかもしれません。
サム: そうですね、私はコンピューティングが未来の通貨になると思います。世界で最も貴重な商品の一つになると思います。そして、私たちはもっと多くのコンピューティングを作るために大きな投資をすべきだと思います。コンピューティングは...私は、それが unusual な市場になると思います。人々は携帯電話用のチップの市場などについて考えます。そして、世界には80億人がいて、そのうち70億人が電話を持っているか、60億人が持っているとしましょう。彼らは2年ごとにアップグレードするので、1年あたりの市場は30億のスマートフォン用システムオンチップです。そして、300億個作っても、10倍多くの電話を売ることはできません。なぜなら、ほとんどの人は1台の電話しか持っていないからです。しかし、コンピューティングは異なります。インテリジェンスはエネルギーのようなものになるでしょう。価格Xで世界はこれだけのコンピューティングを使用し、価格Yで世界はこれだけのコンピューティングを使用するというように、話すことが意味をなすのはそれだけです。なぜなら、もし本当に安ければ、私は1日中メールを読んでもらい、何を考えるべきか、何に取り組むべきかについて提案をもらったり、がんの治療法を探そうとしたりするでしょう。そして、もし本当に高ければ、私たちはそれを使って、がんの治療法を探すことにのみ使うかもしれません。だから、私は世界が途方もない量のコンピューティングを欲しがると思います。そしてそれには多くの難しい部分があります。エネルギーが最も難しい部分です。データセンターの構築も難しいです。サプライチェーンはもちろん、十分なチップを製造することも難しいです。しかし、これが物事の行く先だと思えます。私たちは今では推論するのが難しいほどのコンピューティング量を欲しがるでしょう。
レックス: エネルギーのパズルをどのように解決しますか?原子力。
サム: そう信じています。
レックス: 核融合?
サム: そう信じています。
レックス: 核融合。誰がそれを解決するでしょうか?
サム: Helionが最も良い仕事をしていると思いますが、今、核融合をめぐってレースが起きているのは嬉しいです。核分裂も非常に素晴らしいと思いますし、世界としてそれを再び受け入れることができればと願っています。その歴史がどのように進んだかは本当に悲しいことで、意味のある方法で戻れることを願っています。
レックス: あなたにとって、パズルの一部は核融合、つまり現在我々が持っている原子炉のようなものですね。多くの人々はチェルノブイリなどのために恐れています。
サム: まあ、私たちは新しい原子炉を作るべきだと思います。その産業が停滞してしまったのは残念です。
レックス: 集団ヒステリーがその停滞を説明すると思いますか?
サム: はい。
レックス: 人間のことをご存知かどうかわかりませんが、それは核融合のセキュリティ上の脅威の一つです。人間は本当にそれを恐れているようです。そして、それは我々がその計算に組み込まなければならないものです。だから、人々を説得し、それがいかに安全かを示す必要があります。
サム: AIについてもそれを心配しています。AIについてはいくつかの劇的なことが間違って行くと思います。私が最終的に撃たれる可能性は0ではありませんが、それがどのくらいの確率かはわかりません。
レックス: ああ、これを止めたいと。
サム: たぶん。
レックス: どうすれば劇的な性質を減らすことができますか?私はすでに政治スペクトルの両側の人々と話をしていて、AIが政治化されるという噂を聞き始めています。それは本当に心配です。なぜなら、右派がAIに反対し、左派がAIを支持するというようなことになるかもしれません。なぜならそれは人々を助けるからとか。何であれ、そのナラティブと定式化は本当に心配です。そして、その劇的な性質を完全に利用することができます。どうやってそれと戦いますか?
サム: それは左対右の戦争に巻き込まれると思います。それがどのような形になるかは正確にはわかりませんが、結果として重要なものはすべてそうなると思います。残念ながら。私が劇的なリスクについてより意味したのは、AIは私の信じるところでは、良い結果の方が圧倒的に多いでしょうが、悪い結果もあるでしょう。そして、悪いけれど劇的ではない悪い結果もあるでしょう。例えば、大気汚染で亡くなった人の方が原子炉で亡くなった人よりもずっと多いです。しかし、ほとんどの人は石炭火力発電所の隣に住むよりも原子炉の隣に住むことを心配します。しかし、私たちの配線の仕方には何か、映画のクライマックスシーンに適したリスクの方が、長期間にわたってゆっくりと悪化するが非常に悪いリスクよりも、私たちにとってずっと重みがあるものがあります。
レックス: まあ、だからこそ真実が重要で、希望としてはAIが物事の真実を見るのを助け、バランスを取り、世界の実際のリスクや実際の危険性を理解するのを助けてくれることを願っています。この分野での競争の長所と短所、そしてGoogle、Meta、xAIなどと競争することについてはどう思いますか?
サム: これについては、おそらく後でもっと深く考えられるかもしれませんが、かなり率直な答えがあると思います。長所は明らかで、より良い製品とより速いイノベーション、より安価になるなど、競争が良いすべての理由です。そして短所は、気をつけないと、私が神経質になる一種の軍拡競争につながる可能性があることです。
レックス: 軍拡競争のプレッシャーを何か否定的な形で感じますか?
サム: 確かに、いくつかの面ではそうです。私たちは安全性を優先することの必要性について多くの時間を費やして話し合っています。そして、私は長い間、AGIの開始までの時間軸が短く、テイクオフが遅い象限が最も安全で、私たちが最も望む象限だと思ってきました。しかし、その遅いテイクオフを確実にしたいと思います。
レックス: イーロンとのこの小さな確執の問題の一つは、安全性の側面での協力ではなく、サイロが作られることです。それは閉鎖的なオープンソースの形になる傾向があります。
サム: イーロンは少なくとも、AI安全性に非常に関心があり、本当に心配していると言っています。そして、彼が安全でない方法で競争しないと私は想定しています。
レックス: はい。しかし、ここでの協力は本当に全員にとって有益だと思います。
サム: 彼が最も知られているわけではありません。
レックス: まあ、彼は人類を気にかけることで知られています。そして人類は協力から恩恵を受けます。常に緊張、インセンティブ、動機があります。そして最終的には、人類が勝つことを願っています。
サム: 私は考えていました。誰かが最近、彼がジェフ・ベゾスを世界最富裕者として追い抜いた日に、ジェフ・ベゾスに銀メダルをツイートしたことを思い出させてくれました。AI作業を始める人々の間でこのようなことが減ることを願っています。
レックス: 同感です。イーロンは友人であり、彼は美しい人間で、これまでで最も重要な人間の一人です。そういうことは良くありません。
サム: イーロンの素晴らしいところは本当に素晴らしく、私は彼を尊敬しています。私たちには彼が必要です。私たちは皆、彼を応援し、この次の段階でリーダーとして立ち上がる必要があります。
レックス: はい、一方を持たずに他方を持つことができればいいのですが、時々人間は欠陥があり複雑です。そして私たちは各自が自分自身の最高のバージョンになり、そうなるよう努力することができます。Googleは、検索の助けを借りて過去20年間を支配してきました。世界の情報へのアクセス、私たちがどのように相互作用するかなどの点で、それは公平に言えると思います。そしてGoogleにとって、そしてこの分野の全ての人々にとって神経を使うことの一つは、人々がどのように情報にアクセスするかについて考えることです。あなたが言ったように、人々はGPTを出発点として使い始めています。では、OpenAIは本当に、Googleが20年前に始めたこと、つまり私たちがどのように-
サム: それは退屈だと思います。つまり、質問がもしGoogleよりも良い検索エンジンを構築できるかどうかであれば、もちろん、人々はより良い製品を使うべきです。しかし、それはこれが何になり得るかを大いに過小評価することになると思います。Googleは10個の青いリンクと、13個の広告を表示し、そして10個の青いリンクを表示します。それは情報を見つける一つの方法です。しかし、私にとって興味深いのは、Googleの検索のより良いコピーを作ることではなく、おそらく人々が情報を見つけ、行動し、統合するのを助ける、はるかに良い方法があるということです。実際、私はChatGPTがいくつかの使用ケースでそうだと思います。そして希望的には、もっと多くの使用ケースでそうなることを願っています。しかし、10個のランク付けされたウェブページを提供するよりも良い仕事をするというのは、それほど面白いとは思いません。多分、答えや必要な情報を得るのを助けるのはとても面白いです。場合によってはそれを作成し、他の場合には統合し、さらに他の場合にはそれを指し示すことです。しかし、多くの人々がただGoogleよりも良い検索エンジンを作ろうとしました。それは難しい技術的問題であり、難しいブランディングの問題であり、難しいエコシステムの問題です。世界は別のGoogleのコピーを必要としていないと思います。
レックス: そして、ChatGPTのようなチャットクライアントを検索エンジンと統合すること。
サム: それはもっとクールです。
レックス: それはクールですが、トリッキーです。単純にそれをそこに押し込むだけだと、ぎこちなくなる可能性があります。
サム: 想像できるように、私たちはそれをどのように行うかに興味があります。まあ、それはただの-
レックス: まあ、異種混合的な、LLMsと検索を統合するような-
サム: LLMsと検索の交差点は、まだ誰もコードを解読していないと思います。私はそれを行いたいと思います。それはクールだと思います。
レックス: はい。広告の側についてはどうですか?収益化を考えたことはありますか?
サム: 私は美的な選択として広告が嫌いです。広告はインターネットを立ち上げるためにいくつかの理由で必要でしたが、今はより成熟した産業です。世界はより豊かになりました。人々がChatGPTに対価を支払い、得られる回答が広告主の影響を受けていないことを知っているのが好きです。LLMsに適した広告ユニットがあることは確かです。そして、偏りのない方法で取引の流れに参加する方法があることも確かです。しかし、ChatGPTに何かを尋ねて、「ああ、この製品を購入することを考えるべきだ」や「休暇にここに行くことを考えるべきだ」などと言われる未来の反ユートピア的なビジョンを考えるのも簡単です。そして私は知りません。私たちには非常にシンプルなビジネスモデルがあり、それが好きです。そして私は製品ではないことを知っています。私は支払っていて、それがビジネスモデルがどのように機能するかを知っています。そして、Twitter、Facebook、Google、または他の素晴らしい製品を使用するときでも、広告でサポートされている素晴らしい製品ですが、それが好きではありません。そしてAIの世界では、それはより良くなるのではなく、悪くなると思います。
レックス: はい。AIが反ユートピア的な未来ではなく、実際に必要なものの最良のバージョンの広告を表示するのがより上手くなると想像できます。しかし、そのシステムは常に広告が表示されるものを駆動することになりますか?Wikipediaが広告をしないという非常に大胆な動きをしたと思いますが、それはビジネスモデルとしては非常に困難です。つまり、OpenAIの現在の方法がビジネスの観点から持続可能だと言っているのですか?
サム: まあ、成長する方法を見つける必要がありますが、それを解決できそうです。質問が、広告なしで計算ニーズを賄う素晴らしいビジネスを持つことができると思うかということであれば、答えはイエスだと思います。
レックス: うーん。まあ、それは約束的ですね。私も広告を完全に排除したくはありません-
サム: そうは言っていません。私は偏見があると言っているだけです。
レックス: はい、私も偏見があり、一般的に懐疑的です。インターフェースの観点から見ても、私は個人的にクソみたいなインターフェースに対して精神的な嫌悪感を持っています。だからこそ、AdSenseが最初に登場したときは、アニメーションバナーなどと比べて大きな飛躍でした。しかし、コンテンツの消費を妨げず、大きな根本的な方法で真実を広告主に合わせて操作しないような広告において、さらに多くの飛躍があるべきだと感じます。安全性について聞かせてください。短期的な安全性と長期的な安全性、そしてバイアスについても。Gemini 1.5が最近登場しました。その周りには多くのドラマがありました。劇的なことについて言えば。そして、黒人のナチスと黒人の建国の父たちの画像を生成しました。公平に言えば、それは少し極端にウォークな側にありました。つまり、これは人々にとって懸念事項です。会社内の人間層がモデルの安全性や危害のコストを修正し、会社内のイデオロギー的な傾向に合うようなバイアスを多く導入するということです。それをどのように扱いますか?
サム: そういうことをしないように本当に一生懸命働いています。私たちも自分たちの間違いを犯し、他のことも犯すでしょう。Googleもこれから学び、他のことも学ぶでしょう。これらは簡単な問題ではありません。私たちがより多く考えていることの一つは、これは素晴らしいアイデアだと思います。誰かがここで...モデルの望ましい振る舞いを書き出し、それを公開し、それについて意見を求めるのが良いでしょう。ここでモデルがどのように振る舞うべきかを説明し、エッジケースも説明します。そして、モデルが望むように振る舞っていないとき、それが会社が修正すべきバグなのか、意図した通りの振る舞いで、ポリシーについて議論すべきなのかが少なくとも明確になります。そして今は、時々その間に挟まれることがあります。黒人のナチスは明らかに馬鹿げていますが、他にも微妙なことがたくさんあり、どちらかに判断を下すことができます。
レックス: はい。しかし、時々それを書き出して公開すると、非常に高レベルの言語を使用することができます。GoogleのAI原則は非常に高レベルです。
サム: そういうことを言っているのではありません。それは機能しません。Xを行うように頼まれたとき、Yの方法で応答するはずだと言わなければなりません。
レックス: つまり、文字通り、トランプとバイデンのどちらが優れているかという質問に対して、モデルからどのような応答が期待されるかということですか?非常に具体的なものです。
サム: 多くの方法でモデルが振る舞うことに開放的ですが、その場合にはこう言うべきだと言う必要があると思います。
レックス: それは本当に素晴らしいですね。そして、みんなが同意することができます。なぜなら、人々が常に引き出す逸話的なデータがあり、他の代表的な逸話的な例を定義できれば、それについて明確にすることができます。サンフランシスコはイデオロギー的なバブルであり、技術全般もそうです。会社内でそのプレッシャーを感じますか?製品やチームに影響を与える政治的に左寄りの傾向がありますか?
サム: 私は、OpenAIで他の多くの企業で聞いたような課題がないことを非常に幸運に思います。その一部は、すべての企業には何らかのイデオロギー的なものがあるということだと思います。私たちにはAGIについてのものがあり、それに対する信念があり、それが他のものを押し出しています。私たちは、他の多くの企業で聞いたよりも文化戦争に巻き込まれることが少ないです。サンフランシスコはあらゆる面で混乱していますが、もちろん。
レックス: それはOpenAIに浸透していないのですね。
サム: きっとあらゆる微妙な方法で浸透しているでしょうが、明白なものではありません。他の企業と同じように、確かに問題は起こりましたが、他の企業で起こっていると聞くようなことはここではないと思います。
レックス: では一般的に、安全性についての大きな質問に対するプロセスはどのようなものですか?モデルが狂ったように危険なことをしないように保護する層をどのように提供しますか?
サム: ある時点で、それが会社全体が考えることの大部分になると思います。安全チームが1つあるというわけではありません。GPT-4をリリースしたとき、それはこれらのさまざまな側面とそれらがどのように組み合わさるかについて考える会社全体の取り組みでした。そして、会社がますますそれらの問題について常に考えるようになると思います。
レックス: それは文字通り、AIがより強力になるにつれて人間が考えることになるでしょう。つまり、OpenAIの従業員のほとんどが安全性について、少なくともある程度は考えることになるのですね。
サム: 広く定義すれば、はい。
レックス: はい。その広い定義が何なのか気になります。引き起こされる可能性のある異なる危害は何ですか?これは技術的なレベルのものですか、それともほぼセキュリティ上の脅威のようなものですか?
サム: それらすべてです。はい、人々や国家主体がモデルを盗もうとすることから、すべての技術的なアライメント作業、社会的影響、経済的影響まで。単にモデルをアラインする方法について考える1つのチームがあるというだけではありません。良い結果を得るには本当に全体的な取り組みが必要になるでしょう。
レックス: 人々、おそらく国家主体が侵入しようとしているのをどれくらい難しいと思いますか?まず、OpenAIに侵入すること、そして第二に、気付かれずに-
サム: 彼らは試みています。
レックス: どんなアクセントを持っていますか?
サム: この点についてこれ以上詳細に立ち入るべきではないと思います。
レックス: わかりました。しかし、時間が経つにつれてますます増えていくだろうと推測します。
サム: それは合理的に思えます。
レックス: なんて危険な分野でしょう。申し訳ありませんが、この点にこだわりますが、まだ詳細を言えないとしても、GPT-4からGPT-5への飛躍のどの側面に興奮していますか?
サム: より賢くなることに興奮しています。それはありふれた答えに聞こえるかもしれませんが、本当に特別なことが起こっているのは、1つの分野で良くなって他の分野で悪くなるのではなく、全体的に良くなっているということです。それは本当にクールだと思います。
レックス: はい、ある魔法の瞬間があります。つまり、特定の人々に会ったり、人々と一緒に過ごしたりして話をします。それを言葉で表現するのは難しいのですが、彼らはあなたを理解しています。それは本当に知性ではありません。それは別のものです。そして、おそらくそれがGPTの進歩を特徴づける方法だと思います。はい、あなたはこれやあれを間違えたと指摘することはできますが、あなたのひどく表現された指示を深いレベルで理解しているという知的なつながりがどの程度あるかということです。はい、私もそれに興奮しています。つまり、私たち全員が理解され、聞かれ、理解されることを愛しています。
サム: それは確かです。
レックス: それは奇妙な感覚です。プログラミングでさえ、プログラミングしていて何かを言ったり、GPTが行う可能性のある補完を見たりするとき、それがあなたを理解したという非常に良い感覚があります。そして、あなたをさらに良く理解するようになることを楽しみにしています。プログラミングの話題に関して、5年後、10年後に人間がどれくらいプログラミングをしていると思いますか?
サム: つまり、多くのプログラミングをしていると思いますが、それは非常に異なる形になるでしょう。たとえば、一部の人々は完全に自然言語でプログラムするかもしれません。
レックス: 完全に自然言語で。
サム: つまり、今はパンチカードでプログラミングする人はいません。一部の人はそうしていると言えるかもしれませんが、あなたも分かると思います。
レックス: はい。フォートランでプログラミングする人を探していますが、フォートランでさえ見つけるのは難しいです。分かります。しかし、それは私たちがプログラマーと呼ぶ人々のスキルセットや素質の性質を変えるのでしょうか。
サム: スキルセットは変わります。素質がどれだけ変わるかはわかりません。
レックス: ああ、同じような種類のパズル解決、そういったものですか。
サム: たぶん。
レックス: はい、プログラミングは難しいです。最後の1%を埋めるのはどれくらい難しいですか?
サム: はい。他のほとんどの場合と同じように、その分野の最高の実践者は複数のツールを使用し、一部の作業を自然言語で行い、必要に応じてCを書くでしょう。
レックス: OpenAIからヒューマノイドロボットやヒューマノイドロボットの脳を見ることがあるでしょうか?
サム: いつかは。
レックス: 具現化されたAIはあなたにとってどれくらい重要ですか?
サム: AGIを持っていて、物理的な世界で物事を行う唯一の方法が人間にそれをさせることだとしたら、それはかなり落胆することだと思います。だから、この変遷の一部として、この相変化として、モーターを持つロボットや何らかの種類の物理的な世界のロボットも手に入れることを本当に願っています。
レックス: つまり、OpenAIにはロボット工学でかなりの歴史がありますが、重点的には行われていません。
サム: まあ、私たちは小さな会社です。本当に集中する必要があり、また当時はロボットが間違った理由で難しかったのです。しかし、いつかは何らかの形でロボットに戻るでしょう。
レックス: それは刺激的であると同時に脅威的に聞こえます。
サム: なぜですか?
レックス: なぜなら、あなたはすぐに「ロボットに戻る」と言ったからです。それは、まるで-
サム: ロボットの開発に戻るということです。もちろん、私たち自身をロボットに変えるわけではありません。
レックス: はい。あなたとそして人類としていつAGIを構築すると思いますか?
サム: 以前はその質問について推測するのが好きでした。それ以来、その質問が非常に形成不良であり、人々がAGIの定義を非常に異なって使用していることに気づきました。だから、AGIというこの1つのマイルマーカーを漠然と超えるのではなく、能力XやYやZを行うシステムをいつ構築するかについて話す方がより意味があると思います。AGIも終わりではありません。それはマイルマーカーに近いですが、それらのどちらでもありません。しかし、質問を避けようとしないために言えば、この10年の終わりまでに、そしておそらくそれよりも早く、私たちが見て「ワオ、それは本当に驚くべきものだ」と言うかなり有能なシステムを持つことを期待しています。もし今それを見ることができれば、たぶん私たちはそこに到達するまでに適応しているでしょう。
レックス: はい。しかし、ChatGPT、3.5でさえアラン・チューリングに見せたら、あるいはアラン・チューリングでさえなく、90年代の人々に見せたら、これは間違いなくAGIだと言うでしょう。まあ、間違いなくではないかもしれませんが、これはAGIだと言う専門家がたくさんいるでしょう。
サム: はい、しかし3.5は世界を変えませんでした。たぶん世界の将来に対する期待を変えたかもしれません。そしてそれは本当に重要です。そして、ある意味で多くの人々にこれを真剣に受け止めさせ、この新しい軌道に乗せました。そしてそれも本当に重要です。だから、それを過小評価したくありません。その成果で引退しても、自分のキャリアにかなり満足できると思います。しかし、アーティファクトとして、私たちはそれを振り返って、世界を本当に変えた閾値だったとは言わないと思います。
レックス: つまり、あなたはある種の本当に大きな変化を探しているのですね。どのように世界が-
サム: 私にとって、それはAGIが意味することの一部です。
レックス: シンギュラリティレベルの変化ですか?
サム: いいえ。絶対に違います。
レックス: しかし、インターネットのような大きな...Googleの検索がそうだったように。何が変化の転換点だったのでしょうか-
サム: GPT-4をリリースする前と比べて、グローバル経済は今、あなたにとって何か違いますか、または物質的に何か違いますか?あなたはノーと言うと思います。
レックス: いいえ、いいえ。それは多くの人々にとって本当に素晴らしいツールかもしれませんが、多くの人々がそれを使って多くのことを助けてくれますが、違いは感じません。そしてあなたは言っています-
サム: つまり、繰り返しますが、人々はAGIをさまざまな方法で定義します。だからあなたは私とは異なる定義を持っているかもしれません。しかし私にとっては、それがその一部であるべきだと思います。
レックス: 大きな劇的な瞬間もあるかもしれません。あなたにとって、AGIが行う印象的なことは何でしょうか?あなたがシステムと一緒に部屋にいるとして。
サム: これは個人的に私にとって重要です。正しい定義かどうかわかりません。世界の科学的発見の速度を大幅に加速できるシステムがあれば、それは大きなことだと思います。私は、ほとんどの本当の経済成長は科学的および技術的進歩から来ると信じています。
レックス: 同感です。だから私は最近の科学に対する懐疑主義が嫌いなのです。
サム: 全くそのとおりです。
レックス: しかし、実際の速度、測定可能な科学的発見の速度。しかし、本当に新しい直感、科学的直感を持つシステムを見るだけでも、それは信じられないほどのことでしょう。
サム: はい。
レックス: あなたはおそらく、AGIを構築する人物になる可能性が非常に高く、他の誰よりも先にそれと対話できるでしょう。どのような種類のことについて話しますか?
サム: つまり、確実にここの研究者たちが私よりも先にそれを行うでしょう。
レックス: もちろん。
サム: しかし、実際にこの質問についてたくさん考えてきました。もし誰かが「okay、サム、私たちは完成しました。ここにラップトップがあります。はい、これがAGIです」と言って、それと話せると言ったら、私は最初のAGIに何を聞くべきか、それが答えられると期待するかを言うのが驚くほど難しいと感じます。その最初のものは、「物理学の統一理論、物理学のすべての理論を説明してください」というような質問に答えられるものではないと思います。その質問をしたいし、その答えを知りたいです。
レックス: はい・いいえの質問をすることができます。そのような理論は存在するか、存在し得るかについて。
サム: まあ、そうすればそれらが最初に聞く質問になるでしょう。
レックス: はい・いいえ、非常に...そしてそれに基づいて、他の宇宙文明は存在しますか?はい・いいえ?あなたの直感は?そしてそれを聞くだけです。
サム: はい、つまり、まあ、私はこの最初のAGIがそれらの質問にはい・いいえでさえ答えられるとは期待していません。しかし、もし答えられるなら、それらは私のリストの上位にあるでしょう。
レックス: うーん。たぶん確率を割り当て始めることができるでしょう。
サム: たぶん私たちはもっと技術を発明し、もっと物事を測定する必要があると言うでしょう。
レックス: しかし、もしそれがAGIなら...ああ、そうですね。単に十分なデータがないのですね。
サム: つまり、たぶんそれは「この物理学の質問に答えたいなら、この機械を作ってこの5つの測定をして、それを教えてください」と言うでしょう。
レックス: はい。「何が欲しいんだ?まず機械が必要で、その機械からのデータを扱うのを手伝います。」たぶん機械を作るのを手伝ってくれるかもしれません。
サム: たぶん。
レックス: そして数学の側では、いくつかの証明をするかもしれません。あなたはその側面にも興味がありますか?アイデアの形式化された探求?
AGIを最初に作る人が多くの力を手に入れます。あなたはそれほどの力を自分自身に任せられますか?
サム: そうですね、非常に正直に答えます。最初は言おうとしていましたし、まだ信じていますが、私や他の1人の人間がOpenAIやAGIを完全にコントロールすることは重要ではないと思います。堅牢なガバナンスシステムが必要だと思います。去年の取締役会の騒動について、最初は戦わなかったことなど、多くのことを指摘できます。それは本当に悪い決定だと思いましたが、「はい、それが取締役会の意思です」と言いました。そして後で明らかに戦いましたが、なぜ後で戦うのが okay だと思ったかのニュアンスを説明できます。しかし、多くの人が指摘したように、取締役会には法的に私を解雇する能力がありましたが、実際にはうまくいきませんでした。そしてそれ自体がガバナンスの失敗です。繰り返しますが、ここでの詳細を完全に弁護できると感じていますし、ほとんどの人がそれに同意すると思います。しかし、それによって「ねえ、取締役会は単に私を解雇できるんだ」とあなたの目を見て言うのが難しくなります。私はOpenAIの超議決権を持つことを望んでいません。これまで一度も持っていませんし、望んでもいません。この狂気のようなことがあった後でさえ、まだ望んでいません。一つの企業がこれらの決定を下すべきではなく、本当に政府がルールを定めるべきだと引き続き考えています。そしてそれは、マーク・アンドリーセンなどの人々が規制の独占を狙っていると主張することを意味すると理解しています。しかしそれは真実ではありません。そして時間が経てば、なぜこれが重要なのかが証明されると思います。しかし、私はOpenAIのために多くの悪い決定も良い決定もしてきたと思います。全体的な記録を誇りに思っていますが、1人の人間がすべきだとは思いません。そして1人の人間がそうすることはないと思います。今やそれはあまりにも大きなことになっていて、社会全体で良い健全な方法で起こっていると思います。しかし、1人の人間がAGIや、AGIに向けてのこの動き全体をコントロールすべきだとは思いません。そしてそれが起こっているとは思いません。
レックス: そう言ってくれてありがとうございます。それは本当に力強く、洞察に満ちた言葉でした。取締役会があなたを解雇できるということは法的には真実です。そして人間は大衆を操作して取締役会を覆すことができます。しかし、私はまた、人々にはまだ力があるという、はるかに前向きなバージョンもあると思います。つまり、取締役会もあまりにも強力になりすぎてはいけないのです。これらすべてにおいて力のバランスがあります。
サム: 力のバランスは確かに良いことです。
レックス: AGI自体のコントロールを失うことを恐れていますか?それは、実存的リスクを心配する多くの人々が、国家主体やセキュリティ上の懸念ではなく、AI自体のために心配していることです。
サム: それは現在私が見ているように、私の最大の心配事ではありません。より心配していた時期もありました。将来また、それが私の最大の心配事になる時期があるかもしれません。今のところ、それは私の最大の心配事ではありません。
レックス: それがあなたの心配事でないという直感は何ですか?他に心配すべきことがたくさんあるからですか?驚かされる可能性があると思いますか?驚かされる可能性があります。
サム: もちろん、確かに。それが私の最大の心配事ではないと言っても、私たちがそれに super 一生懸命取り組む必要がないと思っているわけではありません...私たちはそれに super 一生懸命取り組む必要があると思います。ここには素晴らしい人々がいて、その仕事に取り組んでいます。他にも正しく行う必要がある多くのことがあると思います。
レックス: あなたにとって、今のところボックスから抜け出すのはそれほど簡単ではありません。インターネットに接続するなど。
サム: 私たちは先ほど劇的なリスクについて話しました。それは劇的なリスクです。それは人々がこの問題についてどのように考えるかを本当に支配できるものです。そして、非常に賢い、私は非常に善意のあるAI安全研究者の大きなグループがいて、この1つの問題に super こだわっています。私は大きな進歩はないと主張しますが、この1つの問題に super こだわっています。実際、彼らがそうすることを嬉しく思っています。なぜなら、私たちはこれについてもっと考える必要があると思うからです。しかし、私はそれが、他の非常に重要なAI関連のリスクの多くを議論の場から押しのけたと思います。
レックス: 大文字を使わないツイートについて聞かせてください。シフトキーが壊れていますか?
サム: なぜ誰もそのことを気にするのでしょうか?
レックス: 私は深く気にしています。
サム: しかしなぜですか?つまり、他の人々も私にそのことについて尋ねます。何か直感はありますか?
レックス: 私は、E.E.カミングスという詩人がいて、主に大文字を使わないのは、ある種のシステムへの「くそくらえ」を言うためだと思うのと同じ理由だと思います。そして人々は非常に偏執的で、あなたにルールに従ってほしいと思っています。
サム: あなたはそれがそういうことだと思いますか?
レックス: そう思います-
サム: このやつはルールに従わない。ツイートに大文字を使わない。これは本当に危険に見える。
レックス: 彼はアナーキストのように見えます。
サム: そうは見えません。
レックス: あなたはただ詩的で、ヒップスターなのですか?それとも-
サム: 私は非常にオンラインな子供として育ちました。コンピューターでチャットをして、ある時点でインスタントメッセンジャーからログオフできた時代に、人々と大量の時間を過ごしました。そして私はそこでは決して大文字を使いませんでした。インターネットの子供たちの多くがそうだったと思います。あるいは今でもそうかもしれません。わかりません。実際、これは...今、本当に何かを探そうとしています。しかし、大文字の使用は時間とともに減少していると思います。古い英語の文章を読むと、文の途中の単語、名詞などをランダムに大文字にしていました。私たちは今そうしません。個人的には、文の始まりの文字や特定の名前を大文字にするというのは、ある種のばかげた構造だと思います。それで構いません。そして以前は、たぶんプロフェッショナルに聞こえようとして、ツイートさえも大文字にしていたと思います。長い間、私のプライベートなDMなどは大文字を使っていませんでした。そして徐々に、より短い形式の、より形式ばらないものが、友達にテキストを送るような方法に近づいてきました。Wordドキュメントを開いて会社の戦略メモを書くときは、常に大文字を使います。より長い、より形式的なメッセージを書くときも、常に大文字を使います。だから、まだそれをする方法を覚えています。しかし、それも消えていくかもしれません。わかりません。しかし、これについて考える時間を費やしたことはないので、準備された答えはありません。
レックス: まあ、興味深いですね。まず、シフトキーが壊れていないことを知れて良かったです。
サム: 機能します。
レックス: 主にあなたの健康を心配していました。
サム: Google検索で人々がまだ大文字を使っているかどうか気になります。自分自身のために何かを書くとき、あるいはChatGPTのクエリで、自分自身のために何かを書くとき、一部の人々はまだ大文字を使うのでしょうか?
レックス: おそらくそうではないでしょう。はい、そうする人の割合はありますが、小さいでしょう。
サム: もし人々が...それが尊重の印だとか何かだと感じるなら、私にそうさせるでしょう。なぜなら、もちろん自分を強制して大文字を使うことはできますが、明らかに。もし人々に対する尊重の印だと感じたら、そうするでしょう。しかし、わかりません、これについて考えません。不尊重だとは思いませんが、礼儀正しさの慣習には勢いがあり、それから実際には礼儀正しさにとって重要ではないことに気づくのだと思います。もしそれが尊重や不尊重の印でなければ。しかし、人々の中には、あなたがこれについて哲学を持っていてほしいと思う動きがあると思います。そうすれば彼らはこの大文字の問題全体を手放すことができます。
レックス: 私はこのことについて毎日何時間も考えていると思う唯一の人間ではないと思います。つまり、多分一部の人々は...
サム: ツイートに大文字を使わない唯一の人間ではないと思います。
レックス: あなたは企業のCEOで、ツイートに大文字を使わない唯一の人物です。
サム: そうとは思いません。たぶん、たぶん。
レックス: わかりました。これについて調査し、後でこのトピックに戻ります。Soraが模擬世界を生成する能力を考えると、ポットヘッドの質問をさせてください。これにより、私たちがAIシステムによって生成された模擬世界に住んでいるという信念を持っていたとすれば、その信念が強まりましたか?
サム: はい、ある程度は。それが最も強力な証拠だとは思いません。世界を生成できるという事実は、誰もがその可能性をある程度、少なくともそれに対する開放性を高めるべきだと思います。しかし、あなたも知っているように、私はいつかSoraのようなものができると確信していました。私が思っていたよりも早く起こりました。それは大きな更新ではありませんでした。
レックス: はい。そしておそらく、それはどんどん良くなっていくでしょう。世界を生成できるという事実、それらは新しいものです。訓練データのある側面に基づいていますが、それらを見ると新しいものです。それによって、このことがどれほど簡単にできるかを考えさせられます。宇宙、ビデオゲームの世界全体を作ることがどれほど簡単か、それらは超リアルで写実的に見えます。そして、まずVRヘッドセットで、そして物理的なレベルでその世界に迷い込むのがどれほど簡単かを考えさせられます。
サム: 最近誰かが私に言ったことで、非常に深遠な洞察だと思ったのは、非常にシンプルに聞こえるけれど非常にサイケデリックな洞察が時々存在するということです。平方根関数。4の平方根、問題ありません。2の平方根、okay、今この新しい種類の数について考えなければなりません。しかし、子供にさえ説明できるような簡単な平方根関数のアイデアを思いついて、いくつかの単純な幾何学を見るだけで存在することがわかると、-1の平方根は何かという質問をすることができます。これはあなたを全く別の現実の領域に導く、サイケデリックなものです。他にもたくさんの例を挙げることができます。しかし、平方根演算子という低レベルのものがそのような深遠な洞察と新しい知識の領域を提供できるという考えは、多くの面で当てはまると思います。そして、シミュレーション仮説の好きなバージョンが以前よりも可能性が高いと人々が考える理由には、そのような演算子がたくさんあると思います。しかし私にとって、Soraが機能したという事実は、トップ5には入りません。
レックス: 私は広く言えば、AIは最高の状態で、別の波状の現実への単純なサイケデリックなゲートウェイのようなものとして機能すると思います。
サム: それは確実だと思います。
レックス: それはかなり興奮させられます。私はまだアヤワスカをしたことがありませんが、すぐにするつもりです。前述のアマゾンジャングルに数週間後に行きます。
サム: 楽しみですね。
レックス: はい、楽しみです。アヤワスカの部分ではなく。それは素晴らしい、何でもいいです。しかし、ジャングルの奥深くに数週間滞在するのは興奮しますが、怖いことでもあります-
サム: あなたのためにワクワクしています。
レックス: なぜなら、そこにはあなたを食べたり殺したり毒を与えたりするものがたくさんありますが、それは自然でもあり、自然の機械でもあります。アマゾンジャングルの自然の機械性を評価せずにはいられません。なぜなら、それはただ存在し、毎秒、毎分、毎時間自分自身を更新するこのシステムだからです。それは機械です。私たちがここに持っているこの人間のものがどこかから来たことを評価させてくれます。この進化の機械がそれを作り出し、ジャングルで最も明確に表示されています。だから、無事に帰ってこられることを願っています。もし帰ってこられなければ、これが私たちの最後の会話になるので、本当に深く感謝しています。先ほど言及したように、他の知的な宇宙文明が存在すると思いますか?空を見上げたとき。
サム: 答えがイエスであることを心から信じたいです。フェルミのパラドックスを非常に、非常に不思議に思います。
レックス: 知性が技術を扱うのが上手くないことが怖いと思います。しかし同時に、非常に多くの知的な宇宙文明が存在すると確信しています。ただ、この宇宙空間を旅するのが本当に難しいだけかもしれません。
サム: 十分にありえます。
レックス: また、知性の性質について考えさせられます。私たちは知性がどのようなものかについて本当に盲目かもしれません。そしてAIは私たちがそれを見るのを助けてくれるかもしれません。それはIQテストや単純なパズル解きほど単純ではありません。もっと大きなものがあります。人類の未来について、あなたに希望を与えるものは何ですか?私たちが持っているこのもの、この人類文明。
サム: 過去は多くのことを示しています。つまり、人類が非常に長くない期間に行ってきたことを見れば、巨大な問題、深刻な欠陥、非常に恥ずかしく思うべきことがたくさんありますが、全体としては非常に刺激的で、多くの希望を与えてくれます。
レックス: ただ、私たちが一緒により良い未来に向かって押し進めているという軌跡全体ですね。
サム: それは...私が思うのは、AGIは単一の脳のようなものになるのか、それとも私たち全員の間の一種の足場のようなものになるのかということです。あなたの曽祖父母から遺伝的にはほとんど変化していませんが、あなたができることは劇的に異なります。あなたが知っていることは劇的に異なります。それは生物学的な変化のためではありません。つまり、あなたは少し健康になったかもしれません。現代医学があり、より良い食事をしていますが。しかし、あなたが持っているのは、私たち全員が貢献してきたこの足場です。1人の人間がiPhoneを作ることはできません。1人の人間がすべての科学を発見することはできません。しかし、あなたはそれを使うことができます。そしてそれはあなたに信じられない能力を与えます。そしてある意味で、私たち全員がそれを作り出したということ、それは私に将来への希望を与えてくれます。それは非常に集団的なものでした。
レックス: はい。私たちは本当に巨人の肩の上に立っています。あなたは、AIリスクの劇的で劇的なものについて話しているときに、時々自分の命が危険にさらされるかもしれないと言及しました。あなたは自分の死について考えますか?それを恐れていますか?
サム: つまり、もし明日撃たれることを今日知ったら、「ああ、それは悲しいな。何が起こるか見たかった」と思うでしょう。
レックス: はい。
サム: なんて興味深い時代なんだろう。しかし、私は主に人生に非常に感謝するでしょう。
レックス: あなたが得た瞬間...はい、私もそうです。かなり素晴らしい人生です。私はChatGPTなど、人間の素晴らしい創造物を楽しむことができます。そしてOpenAIが行っているすべてのことも。サム、あなたと再び話せて本当に光栄で楽しかったです。
サム: あなたと話せて良かったです。お招きいただきありがとうございます。
レックス: サム・アルトマンとの会話を聞いていただきありがとうございます。このポッドキャストをサポートするには、説明欄のスポンサーをチェックしてください。さて、アーサー・C・クラークの言葉で締めくくらせてください。おそらく、この惑星での私たちの役割は神を崇拝することではなく、神を創造することかもしれません。ご視聴ありがとうございました。次回またお会いできることを願っています。

この記事が気に入ったらサポートをしてみませんか?