見出し画像

AIのスケーリング、アライメント、そして超知能への道 - ドワルケシュ・パテルとともに

AIの分野で最も鋭い人物の一人であるドワーケシュ・パテルが、研究、ビジネス、危険性、陰謀論について議論するために参加します。ビッグテクノロジー・ポッドキャストへようこそ。ここでは、テクノロジーの世界とその先の冷静でニュアンスのある会話を繰り広げます。本日はドワーケシュ・パテルをお迎えしています。彼はドワーケシュ・ポッドキャストのホストであり、最近ではディープマインドのCEOであるデミス・ハサビス、AnthropicのCEOであるダリオ・アモデイ、OpenAIの主任科学者であるイリヤ・スツケヴァー、そして最近ではMetaのCEOであるマーク・ザッカーバーグにインタビューを行いました。ドワーケシュ、番組へようこそ。参加できて嬉しいです。AIに関する素晴らしいインタビューをされていて、研究や今後の動向について掘り下げ、適切な人々に適切な質問を投げかけていると思います。OpenAIが爆発的に成長する前に、イリヤ・スツケヴァーにインタビューしていましたね。彼がOpenAIの競争力を維持するためにどれほど重要だと思いますか?それは本当に興味深い質問だと思います。誰かと話していた時に、「OpenAIはイリヤを失ったので、優秀な人材は重要であり、彼を失ったことでOpenAIは下り坂になるかもしれない」と言われました。しかし、AIには何千人もの科学者がいるので、誰かが置き換えられても大丈夫だろうという考え方もあります。それはおそらく正しいですが、私はこの分野に詳しくないので、主任科学者を失うことでOpenAIの進歩がどれだけ遅れるのかはわかりません。もし進歩がそれほど遅れないのであれば、それはそれで非常に興味深いことですし、もし大きく遅れるのであれば、それはそれで非常に興味深いことです。彼の離脱後、OpenAIの減速の兆候は見られましたか?いいえ、1年以上前にリリースされたGPT-4以降、これといった進歩はありません。Claude 3やGeminiはGPT-4よりも大幅に優れているわけではなく、ましてや新しいバージョンのGPT-4よりも優れているわけでもありません。AIの進歩は停滞しているのでしょうか?それとも、GPT-5レベルのモデルをトレーニングするために必要な巨大なデータセンターの構築を待っているだけなのでしょうか?今年の終わりには、GPT-5レベルのモデルがどのようなものになるのか、そしてGPT-5が驚くほど素晴らしいものであれば、神の構築に向けて進んでいるのか、それともGPT-5がGPT-4よりもそれほど優れていないのかがわかると思います。GPT-4.5とGPT-5レベルのモデルの間で、データウォールと呼ばれるものにぶつかるでしょう。これは、モデルを大きくするにつれて、トレーニングに必要なデータが増え続け、インターネットデータが不足していくことを意味します。したがって、合成データや強化学習などの技術が、より大きなモデルに必要なデータを代替できるかどうかを学ぶことになるでしょう。今年の終わりまでには、AIの進路がどうなるのか、多くのことを学ぶことを期待しています。GPT-5の答えについて、あなたの考えは?難しい質問ですが、いくつかの予測があります。GPT-5は間違いなく推論能力が向上するでしょう。これは当然のことですが、彼らが話しているトレーニング方法を見ると、正しい答えを得るために正しい推論経路をモデルに学習させることで、推論能力が向上するように思われます。また、より多くのマルチモーダルデータが見られるようになるでしょう。これは、教師ありのファインチューニングのようなものですが、多くの人が画面を録画し、UIを操作しながらワークフローを行うようなものです。そのため、インターネット上で何かをするように指示すれば、GPT-4のようにウェブブラウジングが主な機能ではない現在とは異なり、実際にそれを実行できるエージェントが登場するでしょう。大きな問題は、GPT-5はどのくらい賢くなるのかということです。これらの能力について言及しましたが、どれだけの能力を持つのかはわかりません。それを評価するには、テストでの成績を見るだけでなく、モデルを使った時の感覚も重要になると思います。評価には限界があり、MLUなどのスコアは飽和状態に達しており、必ずしも優れているとは限りません。したがって、MLUスコアよりも、実際にこれらのモデルと対話した時の感覚を重視しています。チャットボットアリーナは、2つのチャットボットの回答を並べてどちらが優れているかを見るという評価方法ですが、評価にはいくつかの欠点があります。私がもっと知りたいのは、その場で即座に回答を出すだけでなく、長時間の会話の中で文脈を理解し、問題の異なる側面を追跡できるかどうかです。これは、私のワークフローにとって、単に箇条書きを作成するよりもはるかに重要です。OpenAIの話に戻りますが、MicrosoftがOpenAIと競合する独自のモデルを開発し始めたのは興味深いことです。The Informationの記事によると、Microsoftは5000億パラメータのモデルを開発しています。OpenAIのGPT-4は約1兆パラメータでトレーニングされたとされていますが、MicrosoftはGPT-4以降初めて、競合する独自のモデルを構築しようとしています。Microsoftの動きをどのように解釈すべきでしょうか?OpenAIへの信頼を失ったのでしょうか?それとも、OpenAIに対するヘッジなのでしょうか?重要なパートナーがいるにもかかわらず、必要な動きなのでしょうか?私の友人でDeepMindで働いている人が、Microsoftは基本的にGoogleが過去数年間に達成したことを覆し、Googleが最初にしたのと同じ間違いを犯していると教えてくれました。それは、トレーニングを2つの異なる企業や組織に分散させるというものです。Googleの場合は、Google BrainとDeepMindでした。MicrosoftにはOpenAIというリードする企業がありますが、そこに倍賭けする代わりに、このように賭け金をヘッジしようとしているのです。もしOpenAIを他の製品と同じように考えて、複数のベンダーがあれば、1つのベンダーが異なる方向に進んだ場合でも、ある程度の影響力を持つことができるというのであれば、それは理にかなっているかもしれません。しかし、AIの場合、スケーリングを信じるのであれば、モデルを大きくするほど賢くなるため、このように賭け金をヘッジすることは理にかなっていないと思います。1社に1000億ドルを渡し、「スーパーインテリジェンスを作ってくれ」と言うべきです。そうしないと、努力を分散させてしまい、2社がGPT-3.5を持つよりも、1社がGPT-4を持つ方がはるかに良いでしょう。Microsoftもこれを理解しているはずなので、なぜこのような行動を取っているのでしょうか?一つには、昨年12月または11月に起こった取締役会での出来事に動揺したことがあると思います。OpenAIの憲章には、非営利の取締役会がAGIを構築したと判断した場合、MicrosoftはOpenAIに対する影響力を失うという条項があります。そのため、Microsoftはそれに動揺したのです。また、Microsoftは私たちインターネットユーザーほどスケーリング仮説を信じていないのかもしれません。彼らは、複数の企業にGPT-4.5レベルのモデルを構築させ、その様子を見守りたいと考えているのかもしれません。DeepMind、Meta、Anthropic、OpenAIの取り組みについて、どのように考えていますか?明確なリーダーはいますか?知っておくべき重要な差別化要因はありますか?現時点では、明確なリーダーはいないようです。収益に関しては、おそらくOpenAIが大きくリードしているでしょう。ChatGPTを使用する人の数は、他のどのサービスよりも多いと思います。主観的には、Claudeを使用すると、多くの場合、GPT-4よりも優れていると感じます。少なくとも、大幅に劣ることはありません。彼らが現在異なっている主な点は、Claudeはポストトレーニングが良いように思われることです。これは、どのような性格を持ち、どのように質問を分解し、チャットボットとしてどのように行動するかということです。あなたが耳にするRLHFは、すべてポストトレーニングの一部であり、Claudeはそれをより自動化する方法を持っています。Geminiは明らかにコンテキストが長く、100万トークンというのは巨大です。今後数ヶ月で、誰が本当にリードしているのかがわかるでしょう。現時点では、誰もがGPT-4と同じくらい良いモデルをリリースしているだけで、誰がその距離を進むことができるのかがわかるでしょう。OpenAIはおそらくMicrosoftのおかげで計算能力を持っていますが、もしかしたらMicrosoftは計算能力を分割しているかもしれません。Googleは巨大な企業なので、間違いなく計算能力を持っています。問題は、Anthropicが今年以降、数百億ドルのコストがかかる可能性のあるモデルに追いつくことができるかどうかです。Googleの試みで過小評価されているのは、Google BrainとDeepMindを1つの組織に統合し、内部の対立はさておき、リソースを集中させるという、Microsoftを逆転させる、あるいは間違いを修正しているという点です。私は、「原爆を作った男」のリチャード・ローズにインタビューしたのですが、彼は、広島と長崎の後、スターリンが彼のトップ物理学者を呼び、「同志よ、あなたは国家のすべてのリソースを自由に使えるのだから、爆弾を作るのだ。さもなければ、あなたとあなたの家族は塵となるだろう」と言ったと教えてくれました。最後の文章はGoogleでは言われなかったかもしれませんが、計算リソースの割り当てに関しては、Googleはこのような態度を取っているのかもしれません。つまり、「これを真剣に受け止め、多くの計算リソースを投資して実現させる」という態度です。また、GoogleはAIチップ用のアクセラレータプログラムであるTPUで実際に成功しているという事実も忘れてはなりません。他の企業もTPUを試みていますが、まだNvidiaのGPUに取って代わるまでには至っていません。最後に、イーロン・マスクの取り組みであるxAIについて、彼らが競争できる可能性はあると思いますか?リソースについて考えると、間違いなくマスクの資金があり、Teslaが所有する大規模なGPUクラスターもあると思います。それが影響するかどうか、そして他に参入して重要になるかもしれないダークホースがいるかどうか疑問です。2つ目の質問は非常に興味深いですね。TeslaはxAIとは別の組織なのでどれくらい転送できるか、ということですね。イーロン・マスクは別組織なので、どれくらい転送できるかはわかりませんが、誰が他のアクターになるかは正直わかりません。AIが本当に強力で、GPT-5が素晴らしいものである場合、多くの異なる国の国家安全保障機関が、これがどれほど大したことであるかに気づき始め、ただ座っているだけではないと思います。彼らは行動を起こすでしょう。世界には1000億ドルの政府系ファンドを持つ国がたくさんあります。AIが急速に進歩し続ける世界では、より多くの国家レベルのアクターが登場するでしょう。なぜなら、それはモデルのスケーリングを続けるために必要な資金の種類でもあるからです。国家はこの技術で何をするのでしょうか?明らかに軍事利用は明確です。軍事研究開発に使用できます。例えば、人間レベルのドローンオペレーターがいれば、何百万ものドローンを大量生産し、ローカルで実行される人間と同等のモデルでこれらのドローンを操作し、百万のドローン群を北京に向けて飛ばすことができます。これはほんの一例ですが、他にもたくさんのことができるでしょう。より大きな視点で見ると、なぜ一部の国は他の国よりも裕福で強力なのでしょうか?それは、より多くの人口を抱えているからです。台湾が中国との戦争に敗北するのはなぜでしょうか?それは、中国の方が人口が多いからです。AIが人を代替し、国の有効人口を増やすことができれば、それは他の国に対する経済生産高や地政学的競争に耐える能力において、大きな影響力を持つことになるでしょう。あなたはAIを「最後の発明」と呼んでいますが、もしある国家が人工知能を達成したらどうなると思いますか?中国がそれを発明できたらどうなるでしょうか?その場合、どのような応用が可能でしょうか?完全に。実際、その特定のフレーズは他の誰かのものだと思いますが、ここで誰が勝つのかは本当に重要だと思います。中国が数年のうちに勝利した場合、中国は米国に対して多くの影響力を持つことになると思います。なぜなら、将来のAIがアンロックできることの一つに、ポケットニューク(小型核兵器)のようなものがあるからです。中国が先行すれば、「何十億もの兵士を製造できるようになった」と言えるでしょう。そして、彼らが実行するための無人偵察機やロボットなどを大量生産することができます。それは彼らに多くの影響力をもたらすでしょう。ですから、私はそれが心配です。米国が勝利し、優位を保つことが重要だと思います。現在の中国のAIの状況はわかりませんが、新しいモデルであるDeepSeekは非常に優れているようです。そこに到達する前に、特にテック業界は多くのことを乗り越えなければなりません。データの制約、計算能力の制約もあります。これらのリソース制約が実際に重要になるかどうか、そしてそれらがどのように影響するかについてもう少し話しましょう。マーク・ザッカーバーグは、エネルギーが重要な問題になると話していました。エネルギーについて話しましょう。それは、AIが壁にぶつかるのかどうかという疑問を私に抱かせました。私はニュースレターでそれについて書きました。興味深い質問ですね。では、それぞれの構成要素について少し詳しく話しましょう。まず、計算能力についてです。サム・アルトマンが7兆ドルを調達したいという噂を聞くと、私は警戒心を抱きます。もちろん、それは経済的な問題ですが、もしそれがこの技術を実現するために必要なことであれば、そして、より多くの計算能力、データ、エネルギーを追加し、最終的により良い大規模言語モデルをトレーニングし、スケーリングの法則がその限界でどのようなものかを見ることができる場所に到達するのであれば、それはいつになるのでしょうか?計算能力は、エネルギーよりもボトルネックにはならないと思います。7兆ドルについては...そうですね、想像してみましょう。計算能力がエネルギーよりもボトルネックになりにくいと私が考える理由は、現在、Nvidiaという1つの企業がGPUを製造しており、Google以外には明確な競争相手がいないからです。これまでのNvidiaのボトルネックとなっていたのは、GPUに必要な一部のコンポーネント、CUやHBMなどを十分に確保できなかったことです。TSMCは、AIにすべてを賭けるかどうか確信が持てず、これらの施設を建設するための多額の投資をためらっていました。しかし、現在では工場が建設されており、また、これらの企業はすべて、NvidiaのGPUに代わる独自のチップを出荷しようとするアクセラレータプログラムを持っています。したがって、計算能力はますます利用可能になるでしょう。ザッカーバーグもポッドキャストで、計算能力の制約は減少しつつあると述べていました。ザッカーバーグが指摘した問題は、エネルギーがあるかどうかでした。エネルギーに関する重要な制約は、必ずしも世界に十分なエネルギーがあるかどうかではなく、トレーニングのために1つの場所に十分なエネルギーがあるかどうかです。なぜなら、トレーニングを実行するには、少なくとも公に知られているトレーニング方法では、1つの場所で行う必要があるからです。もし原子力発電所が1ギガワットのエネルギーを放出し、何十万ものGPUを使ったトレーニングが1ギガワットのエネルギーを消費するとしたら、アメリカにはその場所があるのでしょうか?もしアメリカにあるとしたら、どこに行くのでしょうか?中東に行くのでしょうか?カナダのアルミニウム精錬所を買うのでしょうか?なぜなら、それらは大量のエネルギーを消費し、アルミニウム精錬所を買収してオフラインにすることができるからです。わかりませんが、さまざまなアイデアを試すことができます。しかし、エネルギーが大きな制約になると思います。ザッカーバーグは、このためには中規模の原子力発電所が必要になるかもしれないと話していました。あなたは、「Amazonはどうですか?」と尋ね、彼は「Amazonに聞いてみてください」と言いました。そこで私はAmazonに問い合わせ、少し調べてみました。Amazonは実際にペンシルベニア州に小型原子力発電所を購入しており、960メガワットなので、1ギガワットに近い規模です。彼らはそこで40%のエネルギーを使用する予定ですが、AIトレーニングのためだと私は推測しています。これが今後のエネルギー争いの姿なのでしょうか?そして、誰もがより多くの計算能力、より多くのデータ、より多くのエネルギーをプロセスに追加してこれらのモデルを構築したいと考えていることを考えると、それは十分なエネルギーなのでしょうか?確かに十分ではありません。私もザッカーバーグにそのことを指摘しました。彼は...とにかく、トレーニングのためには1つの場所にいくらかのエネルギーが必要なようですが、それを回避する方法もあるかもしれません。また、これらのモデルを展開するためにもエネルギーが必要であり、展開する場所それぞれでエネルギーを消費する必要があり、世界的にエネルギー需要が増加する可能性があります。私はいくつかの概算をしましたが、スケーリングの法則を信じ、H100がどれだけのエネルギーを消費するかを見て、各世代でGPUの効率がどれくらい向上し、エネルギー消費がどれくらい削減されるかを見て、24レベルのモデル、4.5レベルのモデル、5レベルのモデルなどをトレーニングするのにどれだけのエネルギーコストがかかるかを計算することができます。すぐにギガワット単位になり、特にこれらのモデルが世界中で広く展開される場合は、大量のエネルギーを消費することになります。最後にデータについてですが、あなたは冒頭でデータが大きな制約になるかもしれないと述べました。これらの企業はすでに、基本的にAI自体から作成されたデータのような合成データを使用しています。MetaはLlama 3のトレーニングに合成データを使用し、Simon & Schusterを買収しようとしたり、買収について話したりしました。「ChatGPTと同じくらい良いものにすることはできない」と。ちなみに、これはFacebookを所有し、ソーシャルインターネット全体をトレーニングデータとして持っているMetaのことです。この問題を回避するにはどうすればよいのでしょうか?合成データの問題は、ある意味でエネルギーと計算能力の問題に戻ってきます。なぜなら、合成データを作るには既存のモデルを使用する必要があり、既存のモデルを使用するにはエネルギーと計算能力が必要だからです。実際、1回のバックワードパスだけでなく、各フォワードパスでいくつかの出力を生成し、モデルがそれらの出力の中からどれが最適かを決定し、最適な出力でトレーニングを行う必要があるため、トレーニングコストは5倍になる可能性があります。これは、「これらのモデルは、モデルをより賢くするために十分にスケーラブルですか?」という質問とは別です。これについては、まだ公的な証拠はありませんが、あなたの意見はどうでしょうか?これらの研究所の研究者と話すと、彼らはこれが実現するとかなり自信を持っているようです。MetaのLlama 3で使用したと言っていますが、実際にモデルを大幅に賢くするという証拠はあまりありません。話しながら学んでいるのですが、考えてみると、「計算能力に7兆ドル」という見出しを見て、もちろん、より効率的な原子力発電所、世界が持つよりも多くのデータなどが考えられます。そして、「これらのモデルをスケールアップしても、より多くのエネルギー、計算能力、データを投入しても、LLMをトレーニングして改善できるかどうかはわからない」となります。そして、「これは持続可能なのか?」という疑問を抱くのです。私が得ているのは、業界がより効率的なモデルに賭けているように見えるということです。つまり、より良いコーディングができれば、たとえ拡張する必要があっても、改善のためにそれほど多くの計算能力やデータは必要なくなるということです。あなたのインタビューや業界関係者からの発言で一貫しているのは、彼らがこのことが予測可能であると信じているということです。サム・アルトマンは、数週間前のスタンフォードでの講演で、「GPT-5はGPT-4よりもはるかに賢くなり、GPT-6はGPT-5よりもはるかに賢くなるだろうということは、高い科学的確実性を持って今すぐ言うことができます。私たちは、この曲線の頂点には程遠く、何をすべきか分かっています。これは、ある分野で良くなるということではなく、この評価やこの主題、このモダリティで常に良くなるということではなく、一般的な意味で賢くなるということです」と述べています。私は、この発言の重要性はまだ過小評価されていると思います。誰もがこの分野にお金を注ぎ込み続けるのは、必ずしも今日の成果のためではなく、数世代先の投資利益率につながるからです。これらのシステムの開発者が、システムを改善するためにシステムを稼働させる可能性は潜在的なものではなく、むしろ可能性が高いように思えます。そして、私たちはその方向性を完全には把握できていないにもかかわらず、意図しない結果を招く可能性があるように思えます。その通りです。ええ、ええ。そして、私が以前のエピソードでトレントンとクトと議論したことの一つに、これらのモデルがどのように欲求や思考を表しているかという点で、興味深い特性を発見した研究者がいるということです。つまり、モデルが正直であるかどうか、あるいは単に内部を読んでいるだけで、正直であると思っているかどうかを見ることができるのです。モデルが賢くなるにつれて、彼らが何をしようとしているのかを理解し、正しいことをするように訓練する方法を学ぶことができるかもしれません。彼らが何か悪いことをした場合、文字通り彼らの脳を変えることができるという点で、私たちは有利な立場にあります。そして、その結果、彼らのすべての子孫の脳も変化します。その通りです。一族全体が変わるのです。ええ、正確にはそうです。そして、私たちは彼らをシャットダウンすることもできます。わかりません。ええ、願わくば、彼らが広く展開されることを願っています。もし彼らが本当に道を外れてしまったら、それは大変なことになるかもしれません。しかし、あなたは最終的には肯定的な結果になると考えていますか?人々がAIの安全性研究を続け、これらのシステムが...あなたが知っているように、中国が他の誰よりも先に進んで、はるかに高度なAIを持っているために世界を乗っ取ってしまうようなことがないように、展開されることを条件として。そうですね。また、モデルが展開されるときには、ユーザーのニーズに応え、クレイジーなことをしないようにしたいと考えています。しかし、根本的に言えば、より多くのもの、より豊かなもの、より繁栄するものになることは良いことだと思います。終わりに近づきましたが、Twitterの皆さんから、あなたに何を聞いてほしいかという質問を募集しました。この議論のトピックと少し関連する質問が1つ、そしてポッドキャストに関する質問が1つあります。1つ目は、「番組を始めてから、あなたの政治的見解は変わりましたか?」あるいは、別の言い方をすれば、「マーク・アンドリーセンなど、初期のAIゲストとは非常に異なる視点を持つ人にインタビューしたことで、AIに対する考え方が変わりましたか?」というものです。一般的に、私は非常にリバタリアン的であり、おそらく今よりもさらにリバタリアン的でした。無政府資本主義者のようなものでした。政治的には、AIに関する何らかの規制が有用である可能性があるという考えにオープンになりましたが、私はまだリバタリアンの本能を持っています。それが正しい方法で行われるかどうかはわかりませんし、民間企業が自分でインセンティブと制約を考え出す方が良いかもしれません。どのような規制が適切だと思いますか?今週、私が一緒に仕事をしている編集者と話をしていて、私たちは、AIと子供がどのように交流できるかを規制することについて話しました。子供の手の中にAIが入ると、どこに行くかわからないからです。しかし、私は正直なところ、彼らが現在行っていること、つまりYouTube、TikTok、Twitter、Facebookなどよりも良いと思います。もし私が子供を持っていたら、彼らが現在のアクセスできるものよりもチャットボットで遊んでいる方が良いと思います。私には子供はいませんが、もしいたら...もしAIが急速に進歩し、AIがAI研究を支援できるようになるポイントに近づいている世界では、ある種の政府レベルのアクターが必要になると思います。「ちょっと待ってください、皆さん」と。基本的に、AIにAI研究を手伝わせるボタンを押せば、他の誰よりも根本的に優れたAIを手に入れ、銀河を乗っ取ることができる可能性があります。誰かがそうする前に、私たちは先に進む準備ができている場所にいることを確認しなければなりません。そのような世界では、規制は理にかなっていると思います。2つ目の質問は、「ドワーケシュのインタビュー準備の秘訣を教えてください。それは彼の革新であり、もし彼がそれを再現または近似できる方法で説明できれば、もっと面白いインタビューができるでしょう」というものでした。正直、私も個人的に興味があるので、どのように準備しているのか教えてください。まず最初に言っておきますが、私は本当にたくさん準備をします。インタビューをすることで多くのことを学び、そのおかげでより良いインタビューができ、さらに多くのことを学ぶことができます。正直なところ、主なフライホイールは、ポッドキャストをより良くすることで、より賢い人々が聞きに来てくれるようになり、その賢い人々の中には友人になる人もいて、彼らが私にたくさんのことを教えてくれるので、さらに良いインタビューができるようになるということです。そして、さらに多くの賢い人たちとつながり、彼らからもっと多くのことを学ぶことができます。人々が知らないかもしれないフライホイールの大部分はこれだと思います。私も、企業などについて話すと、番組を聴いている人から連絡があり、「これについて知っておくべきことがあります」と言ってくれることがあります。番組を楽しんでいるのであれば、ぜひ教えてください。それはいつも助かります。これは、私が知っているべきトリックや、あなたが使っている他のツールとはどのような点で異なりますか?いいえ、本当にそれだけだと思います。素晴らしい番組にするには、いくつかの方法があると思います。1つは、すでに知っていることですが、狂ったように準備をすることです。難しい質問をすることを恐れないでください。そして、誰かが電話をかけてきて、後でトピックについて話したいと言ってきたら、電話を受けましょう。それからもう一つ、これはどちらかというとメディアに関する質問ですが、ビデオはあなたにとってかなり重要でした。ビデオは制作に費用と時間がかかるため、ビデオを作ることにした理由は何ですか?最初からビデオを作ることにROI計算をしていましたか?また、ビデオカメラを持って直接インタビューを録画することも多いですが、その戦略について少し教えてください。ポッドキャストをしている人には、ビデオを強くお勧めします。可能であれば、直接会うことをお勧めします。特に私にとってはフルタイムでやっているので、期待値が上がるからです。オーディオポッドキャストでは発見可能性が非常に低いため、どれくらいのリスナーがいるか大体わかりますが、何かが本当に口コミで広がる可能性もあります。例えば、私の最も人気のあるエピソードはサリー・ペインとのもので、YouTubeで80万回以上の再生回数があります。彼女はポッドキャストの前には、少なくとも一般的には全く知られていませんでしたが、エピソードが非常に魅力的だったので、今ではクリップを作ることができます。クリップは、対面式のエピソードでなければ、あるいはビデオが全く無ければ、それほど魅力的ではありません。このように素晴らしいクリップを作ることで、人々をビデオに誘導し、100万人近くの人々に視聴してもらうことができます。最初のビデオではそうではないかもしれませんが、アーティファクトを持つことで、非対称なリターンを得る可能性があります。そして、それをより良くする方法としては、正直に言うと、MrBeastのポッドキャストをたくさん見て、彼のアドバイスを参考にすることをお勧めします。では、あなたは自分でカメラを設定するのですか、それとも誰かを連れてくるのですか?半分半分くらいですが、最近は友人に手伝ってもらっています。それは助かります。それは、ポッドキャスターのトリックのようなものです。ただマイクの前に座るだけでなく、最近は誰もがサウンドやビデオを学ばなければなりません。主なことは、これがあなたの経験かどうかはわかりませんが、クリップが重要だということです。間違った最初の5秒でクリップを作ってしまうと、全くうまくいきません。しかし、最初にどのようなフックにするかをじっくり考えれば、口コミで広がる可能性があります。それは多くの時間を費やすことになります。確かにそうですね。ショーをするか、クリップを作るかという問題になることもあります。あなたは番組をフルタイムでやっているのですか?それとも...ビッグ・テクノロジーは私にとってフルタイムの仕事です。番組、Substackでのニュースレター、そしてYouTubeです。そうです、CNBCもですね。そうです、そうです、そうです。いいですね。私たちも週に2回の番組をやっているので...ショーをするか、クリップを作るかという問題になることもあります。そうですか。それは素晴らしいですね。つまり、私たちが話したように、面白い人々を見つけて、一緒に時間を過ごし、彼らから学ぶことができるので、それができれば本当に素晴らしい人生ですよね。ええ、100%。さて、最後の質問です。あなたが今までに行ったすべてのインタビューの中で、一番のお気に入りを聞くつもりはありませんが、最も印象に残った人は誰でしたか?「この人は本当にわかっている」とあなたが感じた人です。複数いると思いますが、誰が一番でしたか?カール・シュルマンだと思います。彼は、AIの離陸がどのように起こるかについて、私が話してきたAI研究者などについて、より深く考えている本当に興味深い人物です。彼は、文字通り、ある程度賢いものができたとしたら、どれくらいの速さで離陸できるのか、そして、20分ごとに倍増する可能性があり、その中にこれだけの可動部品があるので、ある種の...下限がある、というレベルまで考えています。サハラ砂漠全体を太陽光発電に変換したらどうなるか、そこからいくつのデータセンターを作れるか、といったことも考えています。それは興味深いですね。ドワーケシュ、素晴らしい話をありがとうございました。参加していただき、本当にありがとうございました。楽しかったです。皆さん、聞いていただきありがとうございました。金曜日にロナン・ファローとの番組で、今週のニュースをまとめてお届けします。それでは、次回のビッグ・テクノロジー・ポッドキャストでお会いしましょう。

この記事が気に入ったらサポートをしてみませんか?