見出し画像

(9/11)NVIDIA ジェンセン・フアンCEO:ゴールドマンサックス・イベントでの講演内容(全文:参考訳)


 2024年9月11日の米国西海岸時間 朝7:20よりサンフランシスコで開催された、NVIDIAのジェンセン・ファンCEOを迎えてのゴールドマンサックスのプライベートイベント「Goldman Sachs Communacopia + Technology Conference 2024」について、NVIDIAのジェンセン・ファンCEOとゴールドマンサックスのデビッド・ソロモンCEOのファイアサイド・チャットの内容全てを参考訳で紹介します。

[主な対談のテーマ]

  • NVIDIAの軌跡とアクセラレーテッド・コンピューティングのビジョン

  • AIの未来とデジタルヒューマン、「スキル」を生み出す新たな産業

  • アクセラレーテッド・コンピューティングが新たなROIの源泉

  • サプライチェーンと地政学的な課題

  • コンペティションと差別化戦略


以下は、ざっくりサマリです。

 ジェンセン・ファンCEOは、ビジョナリーな視点を持ちながらも技術的な詳細にも踏み込み、約40分間の対談が進められました。対談の内容としては、AIは単なるデータセンターの高速化ツールに留まらず、「デジタルヒューマン」のような新たな「スキル」を生み出し、新しい産業を創出するものであると述べています。AIが複数のモダリティを理解し、データ処理を可能にすることで、人間の能力を強化する全く新しいタイプのソフトウェアが誕生するとの見解を示していました。
 また、AI革命はROI(投資対効果)の観点からも注目されており、仮想化とクラウドによるコスト削減の時代は終わりを迎え、アクセラレーテッド・コンピューティングが新たなROIの源泉になる時代が来ているとしています。さらに、汎用的なデータ処理もGPUで行うことが可能となり、例えばSparkのようなデータ処理エンジンをGPUで加速することで、処理速度の大幅な向上とコスト削減を実現し、企業の収益を向上させる具体的なビジネスチャンスが生まれると述べています。
 地政学的な課題に関しては、サプライチェーンの多様性と冗長性の確保に努めており、TSMCとのパートナーシップを強化するだけでなく、他のファブの活用も視野に入れているとしています。同社の競争優位性については、単なるGPUベンダーではなく、チップからソフトウェア、システム全体までを統合的に設計し、アルゴリズムに関する深い理解と広範なインストールベースを持つことが強みであると強調しています。そして、これらを30年間にわたって築き上げてきたエコシステムが、NVIDIAの競争力の源泉であることを強調していました。
ーーーーーーーーーーーーーーーーーーーーーーー
<特に現在抱えている課題について問われた際の回答(下記抜粋)は、Blackwellの需要の高さと顧客の期待を示しているものと解釈でき、来るべき四半期にも朗報かと思います>

「私たちの会社は、今や世界中のあらゆるAI企業と協力しています。すべてのデータセンターやクラウドサービスプロバイダー、コンピュータメーカーとも連携しています。どのデータセンターやクラウドサービスプロバイダーとも協力していないところはないと思います。その結果、非常に大きな責任を負うことになります。私たちは多くの人々の期待を背負っており、みんなが私たちに頼っています。需要が非常に大きいため、私たちの技術やインフラ、ソフトウェアの納品は、顧客の収益や競争力に直接影響するため、非常に感情的なものになっています。
 そのため、以前よりも感情的なお客様が増えています。もちろん、それは当然のことです。もしすべてのニーズに応えられれば、感情的な部分もなくなるでしょうが、現状では非常に緊張感があります。私たちには大きな責任があり、その期待に応えるために最善を尽くしています。現在、Blackwellの生産を加速しており、Q4に出荷を開始し、来年にかけてスケールアップしていきます。需要は非常に大きく、皆が先頭に立ちたい、そして可能な限り多く手に入れたいと願っています。その競争の激しさは本当に異常なくらいです。」


<ファイア・サイド・チャット>


[デビッド・ソロモン](Goldman Sachs)
 
おはようございます。皆さんお元気そうで何よりです。昨晩遅くに到着したのですが、正直、朝の7時20分にステージに立つとは思っていませんでした。でも、皆さんはそう期待されていたようですね。ジェンセンさん、ありがとうございます。
 皆さん、本日はお越しいただきありがとうございます。私もここに来られて大変うれしく思っています。皆さん、このカンファレンスを楽しんでいただけていると良いのですが、素晴らしい企業が集まる本当に素敵なイベントですよね。数千人もの方々が参加していることも、とても素晴らしいことです。そして、何よりジェンセンさんをお迎えできるのは、このイベントのハイライトであり、大きな名誉です。
 
 ジェンセンさんは1993年にNVIDIAを創業され、アクセラレーテッド・コンピューティングを先駆けて推進されてきました。1999年にはGPUを発明し、PCゲーム市場を成長させ、コンピュータの概念を再定義し、現代のAI時代を切り開きました。ジェンセンさんはオレゴン州立大学で学士号を、スタンフォード大学で修士号を取得されています。
それでは、ジェンセンさんを皆さんでお迎えしましょう。

[ジェンセン・フアン](NVIDIA CEO)
 ありがとうございます、ありがとうございます。本当に感謝いたします。

[デビッド・ソロモン](Goldman Sachs)
 では、今日はリラックスした雰囲気で進めていきたいと思います。ジェンセンさんが情熱を持っていらっしゃることについてお話を伺いたいのですが、まずはここから始めさせてください。31年前に会社を創業されましたね。当初はゲーム向けのGPU企業からスタートし、今ではデータセンター業界向けに幅広いハードウェアやソフトウェアを提供する企業へと成長されました。その道のりについて少しお話しいただけますか?創業時にどんなビジョンを持っていたのか、そしてどのように進化してきたのかをお聞かせください。本当に素晴らしい旅路だったと思います。
  そして、これからの展望や、今後の主な優先事項についても少しお話しいただければと思います。今、どのように世界を見ていらっしゃるのか、お聞かせください。

[ジェンセン・フアン](NVIDIA CEO)
 ありがとうございます、デイブ。ここにいられて本当に嬉しいです。NVIDIAが成功した要因のひとつは、一般的なコンピューティングとは異なる形のコンピューティングが登場し、これが一般的な計算機では解決できない問題に取り組む、というビジョンを持っていたことだと思います。その最初のプロセッサは、CPUには非常に難しいことを解決するためのもので、それがコンピューターグラフィックスだったわけです。しかし、私たちはそれを徐々に拡張し、他の分野でも活用できるようにしました。
 最初に選んだのは、当然ながらコンピューターグラフィックスと補完関係にある画像処理でした。それをさらに進めて、物理シミュレーションに取り組みました。というのも、私たちが注力していたのはビデオゲームというアプリケーション分野で、そこでは美しい映像だけでなく、ダイナミックで仮想世界を構築する必要があったからです。このように、少しずつステップを踏み、科学計算の領域にも進出しました。最初に取り組んだのは分子動力学のシミュレーションや、逆物理の一種である地震波処理です。地震波処理はCT再構成にも似ており、これも逆物理の一種です。
 私たちは一歩一歩、補完的なアルゴリズムや隣接する産業を考えながら進んできました。しかし、共通のビジョンとして持っていたのは、アクセラレーテッド・コンピューティングが興味深い問題を解決できるということでした。そして、もう一つ重要だったのは、アーキテクチャを一貫させることでした。つまり、今開発したソフトウェアが、これまで築き上げてきた大規模なインストールベースで動作し、過去に作ったソフトウェアが新しい技術によってさらに加速されるようにすること。このアーキテクチャの互換性を守るという考え方や、エコシステムのソフトウェア投資を大切にしながら進んでいくという心理は、1993年から続けてきたものです。だからこそ、NVIDIA CUDAは今でも非常に大きなインストールベースを持っているのです。ソフトウェア開発者の投資を守ることが、創業当初から会社の最優先事項であり続けてきました。
 そして、これからの展望として、これまでに解決してきた課題には、創業者としての成長やCEOとしての役割、ビジネスを運営する方法、会社を築くためのスキルを学ぶことが含まれます。これらは決して簡単なことではなく、新しいスキルばかりでした。現代のコンピューターゲーム業界を発明するようなものでもありました。多くの人は知らないかもしれませんが、NVIDIAは世界で最大のゲームアーキテクチャのインストールベースを持っています。GeForceは世界中で約3億人のゲーマーに利用されていて、今でも非常に活発に成長しています。
 新しい市場に進出するたびに、私たちは新しいアルゴリズムを学び、市場の動向を理解し、新しいエコシステムを構築しなければなりません。なぜそれが必要かというと、私たちは一般的なコンピューターではなく、アクセラレーテッド・コンピューターを作っているからです。一般的なコンピューターなら、プロセッサさえ作れば全てが最終的に動くものですが、アクセラレーテッド・コンピューターの場合、何を加速させるかを考えなければいけません。つまり、万能のアクセラレーターというものは存在しないのです。

[デビッド・ソロモン](Goldman Sachs)
 少し掘り下げて、汎用コンピューティングとアクセラレーテッド・コンピューティングの違いについてお話しいただけますか?

[ジェンセン・フアン](NVIDIA CEO)
 ソフトウェアを見てみると、プログラムの中にはI/Oの処理やデータ構造の設定など、いくつかの重要な部分が含まれています。その中でも「マジックカーネル」と呼ばれる、特別なアルゴリズムが存在します。これらのアルゴリズムは、コンピューターグラフィックス、画像処理、流体シミュレーション、粒子シミュレーション、逆物理など、アプリケーションによって異なります。それぞれのアルゴリズムに特化したプロセッサを作り、CPUが得意な部分を補完する形で加速することで、アプリケーション全体を大幅にスピードアップできるのです。
 理由は、通常、ソフトウェアのコードの5〜10%が実行時間の99.999%を占めるからです。もしその5%のコードを私たちのアクセラレータにオフロードすることができれば、アプリケーションを理論的には100倍速くすることが可能です。これは決して珍しいことではなく、例えば画像処理なら500倍速くすることも普通にあります。
  今はデータ処理も行っていますが、データ処理は私のお気に入りのアプリケーションの一つです。というのも、機械学習に関連するものはほとんどすべてデータ処理に関わっているからです。SQLデータ処理やSparkのようなデータ処理、ベクターデータベースの処理など、構造化データや非構造化データ、データフレームを処理するさまざまな方法があります。それを徹底的に加速するためには、その上に高度なライブラリを構築する必要があります。コンピューターグラフィックスに関しては、OpenGLやMicrosoft DirectXのような標準ライブラリが存在していたのは幸運でしたが、それ以外の分野ではほとんどライブラリが存在しませんでした。
 例えば、私たちが作った最も有名なライブラリの一つは、SQLに似たものです。SQLはストレージコンピューティングのためのライブラリですが、私たちはcuDNNという世界初のニューラルネットワーク計算ライブラリを開発しました。さらに、組み合わせ最適化のためのcuOpt、量子シミュレーションやエミュレーションのためのcuQuantum、データフレーム処理のcuDFなど、さまざまなライブラリを作りました。これらのライブラリは、アプリケーションで使用されているアルゴリズムを再構築し、私たちのアクセラレータで動作するように最適化しています。これらのライブラリを使うことで、100倍もの高速化が可能になり、信じられないほどのパフォーマンスが得られるのです。
 コンセプト自体はシンプルで理にかなっていますが、問題は、どうやってこれらのアルゴリズムを発明し、ゲーム業界や地震波処理、エネルギー産業、AI業界などに使ってもらうかという点です。各ライブラリに対して、まずはコンピューターサイエンスの面で新しいアルゴリズムを開発し、その後エコシステムを構築し、産業全体に使ってもらう必要があります。さらに、どのコンピューターでそれを動かすのかも考慮しなければならず、コンピューターはどれも異なります。
 私たちは、一つのドメインから次へと進み、自動運転車のための豊富なライブラリ、ロボティクスのための素晴らしいライブラリ、物理ベースやニューラルネットワークベースのバーチャルスクリーニングのライブラリ、そして気候技術のためのライブラリなど、あらゆる分野に対応するものを開発してきました。そして、それぞれの市場に入り込み、協力者を見つけ、マーケットを作り上げていきました。
 NVIDIAが得意としているのは、新しい市場を創り出すことです。私たちはこれを長年にわたって行ってきたため、NVIDIAのアクセラレーテッド・コンピューティングがあらゆるところに存在しているように見えますが、それは一つの産業、一つの市場から次へと、一歩ずつ進めてきた結果なのです。

[デビッド・ソロモン](Goldman Sachs)
 そうですね、観客の多くの投資家がデータセンターマーケットに非常に注目していると思います。中長期的なビジネスチャンスについて、御社の視点をお聞かせいただければと思います。御社の業界は、いわば次の産業革命を支える存在ですが、業界全体が直面している課題についてもお話しいただけますか?現在の時点で、データセンターマーケットをどのように捉えているのかについてもお聞かせください。

[ジェンセン・フアン](NVIDIA CEO)
 同時に2つのことが起きていて、これがしばしば混同されます。それを分けて考えるのは役に立つと思います。まず、AIが全く存在しない世界を想定しましょう。この世界では、汎用コンピューティングが限界に達しています。デナードスケーリングや、トランジスタの縮小やスケーリングといった技術が進んでいた時代は終わり、電力あたりの性能向上やコスト削減による性能向上ももう期待できません。今後、CPUや汎用コンピュータが毎年2倍の速さになることはありません。今では、10年に2倍になれば幸運といった状況です。
 かつてのムーアの法則を覚えていますか?ムーアの法則では、5年で10倍、10年で100倍の性能向上が期待できました。当時はただ待っていればCPUが速くなっていく時代でした。世界中のデータセンターがより多くの情報を処理する一方で、CPUが毎年2倍の速さで進化していたので、計算能力のインフレを感じることはありませんでした。しかし、今ではその時代は終わり、計算能力のインフレが起きています。私たちが今すべきことは、可能な限り全てを加速することです。SQL処理をしているならそれを加速し、データ処理をしているならそれも加速する必要があります。
 特にインターネット企業がレコメンダーシステムを持っている場合、それは完全に加速させるべきです。数年前はすべてがCPU上で動いていましたが、現在、世界最大のデータ処理エンジンであるレコメンダーシステムはすべて加速されています。レコメンダーシステム、検索システム、大量のデータ処理を行うあらゆる大規模なシステムは、加速しなければならないのです。
 最初に起こるのは、世界中にある数兆ドル規模の汎用データセンターが、アクセラレーテッド・コンピューティングへとモダナイズされることです。これはムーアの法則が終わったため、避けられない流れです。まず目にする変化は、コンピュータの密度が高まることです。今の巨大なデータセンターは非効率的で、内部が空気で満たされていますが、空気は電気の伝導率が悪い。理想は、200メガワットの広大なデータセンターを、もっと小型のデータセンターに密集させることです。NVIDIAのサーバーラックを見ると高価に見えますが、1つのラックが数百万ドルすることもあります。ただし、それは何千ものノードを置き換える能力があります。驚くべきことに、古い汎用コンピューティングシステムをつなぐケーブルのコストだけでも、そのシステムをすべて置き換え、小さなラックに密集化するより高くなることがあります。
 密集化の利点は、密集した後に液体冷却が可能になることです。広大なデータセンターを液体冷却するのは難しいですが、小さなデータセンターなら可能です。ですから、私たちがまず行っているのは、データセンターを加速させ、モダナイズし、密集化してエネルギー効率を高めることです。これにより、コスト削減や電力の節約ができ、非常に効率的になります。もしこの点にだけ注力しても、次の10年間はこれで加速を続けることができます。
 しかし、もう一つの大きな変化があります。それは、NVIDIAのアクセラレーテッド・コンピューティングがコンピューティングコストを大幅に削減したことです。ムーアの法則が100倍に進化した代わりに、私たちは過去10年間でコンピューティングを100万倍にスケールアップさせました。この変化で、飛行機がもし100万倍の速さで飛べるようになったら、何が変わるかと同じ質問が出てきます。突然、人々は「コンピュータにソフトウェアを書かせてみてはどうだろう?」と思うようになりました。つまり、私たちが手動でアルゴリズムや特徴を探すのではなく、すべてのデータをコンピュータに渡して、コンピュータ自身がアルゴリズムを見つけるという考え方です。これが機械学習や生成AIです。
 私たちはこれを多くのデータドメインで大規模に行った結果、コンピュータはデータの処理方法だけでなく、データの意味そのものを理解するようになりました。コンピュータは同時に複数のモダリティを理解するため、データを翻訳することができるようになったのです。例えば、英語から画像、画像から英語、英語からタンパク質、タンパク質から化学物質へと変換できるようになりました。
 つまり、AIが全てのデータを一度に理解できるようになったことで、データの翻訳が可能になりました。生成AIとは、大量のテキストを短いテキストに要約したり、逆に少量のテキストから大量のテキストを生成したりする能力のことを指します。これが今起きているコンピューター革命の一環です。まず最初に、数兆ドル規模のデータセンターが加速されており、これが生成AIという新しい種類のソフトウェアを生み出しました。生成AIは単なるツールではなく、「スキル」として機能するというのが面白い点です。
 これが新しい産業を生み出した理由でもあります。従来のIT業界では、人々が使用する機器やツールを作ってきましたが、今回初めて、人を強化する「スキル」を作り出すことになったのです。だからこそ、AIはデータセンターを超え、スキルの世界に広がると言われています。
 では、「スキル」とは何でしょうか?例えば、デジタル運転手が一つのスキルです。自動運転のデジタル化されたライン作業員やロボット、デジタルカスタマーサービスのチャットボット、NVIDIAのサプライチェーンを計画するデジタル社員、デジタルSAPエージェントなどが考えられます。私たちの会社でも、ServiceNowを多用しており、デジタル化された従業員サービスを提供しています。つまり、今では「デジタルヒューマン」が多数存在しているのです。これが現在のAIの波であり、AIが今後ますます広がっていく領域です。

[デビッド・ソロモン](Goldman Sachs)
 少し視点を変えてお聞きします。お話しされた内容を踏まえると、金融市場ではAIインフラの構築が進む中で、投資収益率(ROI)が十分かどうかという議論が続いています。現時点で顧客のROIをどのように評価していますか?また、PCやクラウドコンピューティングが同様の普及段階にあったときのROIと比較して、現在のスケールアップの状況はどのように見えますか?

[ジェンセン・フアン](NVIDIA CEO)
 素晴らしいですね。それでは、振り返ってみましょう。クラウドが普及する前の大きなトレンドは仮想化でした。覚えている方もいるかもしれませんが、仮想化は、データセンター内のすべてのハードウェアを仮想化して、まるで仮想データセンターにするような技術です。これにより、ワークロードを特定のコンピュータに固定するのではなく、データセンター全体に柔軟に移動できるようになりました。その結果、データセンターの効率と利用率が向上し、コスト削減につながりました。仮想化によって、データセンターのコストは一晩で2倍から2.5倍削減されたのです。
 次に行ったのは、仮想化されたコンピュータをクラウドに移すことでした。これにより、複数の企業が同じリソースを共有でき、さらにコストが削減され、利用率が高まりました。ただ、過去10〜15年間の仮想化とクラウドコンピューティングは、CPUやトランジスタのスケーリングが限界に達しているという根本的な問題を覆い隠していました。仮想化がCPUのスケーリングの鈍化を隠していたのです。
 現在、仮想化とクラウドによるコスト削減の恩恵はほぼ尽きてしまい、その結果、データセンターやコンピューティングのコストがインフレ状態にあります。それに対応するための第一の手段がアクセラレーテッド・コンピューティングです。例えば、現在世界で最も広く使われているデータ処理エンジンの一つであるSparkを、NVIDIAのクラウドで加速させると、20倍のスピードアップが見込めます。NVIDIAのGPUにコストを払う必要はありますが、処理時間を20分の1にできるため、結果的に10倍のコスト削減が実現します。アクセラレーテッド・コンピューティングにおいては、このようなROI(投資利益率)は珍しくありません。ですので、できる限りすべての処理を加速し、GPUで実行することをお勧めします。これが、加速から得られる即時のROIです。
 次に、生成AIの話題ですが、今はまだ第一波に過ぎません。私たちのようなインフラプロバイダーやクラウドサービス提供者が、クラウド上にインフラを整備し、開発者がモデルをトレーニングしたり、ファインチューニングしたり、ガードレールを設けたりしています。この分野への投資は素晴らしいリターンを生み出しています。需要が非常に高いため、私たちに1ドル投資すると、それが5ドル分のレンタル収入に転換されるほどです。世界中でこの現象が起きており、すべてが売り切れ状態です。
 この需要は非常に大きく、すでに存在しているアプリケーションとしては、OpenAIのChatGPTやGitHub Copilotなどがあり、それらは驚異的な生産性向上をもたらしています。現在、私たちの会社では、ソフトウェアエンジニアの誰もがコード生成ツールを使用しています。CUDAやUSD(社内で使っている言語)、Verilog、C++などのために私たち自身で作ったコードジェネレータを利用しており、もはやすべてのコードをエンジニアが手で書く時代は完全に終わったといえるでしょう。現在のソフトウェアエンジニアたちは、24時間体制で働くデジタルエンジニアの補助を受けているのです。それが未来の姿です。
 私が見るNVIDIAの未来では、私たちの32,000人の社員が、100倍ものデジタルエンジニアに囲まれるようになることを願っています。

[デビッド・ソロモン](Goldman Sachs)
 そうですね、多くの業界がこれを受け入れています。特にどのユースケースや業界に対して最も期待していますか?

[ジェンセン・フアン](NVIDIA CEO)
 私たちの会社でも、コンピューターグラフィックスにAIを活用しています。今では、AIなしではグラフィックス処理ができません。例えば、1ピクセルを計算し、残りの32ピクセルは推論によって補完します。これは信じられないほどの技術です。言い方を変えれば、他の32ピクセルを「幻覚」のように生成し、それが時間的に安定して、フォトリアリスティックな画質になるのです。画像のクオリティもパフォーマンスも驚異的で、エネルギーの節約も非常に大きいです。1ピクセルを計算するのにはかなりのエネルギーが必要ですが、残りの32ピクセルを推論するのはほとんどエネルギーを使わず、非常に速く処理できます。ですから、AIはモデルのトレーニングだけでなく、実際にモデルを使うことが重要です。モデルを活用することで、莫大なエネルギーと処理時間を節約できるのです。
 私たちはこの技術をコンピューターグラフィックスに利用していますが、AIがなければ自動運転業界にも対応できません。ロボティクスやデジタルバイオロジーの分野でも同様で、最近会うバイオテクノロジー企業のほとんどがNVIDIAの技術を基盤にしています。彼らはデータ処理やタンパク質の生成にAIを使っています。この分野は非常にエキサイティングです。小分子生成やバーチャルスクリーニングなど、AIによるコンピュータ支援型の新薬発見技術が初めてこの領域を一新しようとしています。本当に素晴らしい仕事がそこでも行われています。

[デビッド・ソロモン](Goldman Sachs)
 競争についてお聞かせください。現在、公開企業や非公開企業を問わず、御社のリーダーシップポジションを脅かそうとする企業が存在しています。競争戦略についてはどのようにお考えですか?

[ジェンセン・フアン](NVIDIA CEO)
 まず、私たちについて特に違う点がいくつかあると思います。まず重要なのは、AIは「チップ」だけの話ではないということです。AIはインフラ全体に関わるものです。今日のコンピューティングは、「チップを作って、それを人々が購入してコンピューターに組み込む」というようなものではありません。それは1990年代の考え方です。
 現在のコンピュータの構築方法を見ると、たとえば新しいBlackwellシステムでは、7種類の異なるチップをデザインしてシステム全体を構築しています。そのうちの一つがBlackwellです。このように、システム全体を見据えた設計が求められているのです。

[デビッド・ソロモン](Goldman Sachs)
 Blackwllのことについて話せますか?

[ジェンセン・フアン](NVIDIA CEO)
 ええ。驚くべきことに、AIコンピュータを構築しようとすると、「スーパーコンピュータインフラ」や「スーパーコンピュータ」という言葉が使われるのも納得がいきます。それは単なるチップやコンピュータの話ではなく、データセンター全体を構築しているからです。これらの「スーパークラスター」を見ると、どれだけのソフトウェアが必要かを想像できます。これらのシステムには、Windowsのような既存のオペレーティングシステムはありません。その時代は終わり、内部のソフトウェアは完全にカスタムメイドです。誰かがそれを一から作らなければなりません。
 チップを設計する人、スーパーコンピュータやスーパークラスターを設計する企業、そしてその中で動作するソフトウェアを開発する企業が同じであるのは理にかなっています。これにより、システム全体が最適化され、性能が向上し、エネルギー効率も高まり、コスト効果も得られるからです。これが一つ目のポイントです。
 次に重要なのはアルゴリズムです。私たちはアルゴリズムが何であるか、コンピューティングスタックへの影響、そして何百万ものプロセッサにどう計算を分散させるかを深く理解しています。私たちは何日もコンピュータを稼働させ、耐久性を高め、エネルギー効率を最大限にし、可能な限り早くタスクを完了させることに非常に長けています。
 最後に、AIはコンピューティングそのものです。AIはコンピュータ上で動作するソフトウェアであり、そのためには広範なインストールベースが非常に重要です。オンプレミスからクラウドまで、どの環境でも同じアーキテクチャが使えることが必要です。クラウドでも、自分のスーパーコンピュータでも、車やロボット、PCで動かす場合でも、同じソフトウェアが動作する同じアーキテクチャを持つことは非常に重要です。これが「インストールベース」と呼ばれるものです。
 過去30年間、この規律を守り続けたことで、現在の状況があります。もし今、新しい会社を始めるとしたら、最も自然な選択肢としてNVIDIAのアーキテクチャを使う理由がここにあります。私たちはすべてのクラウドに存在しており、どこでも利用できます。「NVIDIA inside」と書かれたコンピュータなら、そのソフトウェアがすぐに動くことがわかるのです。

[デビッド・ソロモン](Goldman Sachs)
 あなたは非常に速いペースでイノベーションを進めています。具体的に、前世代のHopperと比較して、トレーニング速度が4倍、推論速度が30倍も速いBlackwellについて少しお話しいただけますか?これほど急速なイノベーションを続けることは可能でしょうか?また、パートナーとの関係において、どのようにしてパートナーがこのイノベーションのスピードについていけると考えていますか?

[ジェンセン・フアン](NVIDIA CEO)
 イノベーションのスピードについてですが、私たちの基本的な方法論は、インフラを構築するということを踏まえています。7つの異なるチップを使っており、それぞれのチップの進化のリズムは、最速でも2年程度です。年に一度、中間的な改善を加えることは可能ですが、新しいアーキテクチャを2年ごとに生み出すとなると、まさに光の速さで進んでいることになります。それに加えて、7種類のチップがすべてパフォーマンスに貢献しているため、毎年新しいAIクラスターやスーパーコンピュータークラスターを市場に投入でき、前世代よりも性能が向上しています。
 このように大規模なパフォーマンスの向上は、直接的にTCO(総所有コスト)に反映されます。たとえば、Blackwellが3倍の性能を持っているとします。1GWの電力を持つお客様にとっては、これは収益が3倍になることを意味します。この性能向上は処理能力に直結し、その処理能力が収益に変わるのです。1ギガワットの電力を持つお客様は、同じ電力で3倍の収益を得ることができるのです。これは、チップの価格を引き下げたり割引したりするだけでは到底実現できないメリットです。
 私たちがこれだけの性能向上を提供できるのは、異なる要素を統合し、全体のスタックやクラスターを最適化する能力があるからです。その結果、より高い価値を提供できるのです。逆に言えば、同じ電力であれば3倍の収益を得ることができ、同じ支出額であれば3倍の性能を得ることができます。これは、コスト削減の一形態ともいえます。私たちは1ワットあたりの最高の性能を持っており、それが収益につながります。また、TCOあたりの最高の性能を持っているため、これが粗利益率を向上させます。このような価値を市場に提供することで、お客様は毎回利益を得ることができるのです。
 さらに、このアーキテクチャは互換性があるため、昨日開発したソフトウェアは明日も動作し、今日開発したソフトウェアは既存のインストールベース全体で動作します。これにより、非常に迅速に進化を遂げることができます。もしそれぞれのアーキテクチャが異なっていたら、このようなスピードは実現できません。システムを組み上げるのに1年はかかるでしょう。しかし、私たちはすべてを統合して作っているので、出荷後すぐに稼働できます。ある人がツイートしたのですが、私たちがシステムを出荷して19日後にスーパークラスターが稼働したというのです。これが可能なのは、チップを寄せ集めてソフトウェアを一から書く必要がないからです。寄せ集めていたら、1年かかってもできないでしょう。
 このように、私たちのイノベーションのペースをお客様に提供し、それによって収益が増え、粗利益率が向上するというのは、非常に素晴らしいことだと思います。

[デビッド・ソロモン](Goldman Sachs)
 あなたのサプライチェーンパートナーの大半は、特に台湾を中心にアジアで事業を展開しています。現在の地政学的な状況を踏まえ、今後についてどのように考えていますか?

[ジェンセン・フアン](NVIDIA CEO)
 アジアのサプライチェーンは非常に広範で複雑に絡み合っています。多くの人は、GPUと聞くと、かつてのように新しいチップを発表して、それを手に持ち上げるシーンを思い浮かべるかもしれません。しかし、今のNVIDIAの新しいGPUは35,000もの部品から構成され、重さは80ポンド、消費電力は10,000アンペアにも達します。それをラックに積み上げると、重量は3,000ポンドにもなるのです。これらのGPUは非常に複雑で、まるで電気自動車のように多くの部品で成り立っており、アジア全体のエコシステムが互いに密接に結びついています。
 私たちは、可能な限り多様性と冗長性を設計に組み込むよう努めています。その一環として、知的財産を社内に十分保持し、もしファブを移す必要が生じた場合でも、それに対応できる能力を持っています。たとえ移行先のプロセス技術が最先端でなくても、同じレベルの性能やコストを達成できない可能性があっても、供給を確保することができるのです。何かが起きても、別の場所で製造を続けられるように準備しています。
 現在、私たちはTSMCで製造しています。なぜなら、TSMCは世界で最も優れたファブであり、その差は圧倒的です。長年のパートナーシップもそうですが、彼らの機動力やスケールアップの能力が素晴らしいからです。昨年のNVIDIAの収益は急激に成長しましたが、それはサプライチェーンが迅速に対応したからこそ可能でした。TSMCを含むサプライチェーンの機動力は驚異的で、1年足らずで生産能力を大幅に拡大し、今後もさらにスケールアップしていく必要があります。
 その対応力と能力は本当に素晴らしいものです。私たちがTSMCを使うのは、彼らが優れているからですが、必要であれば他のファブも稼働させることができる準備があります。

[デビッド・ソロモン](Goldman Sachs)
 そうですね、会社は非常に良いポジションにありますし、素晴らしい取り組みもたくさん進んでいます。ただ、気になっている点については、いくつかあるのでしょうか?

[ジェンセン・フアン](NVIDIA CEO)
 私たちの会社は、今や世界中のあらゆるAI企業と協力しています。すべてのデータセンターやクラウドサービスプロバイダー、コンピュータメーカーとも連携しています。どのデータセンターやクラウドサービスプロバイダーとも協力していないところはないと思います。その結果、非常に大きな責任を負うことになります。私たちは多くの人々の期待を背負っており、みんなが私たちに頼っています。需要が非常に大きいため、私たちの技術やインフラ、ソフトウェアの納品は、顧客の収益や競争力に直接影響するため、非常に感情的なものになっています。
 そのため、以前よりも感情的なお客様が増えています。もちろん、それは当然のことです。もしすべてのニーズに応えられれば、感情的な部分もなくなるでしょうが、現状では非常に緊張感があります。私たちには大きな責任があり、その期待に応えるために最善を尽くしています。現在、Blackwellの生産を加速しており、Q4に出荷を開始し、来年にかけてスケールアップしていきます。需要は非常に大きく、皆が先頭に立ちたい、そして可能な限り多く手に入れたいと願っています。その競争の激しさは本当に異常なくらいです。
 新しいコンピュータ時代を発明するのは楽しいことですし、驚くべきアプリケーションが次々と生まれているのを見るのは刺激的です。ロボットが歩き回る光景や、デジタルエージェントがチームを組んで問題を解決していく様子もすごいです。また、私たちが使っているAIが、新しいAIを動かすためのチップを設計しているのも驚くべきことです。すべてが目を見張るものです。
 ただ、非常に大きな責任を感じているのも事実です。そのため、睡眠が少なくても大丈夫だと思っています。3時間しっかり眠れれば、それで十分です。

[デビッド・ソロモン](Goldman Sachs)
 ありがとうございます。私はもう少し時間が必要ですが、残念ながら、ここで終わらなければなりません。ジェンセンさん、本当にありがとうございました。お越しいただき、お話を共有してくださって感謝しています。ありがとうございました。

[ジェンセン・フアン](NVIDIA CEO)
 ありがとうございました。
 
 


以上です。


<御礼>

 最後までお読み頂きまして誠に有難うございます。
役に立ちましたら、スキ、フォロー頂けると大変喜び、モチベーションにもつながりますので、是非よろしくお願いいたします。 
だうじょん


<免責事項>

 本執筆内容は、執筆者個人の備忘録を情報提供のみを目的として公開するものであり、いかなる金融商品や個別株への投資勧誘や投資手法を推奨するものではありません。また、本執筆によって提供される情報は、個々の読者の方々にとって適切であるとは限らず、またその真実性、完全性、正確性、いかなる特定の目的への適時性について保証されるものではありません。 投資を行う際は、株式への投資は大きなリスクを伴うものであることをご認識の上、読者の皆様ご自身の判断と責任で投資なされるようお願い申し上げます。



この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?