見出し画像

NVDAのカンファレンスコール(2024Q1)の一部参考和訳

コレット・クレス

ありがとう、シモーナ。第1四半期も記録的な四半期でした。売上高は260億ドルで、前四半期比18%増、前年同期比262%増となり、見通しの240億ドルを大きく上回りました。

データセンターから始めましょう。データセンターの売上高は226億ドルで、前四半期比23%増、前年同期比427%増となり、記録的な伸びとなりました。コンピュート売上は前年比5倍以上、ネットワーク売上は同3倍以上の伸びとなった。

データセンターは、企業や消費者向けインターネット企業が牽引し、すべての顧客タイプで前四半期比で大幅な成長を遂げた。大規模なクラウドプロバイダーは、エヌビディアのAIインフラストラクチャを大規模に導入し増強しているため、引き続き力強い成長を牽引しており、当社のデータセンター売上高に占める割合は40%台半ばを占めています。

NVIDIA CUDA上でのAIのトレーニングと推論は、クラウドレンタルの収益成長を加速させ、クラウドプロバイダーの投資に即座に強力なリターンをもたらしています。NVIDIA AIインフラストラクチャに1ドル費やすごとに、クラウドプロバイダーは4年間で5ドルのGPUインスタントホスティング収益を得る機会があります。NVIDIAの豊富なソフトウェアスタックとエコシステム、そしてクラウドプロバイダーとの緊密な統合により、エンドカスタマーはパブリッククラウド上のNVIDIA GPUインスタンスを簡単に立ち上げて稼働させることができます。

クラウドレンタルの顧客にとって、NVIDIA GPUは、モデルを訓練するための最良の時間、モデルを訓練するための最低のコスト、大規模な言語モデルを推論するための最低のコストを提供します。パブリック・クラウド・プロバイダーにとって、NVIDIAは顧客を自社のクラウドに呼び込み、収益の増加とインフラ投資に対するリターンを促進します。OpenAI、Adept、Anthropic、Character.AI、Cohere、Databricks、DeepMind、Meta、Mistral、xAIなどの大手LLM企業が、NVIDIAのクラウドAIを利用しています。

今四半期のデータセンターでは、企業が力強い前四半期比成長を牽引しました。当社は、TeslaのトレーニングAIクラスターを35,000個のH100 GPUに拡張することをサポートしました。NVIDIA AI インフラストラクチャの利用は、Vision に基づく最新の自律走行ソフトウェアである FSD バージョン 12 の画期的なパフォーマンスへの道を開きました。

Video Transformersは、大幅に多くのコンピューティングを消費しながらも、劇的に優れた自律走行機能を実現し、自動車業界全体でNVIDIA AIインフラストラクチャの大きな成長を後押ししています。我々は、自動車が今年、データセンターの中で最大の企業垂直統合となり、オンプレムとクラウドの消費全体で数十億の収益機会を促進すると予想しています。

コンシューマー・インターネット企業も力強い成長業種です。今四半期の大きな目玉は、24,000個のH100 GPUクラスタで学習させた最新の大規模言語モデル、Llama 3の発表でした。Llama 3は、Facebook、Instagram、WhatsApp、Messengerで利用可能な新しいAIアシスタント、Meta AIを駆動する。Llama 3はオープンに利用可能で、産業界にAI開発の波を巻き起こした。

ジェネレーティブAIがより多くの消費者向けインターネット・アプリケーションに導入されるにつれて、推論はモデルの複雑さだけでなく、ユーザー数やユーザーごとのクエリ数にも比例して拡張され、AIコンピュートへの需要がさらに高まるため、継続的な成長の機会が期待されます。

直近の4四半期では、推論がデータセンターの収益の約40%を占めていると推定しています。トレーニングも推論も著しく成長しています。メタやテスラによって構築されたような大規模なクラスターは、AI生産に不可欠なインフラの一例であり、我々がAI工場と呼ぶものである。

このような次世代データセンターは、高度なフルスタック・アクセラレーション・コンピューティング・プラットフォームをホストしており、そこにデータが入ってきてインテリジェンスが出てくる。第1四半期には、数百から数万GPU、中には10万GPUに達する規模のAIファクトリーを構築する100以上の顧客と協力しました。

地理的な観点から見ると、世界各国がソブリンAIに投資しているため、データセンターの収益は引き続き多様化しています。ソブリンAIとは、自国のインフラ、データ、労働力、ビジネスネットワークを使って人工知能を生産する国の能力を指します。

各国は様々なモデルを通じて国内のコンピューティング能力を増強している。国営の通信プロバイダーや公益事業者と共同でソブリンAIクラウドを調達し、運用しているところもある。また、地域のクラウドパートナーを後援して、公共部門と民間部門が利用できる共有AIコンピューティングプラットフォームを提供しているところもある。

例えば、日本はソブリンAIインフラを構築するため、KDDI、さくらインターネット、ソフトバンクなどの主要デジタル・インフラ・プロバイダーに7億4,000万ドル(約1100億円)以上を投資する計画だ。フランスを拠点とするイリアド・グループの子会社であるScaleway社は、ヨーロッパで最も強力なクラウドネイティブAIスーパーコンピューターを構築している。

イタリアでは、スイスコム・グループが国内初で最も強力なNVIDIA DGX搭載スーパーコンピューターを構築し、イタリア語でネイティブに訓練された初のLLMを開発する。またシンガポールでは、国立スーパーコンピュータセンターがNVIDIA Hopper GPUでアップグレードされ、シングテルは東南アジア全域にNVIDIAの加速AI工場を建設している。

エンドツーエンドのコンピュートからネットワーキング技術、フルスタックソフトウェア、AIの専門知識、パートナーや顧客との豊富なエコシステムを提供するNVIDIAの能力により、ソブリンAIと地域のクラウドプロバイダーは、自国のAIの野望を飛躍させることができます。前年はゼロだったソブリンAIの収益が、今年は一桁台後半に近づく可能性があると我々は考えている。AIの重要性はあらゆる国の注目を集めている。

当社は、輸出管理ライセンスを必要としない中国専用設計の新製品を開発しました。当社の中国におけるデータセンターの売上高は、10月に新たな輸出規制が発動される前の水準から大幅に減少している。中国市場は今後も非常に競争が激しくなると予想しています。

製品面では、コンピュート収益の大部分は当社のHopper GPUアーキテクチャによるものです。当四半期におけるHopperの需要は引き続き増加しています。CUDA アルゴリズムの革新により、H100 の LLM 推論を最大 3 倍高速化することができ、Llama 3 のような一般的なモデルの処理コストを 3 倍削減することができます。

H200は第1四半期にサンプル出荷を開始し、現在は第2四半期の出荷に向けて生産中です。最初のH200システムはジェンセンからサム・アルトマンとOpenAIのチームに納品され、先週彼らの素晴らしいGPT-4oのデモを動かした。H200はH100の2倍近い推論性能を持ち、プロダクションの展開に大きな価値をもたらします。

例えば、7,000億のパラメータを持つLlama 3を使用した場合、NVIDIA HGX H200サーバー1台で、毎秒24,000トークンを提供し、同時に2,400人以上のユーザーをサポートすることができます。つまり、トークン1個あたりの現在の価格でNVIDIA HGX H200サーバーに1ドル使うごとに、Llama 3トークンを提供するAPIプロバイダーは、4年間で7ドルの収益を上げることができます。

継続的なソフトウェアの最適化により、私たちはAIモデルを提供するためのNVIDIA AIインフラのパフォーマンスを改善し続けています。H100の供給は証明されていますが、H200についてはまだ制約があります。同時に、Blackwellはフル稼働しています。我々は、今年後半にグローバルに利用できるよう、システムとクラウドパートナーの立ち上げに取り組んでいます。H200とBlackwellの需要は供給を大きく上回っており、来年にかけて需要が供給を上回る可能性があると予想しています。

Grace Hopper Superchipは大量に出荷されています。先週開催された国際スーパーコンピューティング会議において、私たちは、世界で新たに9台のスーパーコンピュータがGrace Hopperを採用し、合計200エクサフロップスのエネルギー効率に優れたAI処理能力を今年中に提供することを発表しました。

その中には、欧州最速のAIスーパーコンピューターであるスイス国立スーパーコンピューティング・センターのアルプス・スーパーコンピューターも含まれています。英国のブリストル大学のIsambard-AI、ドイツのユーリッヒ・スーパーコンピューティング・センターのJUPITERなどである。

グレース・ホッパーのエネルギー効率と性能の高さから、スーパーコンピューティングへの導入率は80%に達しています。また、Grace Hopperを搭載したスーパーコンピュータが、世界で最もエネルギー効率の高いスーパーコンピュータの1位、2位、3位を獲得したことを誇りに思います。

ネットワークの前年比成長率は、InfiniBand が牽引しました。前四半期比では小幅な落ち込みとなりましたが、これは主に供給のタイミングによるもので、需要が当社の出荷能力を大きく上回っていたためです。第 2 四半期には、ネットワークは再び前四半期比で成長すると予想しています。第1四半期には、AI向けに一から最適化した新しいSpectrum-X Ethernetネットワーキング・ソリューションの出荷を開始しました。

このソリューションには、Spectrum-4スイッチ、BlueField-3 DPU、およびイーサネット上のAIの課題を克服するための新しいソフトウェア技術が含まれ、従来のイーサネットと比較してAI処理に1.6倍のネットワーク性能を提供します。

新しいネットワーキング・ソリューションであるSpectrum-X は、100,000 個の大規模な GPU クラスターを含む、複数の顧客で量産を開始しています。Spectrum-Xは、エヌビディアのネットワーキングに全く新しい市場を開き、イーサネットのみのデータセンターが大規模AIに対応できるようにします。我々は、Spectrum-Xが1年以内に数十億ドル規模の製品ラインに飛躍すると期待している。

3月のGTCでは、次世代AIファクトリープラットフォーム「Blackwell」を発表しました。Blackwell GPUアーキテクチャーは、H100よりも最大4倍高速な学習と30倍高速な推論を実現し、1兆パラメータ規模の大規模言語モデルでリアルタイムの生成AIを可能にします。

Blackwellは、Hopperと比較してTCOとエネルギー消費量を最大25倍削減し、大きな飛躍を遂げます。Blackwellプラットフォームには、マルチGPUスパインを備えた第5世代のNVLinkと、1兆パラメータ規模のAI向けに設計された新しいInfiniBandおよびイーサネットスイッチ、X800シリーズが含まれています。

Blackwellは、ハイパースケールからエンタープライズまで、トレーニングから推論まで、x86からGrace CPUまで、イーサネットからInfiniBandネットワーキングまで、空冷から液冷まで、あらゆるデータセンターをサポートするように設計されている。Blackwellは、Hopperの発売時の2倍以上となる100以上のOEMおよびODMシステムで発売され、世界の主要なコンピューター・メーカーを代表するものとなります。これにより、初年度の出荷では、顧客のタイプ、ワークロード、データセンター環境を問わず、迅速かつ広範な導入が可能になります。

BlackwellのTime-to-Market顧客には、Amazon、Google、Meta、Microsoft、OpenAI、Oracle、Tesla、xAIが含まれます。当社は、NVIDIA Inference Microservices(NIM)を導入した新しいソフトウェア製品を発表しました。

NIMは、NVIDIA CUDAアクセラレーションを搭載したセキュアでパフォーマンス最適化されたコンテナを、Triton Inference ServerやTensorRT LLMなどのネットワークコンピューティングや推論ソフトウェアに提供し、テキスト、音声、画像、ビジョン、ロボット、ゲノム、デジタル生物学などの大規模言語モデルを含む幅広いユースケースに対応する業界標準のAPIを提供します。

開発者は、NVIDIA、AI21、Adept、Cohere、Getty Images、Shutterstockの主要モデルや、Google、Hugging Face、Meta、Microsoft、Mistral AI、Snowflake、Stability AIのオープンモデルを使用して、生成AIアプリケーションを迅速に構築し、展開することができます。NIMは、クラウドまたはオンプレムでの本番展開のためのNVIDIA AIエンタープライズ・ソフトウェア・プラットフォームの一部として提供されます。

ゲーミングPCとAI PCへの移行ゲーミングの売上高は26億5000万ドルで、前四半期比8%減、前年同期比18%増となり、季節的に減少するという当社の見通しと一致しました。GeForce RTXスーパーGPUの市場受けは好調で、最終需要とチャネル在庫は製品群全体で健全に推移した。

AIの旅が始まった当初から、我々はGeForce RTX GPUにCUDAテンソルコアを搭載しました。現在、GeForce RTX GPUは1億台以上のインストールベースがあり、ゲーマー、クリエイター、AI愛好家に最適で、PC上でジェネレーティブAIアプリケーションを実行するための比類ない性能を提供します。

NVIDIAは、GeForce RTX PC上で高速かつ効率的なジェネレーティブAI推論を展開し、実行するための完全な技術スタックを備えています。TensorRT LLMは現在、MicrosoftのPhi-3-Miniモデル、GoogleのGemma 2Bおよび7Bモデル、さらにLangChainやLlamaIndexを含む一般的なAIフレームワークを高速化しています。昨日、NVIDIAとMicrosoftは、NVIDIA GeForce RTX AI PC上でLLMを最大3倍高速に実行するためのWindows向けAIパフォーマンス最適化を発表しました。

また、NetEase Games、TencentおよびUbisoftを含むトップクラスのゲーム開発者は、NVIDIA Avatar Character Engineを採用し、ゲーマーと非プレイアブルキャラクター間のインタラクションを変化させる本物そっくりのアバターを作成しています。

ProVisに移ります。売上高は4億2700万ドルで、前四半期比8%減、前年同期比45%増でした。我々は、ジェネレーティブAIとOmniverseの産業用デジタル化が、プロフェッショナル・ビジュアライゼーションの次の成長の波を牽引すると考えている。GTCでは、開発者がOmniverseの産業用デジタルツインとシミュレーション技術をアプリケーションに統合できるようにする新しいOmniverse Cloud APIを発表しました。

ANSYS、Cadence、Dassault Systemesの3DEXCITE、Brand、Siemensなど、世界最大の産業用ソフトウェアメーカーがこれらのAPIを採用しています。また、開発者は、Apple Vision Proのような空間コンピューティングデバイスで産業用デジタルツインをストリーミングするために、これらのAPIを使用することができます。Omniverse Cloud APIは、今年後半にMicrosoft Azureで利用可能になる予定です。

企業はワークフローのデジタル化にOmniverseを利用している。Omniverseのパワーデジタルツインは、当社の製造パートナーの1つであるWistron社が、エンドツーエンドの生産サイクルタイムを50%短縮し、不良率を40%削減することを可能にしました。また、世界最大の電気自動車メーカーであるBYDは、仮想工場計画と小売コンフィギュレーションにオムニバースを採用しています。

自動車業界に話を移そう。売上高は前四半期比17%増、前年同期比11%増の3億2900万ドルでした。前四半期比で増収となったのは、グローバルOEM顧客とのAIコックピット・ソリューションの立ち上がりと自動運転プラットフォームの好調によるものです。前年同期比では主に自動運転が成長を牽引した。エヌビディアは、シャオミの初の電気自動車SU7セダンの発売をサポートし、ソフトウェア定義のAVフリート用AIカーコンピュータであるエヌビディア・ドライブ・オリンを搭載したSU7セダンの発売を成功させました。

また、BYD、XPeng、GACのAion Hyper、Neuroを含むいくつかの主要なEVメーカーと、新しいNVIDIA Blackwellアーキテクチャを搭載したOrinの後継機であるNVIDIA DRIVE Thorに関する多くの新しいデザインウィンを発表しました。DRIVE Thorは、来年から量産車に搭載される予定です。

なるほど。損益計算書の残りの部分に移ります。GAAPベースの売上総利益率は78.4%、非GAAPベースの売上総利益率は在庫目標の減少により78.9%と、前四半期比で拡大しました。前四半期に述べたように、第4四半期と第1四半期は部品コストの改善による恩恵を受けました。前四半期比では、GAAP基準の営業費用は10%増、非GAAP基準の営業費用は13%増となったが、これは主に報酬関連費用の増加、コンピュートおよびインフラ投資の増加を反映したものである。

第 1 四半期には、自社株買いおよび現金配当の形で 78 億ドルを株主に還元しました。本日、6月10日を分割調整後の取引開始日として、1株を10株に分割することを発表しました。また、配当金を150%増配します。

第2四半期の見通しについてご説明します。総収益は280億ドル、プラスマイナス2%を見込んでいます。すべての市場プラットフォームで前四半期比の成長を見込んでいます。GAAPベースの売上総利益率は74.8%、非GAAPベースの売上総利益率は75.5%となる見込みです。

通期の売上総利益率は70%台半ばを見込んでいます。GAAP基準の営業費用は約40億ドル、非GAAP基準の営業費用は約28億ドルとなる見込みです。通期の営業費用は40%台前半の伸びを見込んでいます。

GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資からの損益を除き、失礼ながら約3億ドルの利益を見込んでいます。GAAPおよび非GAAPベースの税率は、個別項目を除き、プラスマイナス1%の17%を見込んでいます。さらなる財務の詳細については、CFOのコメントおよびIRウェブサイトで入手可能なその他の情報に記載されています。

それでは、ジェンセンからコメントをいただきたいと思います。

ジェンセン・ファン

ありがとう、コレット。業界は大きな変化を遂げようとしています。Q&Aを始める前に、変革の重要性について少しお話ししましょう。次の産業革命が始まりました。

企業や国はエヌビディアと提携し、従来のデータセンターの1兆ドル規模のインストールベースをアクセラレーテッド・コンピューティングに移行させ、新しいタイプのデータセンター、AIファクトリーを構築し、新しい商品である人工知能を生産しようとしています。

AIは、ほぼすべての業界に大幅な生産性向上をもたらし、企業が収益機会を拡大しながら、コストとエネルギー効率を高めるのに役立つだろう。CSPは、AIを生成する最初のムーバーである。エヌビディアとともに、CSPはワークロードを高速化し、コストと電力を節約した。NVIDIA Hopperによって生成されたトークンは、AIサービスの収益を促進します。そして、NVIDIAクラウドインスタンスは、開発者の豊富なエコシステムからレンタル顧客を引き寄せます。

旺盛で加速する需要の中で 、Hopperプラットフォーム上での生成的AIトレーニングと推論に対する加速する需要が、当社のデータセンターの成長を後押ししています。トレーニングは、モデルがマルチモーダル、テキスト、音声、画像、ビデオ、3Dを理解し、推論と計画を学習するようになるにつれて拡大し続けています。

推論ワークロードは驚くほど成長しています。ジェネレーティブAIでは、大規模で高速なトークン生成を行う推論が非常に複雑になっています。ジェネレーティブAIは、あらゆるコンピュータのインタラクションを変革する、基礎から応用までのフルスタック・コンピューティング・プラットフォームのシフトを推進している。

AIは今日の情報検索モデルから、回答やスキル生成モデルのコンピューティングへと移行しつつある。AIは文脈と我々の意図を理解し、知識を持ち、推論し、計画し、タスクを実行する。

汎用CPUからGPUアクセラレーション・コンピューティングへ、命令駆動型ソフトウェアから意図理解型モデルへ、情報の検索からスキルの実行へ、そして産業レベルではソフトウェアの生産からトークンの生成、デジタル・インテリジェンスの製造へと、コンピューティングの仕組みとコンピュータにできることを根本的に変えようとしている。

トークンの生成は、AIファクトリーの数年にわたる増築を推進するだろう。クラウド・サービス・プロバイダーだけでなく、ジェネレーティブAIはコンシューマー・インターネット企業やエンタープライズ、ソブリンAI、自動車、ヘルスケアなどの顧客にも拡大しており、数十億ドル規模の垂直市場が複数生まれている。

Blackwellプラットフォームはフル稼働しており、1兆パラメータ規模のジェネレーティブAIの基盤を形成している。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、ミックスとスイッチ、高速インターコネクト、ソフトウェアとパートナーの豊富なエコシステムの組み合わせにより、私たちはAI工場向けに、前世代よりも豊富で完全なソリューションを拡大・提供することができます。

Spectrum-Xは、イーサネットのみのデータセンターに大規模AIをもたらすという、まったく新しい市場を切り開きます。また、NVIDIA NIMsは、エコシステムパートナーの広範なネットワークを通じて、クラウドからオンプレムデータセンター、RTX AI PCまで、あらゆる場所でCUDA上で実行するエンタープライズグレードの最適化されたジェネレーティブAIを提供する当社の新しいソフトウェアです。BlackwellからSpectrum-X、そしてNIMsに至るまで、私たちは次の成長の波に向けて態勢を整えています。ありがとうございました。

シモナ・ヤンコフスキー

ありがとう、ジェンセン。質問を受け付けます。オペレーター、質問をお願いします。

質疑応答

オペレーター

[最初のご質問は、バーンスタインのステイシー・ラスゴンさんからです。どうぞ。

ステイシー・ラスゴン

こんにちは。私の質問に答えてくれてありがとう。最初の質問ですが、Blackwellの「現在フル生産中」というコメントについて少し掘り下げてみたいと思います。もしその製品が......もうサンプリングではないようですが。現在生産中ということは、実際に顧客の手に渡るのはいつになるのでしょうか?

ジェンセン・ファン

出荷する予定です。Blackwellの生産が始まって少し経ちますが、第2四半期から出荷を開始し、第3四半期から順次出荷する予定です。生産出荷は第2四半期から始まり、第3四半期には立ち上がり、第4四半期にはお客様のデータセンターが立ち上がるはずです。

ステイシー・ラスゴン

分かりました。ということは、今年はBlackwellの収益が見込めそうですね?

ジェンセン・ファン

今年は多くのBlackwellの収益が見込めます。

オペレーター

次の質問はUBSのティモシー・アルクリです。どうぞ。

ティモシー・アルクリ

ありがとうございます。ジェンセンさんにお聞きしたいのですが、Blackwellの配備とHopperの配備の違いについてです。Blackwellの配備はHopperとどう違うのですか?というのも、大規模な液冷はこれまでに例がなく、ノードレベルでもデータセンター内でもエンジニアリング上の課題があるからです。このような複雑さが移行を長引かせているのでしょうか?また、どのように移行を考えていますか?ありがとうございます。

ジェンセン・ファン

Blackwellには様々な構成があります。BlackwellはGPUではなくプラットフォームです。このプラットフォームは、空冷、液冷、x86、Grace、InfiniBand、そしてGTCでデモしたSpectrum-Xと非常に大規模なNVLinkドメインをサポートしています。そのため、一部の顧客は、すでにHopperを出荷している既存のデータセンターのインストール・ベースと連携することができます。H100からH200、B100への移行も容易です。Blackwellのシステムは、電気的、機械的に後方互換性があるように設計されています。もちろん、Hopper上で動作するソフトウェア・スタックは、Blackwell上でも問題なく動作します。私たちはまた、エコシステム全体と一緒に、液冷に対応できるようにポンプの呼び水をしてきました。Blackwellについては、かなり前からエコシステムと話し合ってきました。そして、CSP、データセンター、ODM、システム・メーカー、それらを超えた我々のサプライ・チェーン、冷却サプライ・チェーン・ベース、液冷サプライ・チェーン・ベース、データ・センター・サプライ・チェーン・ベースは、Blackwellの登場とGrace Blackwell 200で我々が提供したい能力に誰も驚かないでしょう。GB200は特別なものになるでしょう

オペレーター

次の質問はバンク・オブ・アメリカ証券のヴィヴェック・アリヤさんからです。どうぞ。

ヴィヴェク・アーリャ

私の質問にお答えいただきありがとうございます。Jensenさん、御社の製品が十分に利用されていること、また、供給不足や競争、その他の要因による引き抜きや持ち越しがないことを、どのようにして確認しているのでしょうか?基本的に、収益化が貴社の非常に力強い出荷の伸びと歩調を合わせていることを確信させるために、システムにどのようなチェックを組み込んでいますか?

ジェンセン・ファン

そうですね、大局的な見方はこれからお話しするとして、ご質問に直接お答えします。すべてのデータセンターにおけるGPUの需要は驚異的です。私たちは毎日競争しています。その理由は、ChatGPTやGPT-4o、そして今後はマルチモダリティ、Geminiやそのランプ、Anthropic、そしてすべてのCSPで行われている作業のようなアプリケーションが、そこにあるすべてのGPUを消費しているからです。また、ジェネレーティブAIのスタートアップは、マルチメディアからデジタル・キャラクター、もちろんあらゆる種類のデザイン・ツール・アプリケーション、生産性アプリケーション、デジタル生物学、AV業界のビデオへの移行、エンド・ツー・エンド・モデルのトレーニング、自動運転車の操作領域の拡大など、あらゆる分野で15,000~20,000社にのぼる。そのリストは並大抵のものではないです。実際、私たちは競争しています。お客さまは、できるだけ早くシステムを提供し、立ち上げるよう、私たちに大きなプレッシャーをかけています。もちろん、ソブリンAIについてはまだ触れていません。ソブリンAIは、自国の地域の天然資源であるデータをすべて訓練し、地域モデルを訓練したいと考えています。そして、そのようなシステムを立ち上げなければならないという大きなプレッシャーがある。いずれにせよ、需要は本当に高く、我々の供給を上回っていると思います。長期的に見れば、それが私が飛び込みでコメントした理由です。長期的に見れば、私たちはコンピューターがどのように機能するかを完全に再設計しています。これはプラットフォーム・シフトです。もちろん、過去の他のプラットフォーム・シフトと比較されることもあります。しかし、時間が経てば、これがこれまでのプラットフォーム・シフトよりもずっとずっと重大なものであることが明らかになるでしょう。その理由は、コンピューターがもはや命令駆動のみのコンピューターではないからです。意図を理解するコンピューターなのです。もちろん、私たちがコンピューターとやりとりする方法も理解しますが、それだけではなく、私たちの意味、私たちがコンピューターに求めた意図も理解し、推論を繰り返し、計画を処理し、解決策を導き出す能力を備えています。コンピュータのあらゆる側面が、あらかじめ記録されたファイルを検索する代わりに、文脈に関連したインテリジェントな答えを生成するように変化しているのです。その結果、世界中のコンピューティング・スタックが変わることになるでしょう。実際、PCのコンピューティングスタックさえも革命を起こそうとしています。そしてこれは、私たちがラボで取り組んでいることや、世界中のスタートアップ企業や大企業、開発者たちと取り組んでいることのほんの始まりにすぎません。非常に素晴らしいものになるだろう。

オペレーター

次の質問は、モルガン・スタンレーのジョー・ムーアさんからです。どうぞ。

ジョー・ムーア

素晴らしい。ありがとうございます。今おっしゃった、需要がいかに強いかということはよくわかりました。H200やBlackwell製品への需要が多いのですね。H200やBlackwellの製品に多くの需要があると思いますが、HopperやH100がこれらの製品に移行していく過程で、一時停止するようなことは予想されますか?人々は新製品を待つのでしょうか?それとも、H100には成長を維持できるだけの需要があるとお考えですか?

ジェンセン・ファン

今四半期を通じてHopperの需要は増加していると見ています。また、H200への移行、Blackwellへの移行に伴い、しばらくの間は需要が供給を上回ると予想しています。誰もがインフラをオンラインにすることを切望しています。その理由は、お金を節約し、お金を稼ぐためであり、できるだけ早くそれを実現したいからです。

オペレーター

次の質問は、ゴールドマン・サックスの針俊哉さんからです。どうぞ。

針 俊也

どうもありがとうございます。ジェンセン、競合についてお聞きしたいのですが。クラウドの顧客の多くは、あなた方と一緒に取り組んでいることと並行して、新しい、あるいは既存の社内プログラムのアップデートを発表したと思います。中長期的に見て、どの程度競合相手として考えていますか?また、競合他社はほとんどの社内ワークロードへの対応に限られているとお考えですか、それとも、今後、より広範なワークロードへの対応が可能になるとお考えですか?ありがとうございました。

ジェンセン・ファン

私たちはいくつかの点で異なっています。まず、NVIDIAのアクセラレーテッド・コンピューティング・アーキテクチャは、トレーニングの準備のための非構造化データ処理から、構造化データ処理、トレーニングの準備のためのSQLのようなデータフレーム処理、トレーニングから推論まで、お客様のパイプラインのあらゆる側面を処理することを可能にします。そして、今申し上げたように、推論は本当に根本的に変わりました。猫を検出するのではなく、猫のすべてのピクセルを生成しなければならないのです。つまり、生成プロセスは根本的に異なる処理アーキテクチャなのです。それが、TensorRT LLMが高く評価された理由のひとつです。私たちのアーキテクチャで同じチップを使用した場合、性能は3倍向上しました。これは、我々のアーキテクチャの豊富さとソフトウェアの豊富さを物語っています。つまり、コンピュータ・ビジョンから画像処理、コンピュータ・グラフィックス、コンピューティングのあらゆるモダリティに至るまで、NVIDIAをあらゆるものに使うことができるのです。そして、汎用コンピューティングが一巡したため、世界はコンピューティングコストとコンピューティングエネルギーのインフレに苦しんでいます。つまり、アクセラレーテッド・コンピューティングは、コンピューティングのコストを削減し、エネルギーを節約する方法なのです。私たちのプラットフォームは汎用性が高いため、データセンターのTCO(総所有コスト)を最も低く抑えることができるのです。第二に、私たちはあらゆるクラウドに対応しています。そのため、開発用のプラットフォームを探している開発者にとって、NVIDIAから始めることは常に素晴らしい選択です。また、オンプレムにもクラウドにも対応しています。どのようなサイズや形状のコンピュータにも対応しています。事実上、私たちはどこにでもいます。これが2つ目の理由です。3つ目の理由は、私たちがAI工場を建設しているという事実に関係しています。AIはチップだけの問題ではないということが、より明らかになりつつあります。もちろん、非常に優れたチップから始まり、私たちはAI工場のために大量のチップを製造しますが、それはシステムの問題です。実際、AIでさえシステムの問題なのです。ひとつの大きな言語モデルだけではない。大規模な言語モデル全体が連携する複雑なシステムなのです。ですから、エヌビディアがこのシステムを構築しているという事実は、システムとして連動するようにすべてのチップを最適化し、システムとして動作するソフトウェアを持つことができるようにし、システム全体で最適化することができるようにしているのです。単純な数字に置き換えてみると、50億ドルのインフラがあったとして、パフォーマンスを2倍向上させたとします。データセンターのすべてのチップはその代償を払っていません。ですから、その価値は本当に並大抵のものではありません。これが、今日、パフォーマンスがすべてを左右する理由です。なぜなら、これらすべてのチップを運ぶためのインフラ・コストには莫大な費用がかかるからです。データセンターに資金を供給し、データセンターを運営し、それに付随する人員、電力、不動産、そしてそのすべてが加算されるのです。そのため、最高のパフォーマンスは最低のTCO(Total Cost of Ownership・総所有コスト)でもあるのです。

オペレーター

次の質問はTDコーウェンのマット・ラムジーです。どうぞ。

マシュー・ラムジー

ありがとうございます。皆さん、こんにちは。ジェンセン、私はずっとデータセンター業界にいます。あなた方が新しいプラットフォームを導入するのと同じスピードで、パフォーマンスが飛躍的に向上するのを見たことがありません。つまり、トレーニングでは5倍、推論では30倍ということだ。見ているだけで驚きますが、同時に、顧客が何十億ドルも費やしている現行世代の製品が、その製品の減価償却サイクルよりもずっと早く、新しい製品との競争力を失ってしまうという、興味深い並置も生み出します。そこで、もしよろしければ、そのような状況が顧客との間でどのように変化しているのかについて、少しお話しいただければと思います。Blackwellへの移行に伴い、非常に大規模なインストール・ベース、明らかにソフトウェア互換性のあるインストール・ベース、しかし新世代の製品ほど性能の高くない製品のインストール・ベースを持つことになるでしょう。そのような状況の中で、顧客との間でどのようなことが起こっているのか、お聞かせいただければと思います。ありがとうございました。

ジェンセン・ファン

本当にありがとうございます。3点ほど申し上げたいことがあります。ビルドアウトに5%しか着手していない場合と、95%しか着手していない場合では、感じ方が大きく異なるでしょう。5%しかビルドアウトしていないのだから、できる限り早くビルドアウトする。ブラックウェルが来れば、それは素晴らしいものになる。そしてブラックウェルの後には、おっしゃったように他のブラックウェルが控えています。そして、短い......世界にも説明したように、私たちは1年のリズムでやっている。私たちは、お客様に私たちのロードマップを好きなだけ見てもらいたいと思っていますが、彼らはとにかく早い段階でビルドアウトしているので、とにかくビルドし続けなければならないのです。そして、これからたくさんのチップが彼らに襲いかかるだろうから、ただひたすらビルドを続け、パフォーマンス・アベレージ(平均的なパフォーマンス)を上げていくしかないんだ。それが賢いやり方だ。彼らは今日お金を稼ぐ必要がある。彼らは今日お金を節約したい。そして、時間は彼らにとって本当に、本当に貴重なものなのだ。データセンターを瞬時に立ち上げ、トレーニングのための時間というものを確保することが、なぜそれほど価値があるのか。その理由は、次の大きなプラトーに到達した企業は、画期的なAIを発表することができるからです。そして、その次の企業は0.3%優れたものを発表することになる。つまり、画期的なAIを提供する企業と、0.3%でも優れたAIを提供する企業のどちらを選びたいか、ということだ。すべてのテクノロジー競争と同様に、この競争が非常に重要な理由です。複数の企業でこのような競争が起きているのは、技術的なリーダーシップを持つことが非常に重要であり、企業がリーダーシップを信頼し、自社のプラットフォーム上に構築したいと思い、構築しているプラットフォームがますます良くなっていくことを知っているからです。そのため、リーダーシップは非常に重要である。トレーニングにかける時間も非常に重要だ。3ヶ月のプロジェクトでトレーニングする時間を確保するために、3ヶ月早くトレーニングを開始することがすべてです。それが、私たちが今ホッパー・システムを猛烈な勢いで立ち上げている理由です。これが2つ目の理由です。あなたが言った最初のコメントは、本当に素晴らしいコメントです。なぜなら、私たちはここにすべてのスタックを備えているからです。私たちは文字通りデータセンター全体を構築し、すべてを監視し、すべてを測定し、すべてを最適化することができます。すべてのボトルネックがどこにあるかわかっています。私たちはそれを推測しているのではありません。見栄えのいいパワーポイントのスライドを並べるわけでもない。私たちは、パワーポイントのスライドを見栄えよく見せることはしません。しかし、私たちが提供しているのは、規模に見合ったパフォーマンスを発揮するシステムなのです。私たちがやっていることのひとつに、AIインフラ全体をここで構築するというちょっと奇跡的なことがあります。しかし、私たちはそれがどのように機能するかを知っており、どこにボトルネックがあるかも知っています。顧客とともに最適化する必要があるのはどこか、最大のパフォーマンスを達成するためにインフラを改善する手助けをしなければならないのはどこか、がわかっているのです。このようなデータセンター全体のスケールに関する深い知識こそが、今日の当社を根本的に際立たせているのです。当社は、すべてのチップを一から作り上げています。システム全体でどのように処理が行われるかを正確に把握しています。そのため、すべての世代において、どのように性能が発揮され、どのようにすれば最大限の性能を引き出すことができるかを正確に理解しています。ですから、感謝しています。以上、3点でした。

オペレーター

次の質問はEvercore ISIのマーク・リパシスです。どうぞ。

マーク・リパシス

こんにちは。ジェンセンは過去に、汎用コンピューティングのエコシステムが各時代のコンピューティングを支配してきたという見解を示していましたね。その論拠は、さまざまなワークロードに適応し、高い利用率を得て、コンピュート・サイクルのコストを下げることができるというものだったと思います。これが、加速コンピューティングのために汎用GPUのCUDAエコシステムを推進した理由です。もし私がその見解を誤って理解していたら、ぜひ教えてください。そこで質問ですが、御社のソリューションの需要を牽引しているワークロードが、ニューラルネットワークのトレーニングと推論であることを考えると、表面的には限られたワークロードのように見えますが、カスタムソリューションにも適しているように思えます。そのため、汎用コンピューティングのフレームワークがより危険にさらされるのか、それとも、歴史的な汎用フレームワークを支えるこれらのワークロードに十分な変動性や急速な進化があるのかが問題となります。ありがとうございました。

ジェンセン・ファン

はい。NVIDIAのアクセラレーテッド・コンピューティングは多機能ですが、汎用とは呼べません。例えば、スプレッドシートを実行するのはあまり得意ではありません。あれは本当に汎用コンピューティングのために設計されたものです。オペレーティング・システムのコードの制御ループは、おそらく汎用計算には向かないでしょう。だから、私たちは多用途に使えると言いたい。長年にわたって高速化できるアプリケーションの領域は豊富ですが、それらには多くの共通点があります。深い違いもあるかもしれないが、共通点もある。それらはすべて並列実行が可能なもので、すべて高度にスレッド化されている。例えば、コードの5%がランタイムの99%を占めている。これらはすべて、アクセラレーテッド・コンピューティングの特性です。私たちのプラットフォームの多用途性と、システム全体を設計するという事実が、過去10年ほどの間に、この電話会議で皆さんに質問されたスタートアップ企業の数がかなり多い理由です。そしてそのどれもが、アーキテクチャの脆さのために、ジェネレーティブAIが登場した瞬間、あるいはフュージョン・モデルが登場した瞬間、そして今、次のモデルが登場しようとしている。そして今、突然、大規模な言語モデルにメモリが搭載されました。大規模な言語モデルは、あなたと会話を続け、文脈を理解するためにメモリが必要だからです。突然、グレース・メモリの汎用性が非常に重要になったのです。生成AIの進歩やAIの進歩のひとつひとつが、ひとつのモデルのために設計されたウィジェット(限定的な機能を持つソフトウェアコンポーネント)を持たないことを強く求めています。しかし、この領域全体、この領域全体の特性にとって本当に優れたものでありながら、ソフトウェアの第一原則に従ったものを持つことで、ソフトウェアは進化し続け、ソフトウェアはより良く、より大きくなり続けるのです。私たちは、このようなモデルの拡張性を信じている。私たちが今後数年のうちに100万倍もの規模に拡大する理由はたくさんあり、私たちはそれを楽しみにしていますし、その準備はできています。私たちはそれを楽しみにしていますし、そのための準備もできています。ですから、私たちのプラットフォームの多用途性は本当に重要なカギなのです。もしあなたがあまりにもろく、あまりに特殊であれば、FPGAを作るか、ASICを作るか、そんなところでしょう。

FPGA (Field Programmable Gate Array) と ASIC (Application Specific Integrated Circuit) は、どちらも集積回路の一種で、特定の用途に特化して設計され、性能と消費電力が最適化されている。大量生産に向いています。

要約:
NVIDIAのアクセラレーテッド・コンピューティングは多用途だが汎用ではない。高速化できるアプリケーションには共通点があり、並列実行可能で、高度にスレッド化されている。NVIDIAのプラットフォームの多用途性とシステム全体を設計しているという事実が、多くのスタートアップ企業を生み出した。生成AIの進歩は、ひとつのモデルのために設計されたウィジェット(限定的な機能を持つソフトウェアコンポーネント)を持たないことを強く求めている。NVIDIAは、モデルの拡張性を信じ、プラットフォームの多用途性が重要だと考えている。

オペレーター

次の質問はジェフリーズのブレイン・カーティスさんからです。どうぞ。

ブレイン・カーティス

私の質問にお答えいただきありがとうございます。つまり、あなたは中国向けにH20という製品を出しました。しかし、明らかに、あなたは他のホッパー製品で顧客にサービスを提供しようとしています。ただ、下期についてどのようにお考えなのかが気になります。売上高や売上総利益率への影響について詳しく教えてください。

ジェンセン・ファン

あなたの質問は聞こえなかった。何かピッと聞こえなかった。

シモナ・ヤンコフスキー

H20と、異なるホッパー製品間の供給配分をどのように考えているか。

ジェンセン・ファン

まあ、私たちには尊敬する顧客がいますし、どの顧客に対してもベストを尽くしています。中国でのビジネスは、以前のレベルよりも大幅に低下しています。私たちの技術に限界があるため、中国での競争はより激しくなっています。そういったことは事実です。しかし、私たちは中国市場の顧客にサービスを提供するためにベストを尽くし続けます。しかし、全体的に見れば、需要が供給を上回っているというコメントは、市場全体、特にH200とブラックウェルについては年末にかけてのことだと思います。

オペレーター

次の質問はレイモンド・ジェームズのスリニ・パジュリです。どうぞ。

スリニ・パジュリ

ありがとうございます。ジェンセン、あなたがおっしゃったことについて、もう少しはっきりさせたいと思います。GB 200のシステムについては、かなりの需要があるように見えます。歴史的には、HGXボードやGPUを多く販売しており、システム事業は比較的小規模だったと思います。そこでお聞きしたいのですが、なぜ今、システムに対する需要がこれほど高まっているのでしょうか?TCOの問題なのでしょうか、それともアーキテクチャの問題なのでしょうか?ありがとうございました。

ジェンセン・ファン

はい、ありがとうございます。実際、GB200の販売方法も同じです。意味のあるコンポーネントをすべて分解し、コンピューター・メーカーに統合するのです。今年、ブラックウェルには100種類のコンピューター・システム構成があります。その数は桁外れです。ホッパーは率直に言って半分しかありませんでしたが、それはピーク時の話です。最初はもっと少なかった。液冷版、空冷版、x86ビジョン、Graceバージョンなどなど。設計されているシステムは山ほどある。そしてそれらは、素晴らしいパートナーからなるエコシステムのすべてから提供されている。本当に何も変わっていない。もちろん、Blackwellプラットフォームは、私たちの提供する製品を飛躍的に拡大しました。CPUの統合と、より圧縮された密度のコンピューティング、液冷は、データセンターのプロビジョニング・パワーを大幅に節約し、エネルギー効率を高めることは言うまでもありません。液冷はより優れたソリューションです。つまり、データセンターのより多くのコンポーネントを提供することで、誰もが利益を得ることができるのです。データセンターはより高いパフォーマンスを得ることができ、ネットワーキング・スイッチやネットワーキングによるネットワーキングも向上します。もちろん、NIC、イーサネットもありますから、イーサネットの操作方法しか知らないお客様にも、大規模なNVIDIA AIを提供することができます。そして、Blackwellはより拡大しました。この世代では、お客様に提供できるものが増えました。

オペレーター

次の質問は、トゥルーイスト証券のウィリアム・スタインさんからです。どうぞ。

ウィリアム・スタイン

ありがとうございます。私の質問に答えてくれてありがとう。ジェンセン ある時点でNVIDIAは、データセンターの運用に利用できるそれなりに優れたCPUがある一方で、御社のARMベースのGrace CPUは、おそらくコストや消費電力、あるいはGraceとHopper、GraceとBlackwellの間の技術的な相乗効果に関連して、その技術を顧客に提供する価値があると判断しました。インテルとAMDが非常に優れたパートナーであり、x86で優れた製品を提供していることを強調されていますが、特に新興のAIワークロードでは、NVIDIAが提供できる何らかの利点があり、他がより困難な状況にある可能性があります。

ジェンセン・ファン

そうですね。確かに、多くのアプリケーションにおいて、x86パートナーとのパートナーシップは本当に素晴らしく、優れたシステムを一緒に構築しています。しかしGraceは、現在のシステム構成では不可能なことを可能にします。GraceとHopperの間のメモリシステムは、コヒーレントでつながっています。2つのチップの間のインターコネクトは、スーパーチップのようなもので、2つのチップと呼ぶのは奇妙です。この2つのチップは、毎秒1テラバイトのインターフェースで接続されています。桁外れだ。グレイスが使用しているメモリはLPDDRです。初のデータセンター・グレードの低消費電力メモリです。そのため、すべてのノードで電力を大幅に節約できます。そして最後に、アーキテクチャのおかげで、システム全体で独自のアーキテクチャを作ることができるようになったため、非常に大きなNVLinkドメインを持つものを作ることができます。GB200には72ノードのNVLinkドメインがあります。これは、72個のBlackwellが1つの巨大なGPUに接続されているようなものです。そのためにGrace Blackwellが必要でした。アーキテクチャ上の理由、ソフトウェア・プログラミング上の理由、そしてシステム上の理由があります。そのような機会があれば、私たちはそれを探っていきます。そして今日、昨日のビルドで見ていただいたように、サティアは次世代PC「Copilot+ PC」を発表しました。これは、ラップトップPCに搭載されているNVIDIAのRTX GPUで素晴らしい動作をします。しかし、ARMも見事にサポートしています。これにより、PCでもシステム革新の可能性が広がります。

オペレーター

最後の質問は、キャンター・フィッツジェラルドのC.J.ミューズです。どうぞ。

C.J.ミューズ

こんにちは。質問に答えていただきありがとうございます。ジェンセン、少し長期的な質問になりますが。Blackwellはまだ発売前ですが、GPUやカスタムASICとの競争が激化する可能性がある中で、NVIDIAの技術革新のペースや、過去10年間で100万倍の規模に拡大したことについてどうお考えですか。CUDA、Varsity、Precision、Grace、Cohere、そしてConnectivity。今後10年間で解決すべき課題は何でしょうか?また、もっと重要なこととして、今日私たちと共有したいことは何でしょうか?

ジェンセン・ファン

Blackwellの後に、もう1つのチップがあることを発表できる。私たちは1年のリズムでやっています。また、非常に速いリズムで新しいネットワーキング・テクノロジーを発表する予定です。イーサネットではSpectrum-Xを発表する予定です。しかし、我々はイーサネットに全力を注いでおり、イーサネットについては本当にエキサイティングなロードマップを用意しています。私たちには、豊富なパートナーとのエコシステムがあります。デルはSpectrum-Xの市場投入を発表しました。私たちには、AIファクトリーアーキテクチャ全体を市場に投入することを発表する顧客やパートナーの豊富なエコシステムがあります。究極のパフォーマンスを求める企業には、InfiniBandコンピューティング・ファブリックがあります。InfiniBandはコンピューティング・ファブリックであり、イーサネットはネットワークです。InfiniBandは、当初はコンピューティング・ファブリックでしたが、年月を経て、より優れたネットワークになりました。Ethernetはネットワークであり、Spectrum-Xによって、より優れたコンピューティング・ファブリックになる。NVLinkコンピューティング・ファブリック、InfiniBandコンピューティング・ファブリック、そしてイーサネット・ネットワーキング・コンピューティング・ファブリックです。そのため、これら3つすべてを非常に速いスピードで進めていくつもりです。そのため、新しいスイッチ、新しいNIC、新しい機能、これら3つすべてで動作する新しいソフトウェア・スタックが登場することになるでしょう。新しいCPU、新しいGPU、新しいネットワークNIC、新しいスイッチ、山のようなチップが登場する。そしてそのすべてが、素晴らしいことにCUDAで動作します。そして、そのすべてが私たちのソフトウェア・スタック全体で動作します。ですから、今すぐ当社のソフトウェア・スタックに投資すれば、何もしなくても、どんどん高速化していきます。また、今日、私たちのアーキテクチャに投資すれば、何もしなくても、より多くのクラウドやデータセンターですべてが実行されます。ですから、私たちがもたらすイノベーションのペースは、一方で能力を高め、他方でTCOを下げることになると思います。エヌビディアのアーキテクチャーによって、この新しい時代のコンピューティングをスケールアウトすることができ、ソフトウェアだけでなく、人工知能トークンを製造する新しい産業革命を始めることができるはずです。ありがとうございました。

オペレーター

以上で本日の質疑応答と通話を終わります。ご参加ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?