見出し画像

NVIDIA 2025Q1決算発表カンファレンスコール


【AIによる要約】

コレット・クレス(最高財務責任者)

  • 収益報告: 第1四半期の収益は260億ドルで、前年同期比で262%増。特にデータセンター収益が大きく、226億ドルに達した。

  • データセンターの成長: NVIDIA Hopper GPUコンピューティングプラットフォームへの強い需要が成長を支えた。

  • クラウドプロバイダーの影響: 大規模クラウドプロバイダーがAIインフラストラクチャを展開・拡大し、データセンター収益の約40%を占めた。

  • AIインフラストラクチャの需要: OpenAI、Meta、Teslaなど多くの企業がNVIDIA AIインフラストラクチャを利用している。

  • 地域別の成長: 日本、フランス、イタリア、シンガポールなどで主権AIプロジェクトが進行中。

  • 中国市場: 新しい輸出管理ライセンス制限により、中国での収益が減少する一方で、新製品を投入。

ジェンスン・フアン(社長兼最高経営責任者)

  • 生成AIと次世代コンピューティング: 次の産業革命が始まり、AI工場の構築が進行中。生成AIは全産業に大きな生産性向上をもたらす。

  • Hopperプラットフォーム: トレーニングと推論の需要がデータセンターの成長を推進。

  • ブラックウェルプラットフォーム: 新しいGPUアーキテクチャで、トレーニング速度を最大4倍、推論速度を30倍に向上。H100の後継製品として登場。

  • 新製品と市場: Grace Hopper Superchip、SpectrumX Ethernetネットワーキングソリューションなどが導入され、多様な市場での展開が期待される。

Q&Aセッション

  • ブラックウェルの展開: Q2から出荷を開始し、Q3に向けて拡大予定。

  • クラウドプロバイダーとの関係: NVIDIAのアクセラレーテッドコンピューティングアーキテクチャの強みとクラウドでの利用が競争優位。

  • 生成AIの需要: H200やブラックウェルへの移行が進む中、Hopperの需要も継続。

  • ARMベースのGrace CPU: データセンター向けに導入された理由と今後のクライアント側への影響について説明。

  • 長期的な技術革新: 新しいGPUやネットワーキング技術が次々と登場し、AIトークンの大規模製造が進行中。

【本編】
これらの発表と質疑応答から、NVIDIAはAIとデータセンター分野での強い成長を維持しつつ、次世代のコンピューティングプラットフォームを推進していることが明らかになりました。


ようこそ、皆さん。NVIDIAの第1四半期の収益発表カンファレンスコールにご参加いただきありがとうございます。

すべての回線はバックグラウンドノイズを防ぐためにミュートされています。スピーカーのコメントの後、質疑応答の時間を設けます。質問をされたい場合は、お手持ちの電話のキーパッドで星印と数字の1を押してください。質問を取り消す場合は、再度星印と1を押してください。

それでは、シモナ・ジャコウスキーさん、カンファレンスを始めてください。

ありがとうございます。

皆さん、こんにちは。NVIDIAの2025年度第1四半期の収益発表カンファレンスコールにようこそ。今日は、NVIDIAの社長兼最高経営責任者のジェンスン・フアン氏と、最高財務責任者のコレット・クレス氏が同席しています。

まず、今回のコールはNVIDIAの投資家向けウェブサイトでライブ配信されていることをお知らせします。このウェブキャストは、2025年度第2四半期の収益発表カンファレンスコールまで再生可能です。

本コールでは、現在の予想に基づく将来予測に関する発言を行う場合があります。これらは重大なリスクと不確実性を含み、実際の結果が大きく異なる可能性があります。将来の財務結果および事業に影響を与える要因については、今日の収益リリース、最近の10-Kおよび10-Qフォーム、ならびに証券取引委員会に提出する8-Kフォームに記載された開示を参照してください。すべての発言は2024年5月22日現在の情報に基づいて行われており、法律で義務付けられている場合を除き、これらの発言を更新する義務を負いません。

本コールでは、非GAAPの財務指標についても議論します。これらの非GAAP財務指標とGAAP財務指標との調整は、当社のウェブサイトに掲載されているCFOコメントで確認できます。

今後のイベントについてご紹介します。6月2日の日曜日、台湾のコンピュテックストレードショーに先立ち、ジェンスンが台北でのキーノートスピーチを行い、ライブ配信されます。また、6月5日にはサンフランシスコで開催されるバンク・オブ・アメリカテクノロジーカンファレンスに参加します。

それでは、コールをコレットに引き継ぎます。

ありがとうございます、シモナ。

第1四半期も記録的な四半期となりました。収益は260億ドルで、前四半期比18%増、前年同期比262%増となり、予想の240億ドルを大きく上回りました。

データセンター収益は226億ドルで、前四半期比23%増、前年同期比427%増となり、NVIDIA Hopper GPUコンピューティングプラットフォームの継続的な強い需要に支えられました。コンピュート収益は前年の5倍以上、ネットワーク収益は3倍以上増加しました。データセンターの強い成長は、企業および消費者向けインターネット企業を中心に、すべての顧客タイプからの需要によって推進されました。

大規模なクラウドプロバイダーは、NVIDIA AIインフラストラクチャを大規模に展開・拡大することで強い成長を牽引し、データセンター収益の約40%を占めました。NVIDIA CUDAでのAIトレーニングおよび推論は、クラウドレンタル収益の成長を加速させ、クラウドプロバイダーの投資に対して即座かつ強力なリターンを提供しています。

NVIDIAの豊富なソフトウェアスタックとエコシステム、およびクラウドプロバイダーとの緊密な統合により、エンドユーザーはパブリッククラウドでNVIDIA GPUインスタンスをすぐに利用できるようになります。クラウドレンタルの顧客にとって、NVIDIA GPUは最短のトレーニング時間、最安のトレーニングコスト、および大規模言語モデルの最安の推論コストを提供します。パブリッククラウドプロバイダーにとって、NVIDIAはクラウドへの顧客を呼び込み、収益成長とインフラ投資のリターンを促進します。

OpenAI、ADEPT、Anthropic、Character AI、Cohere、Databricks、DeepMind、Meta、Mistral、XAIなど、多くの先進的なLLM企業がクラウドでNVIDIA AIを基盤として構築しています。

今四半期、企業はデータセンターでの強力な成長を牽引しました。TeslaのAIトレーニングクラスターの拡張をサポートし、35,000台のH100 GPUを導入しました。NVIDIA AIインフラストラクチャの使用は、視覚ベースの最新の自動運転ソフトウェアであるFSDバージョン12の突破的な性能の道を開きました。ビデオトランスフォーマーは、はるかに多くの計算能力を消費しながら、劇的に優れた自動運転機能を提供し、自動車業界全体でNVIDIA AIインフラストラクチャの成長を促進しています。今年、自動車産業はデータセンター内で最大の企業垂直市場となり、オンプレミスおよびクラウド消費全体で数十億ドルの収益機会をもたらすと予想しています。

消費者インターネット企業も強力な成長分野です。今四半期の大きなハイライトは、Metaの最新の大規模言語モデルであるLLAMA3の発表でした。LLAMA3は24,000台のH100 GPUクラスターでトレーニングされ、Meta AIという新しいAIアシスタントがFacebook、Instagram、WhatsApp、およびMessengerで利用可能になりました。LLAMA3はオープンに提供されており、産業全体でAI開発の波を引き起こしています。生成AIがより多くの消費者インターネットアプリケーションに浸透するにつれて、推論がモデルの複雑さおよびユーザー数とユーザーごとのクエリ数の増加に伴い、AIコンピューティングの需要をさらに促進すると期待しています。過去4四半期にわたり、推論はデータセンター収益の約40%を占めました。トレーニングと推論の両方が大幅に成長しています。MetaやTeslaが構築した大規模なクラスターは、AI生産のための重要なインフラストラクチャの例であり、これをAI工場と呼んでいます。

第1四半期には、数百から数万のGPUを持つAI工場を建設する100以上の顧客と協力しました。一部は100,000 GPUに達しています。

地理的観点から見ると、データセンター収益は、世界中の国々が主権AIに投資するにつれて、多様化を続けています。主権AIとは、自国のインフラストラクチャ、データ、労働力、およびビジネスネットワークを使用して人工知能を生産する能力を指します。各国はさまざまなモデルを通じて国内の計算能力を強化しています。一部は国営の通信プロバイダーや公益企業と協力して主権AIクラウドを調達・運営しています。その他は、公共および民間セクター向けの共有AIコンピューティングプラットフォームを提供するために、地元のクラウドパートナーを支援しています。

例えば、日本は、KDDI、さくらインターネット、ソフトバンクなどの主要デジタルインフラプロバイダーに7億4,000万ドル以上を投資し、国の主権AIインフラストラクチャを構築する予定です。フランスのIliadグループの子会社であるScalewayは、ヨーロッパで最も強力なクラウドネイティブAIスーパーコンピューターを構築しています。イタリアでは、スイスコムグループが国初の最も強力なNVIDIA DTX搭載スーパーコンピューターを構築し、イタリア語で初めてネイティブにトレーニングされたLLMを開発します。シンガポールでは、国立スーパーコンピューターセンターがNVIDIA A100 GPUを使用してアップグレードされる一方、Singtelは東南アジア全体でNVIDIAの加速AI工場を構築しています。

NVIDIAが提供するエンドツーエンドのコンピュートからネットワーキング技術、フルスタックソフトウェア、AIの専門知識、および豊富なパートナーおよび顧客のエコシステムにより、主権AIおよび地域クラウドプロバイダーは、自国のAI野心をすぐに開始することができます。前年にはなかったものが、今年は数十億ドルに達する見込みです。

AIの重要性はすべての国の注目を集めています。輸出管理ライセンスを必要としない中国向けに特別に設計された新製品を立ち上げました。中国でのデータセンター収益は、昨年10月の新しい輸出管理制限の導入前のレベルから大幅に減少しています。今後、中国市場は非常に競争が激しくなると予想しています。

製品の観点から見ると、コンピュート収益の大部分は、Hopper GPUアーキテクチャによって推進されました。今四半期中のHopperへの需要は増加を続けています。CUDAアルゴリズムの革新により、LLM推論をH100で最大3倍加速することができ、LLAMA3のような人気モデルの提供コストを3倍削減できます。第1四半期にはH200のサンプリングを開始し、第2四半期に出荷予定の生産段階にあります。最初のH200システムはジェンスンによってサム・アルトマンとOpenAIのチームに納品され、先週のGPT-40デモを支援しました。H200はH100の推論性能をほぼ2倍にし、生産展開において大きな価値を提供します。

例えば、LLAMA3のような7000億パラメータのモデルを使用すると、単一のNVIDIA HGX H200サーバーは毎秒24,000トークンを提供し、同時に2,400人以上のユーザーをサポートできます。現在のトークン価格で、NVIDIA HGX H200サーバーに1ドルを費やすことで、LLAMA3トークンを提供するAPIプロバイダーは4年間で7ドルの収益を生み出すことができます。継続的なソフトウェア最適化により、AIモデルを提供するためのNVIDIA AIインフラストラクチャの性能を向上させ続けています。H100の供給は改善されていますが、H200の供給はまだ制約されています。同時に、ブラックウェルは完全生産体制に入っています。今年後半にグローバルな提供を目指して、システムおよびクラウドパートナーの立ち上げに取り組んでいます。H200およびブラックウェルへの需要は供給を上回っており、来年まで需要が供給を超える可能性があります。

Grace Hopper Superchipは大量に出荷されています。先週の国際スーパーコンピューティング会議で、世界中の9つの新しいスーパーコンピューターがGrace Hopperを使用して、今年200エクサプロットのエネルギー効率の高いAI処理能力を提供することを発表しました。これには、スイス国立スーパーコンピューティングセンターのALPSスーパーコンピューター、ヨーロッパで最速のAIスーパーコンピューター、英国のブリストル大学のZambard AI、およびドイツのユリッヒスーパーコンピューターセンターのJupiterが含まれます。スーパーコンピューターの80%がGrace Hopperを採用しており、その高いエネルギー効率と性能によるものです。また、Grace Hopperを搭載したスーパーコンピューターが、世界で最もエネルギー効率の高いスーパーコンピューターの1位、2位、3位を占めていることを誇りに思います。

ネットワーキングの前年同期比成長はInfiniBandによって推進されました。供給のタイミングによるわずかな前四半期比減少がありましたが、需要は供給を上回っています。第2四半期にはネットワーキングの前四半期比成長が回復する見込みです。第1四半期には、AI向けに最適化された新しいSpectrumX Ethernetネットワーキングソリューションの出荷を開始しました。これには、Spectrum 4スイッチ、Bluefield 3 DPU、および新しいソフトウェア技術が含まれ、従来のイーサネットに比べてAI処理のネットワーキング性能を1.6倍向上させることができます。SpectrumXは、複数の顧客を対象に量産体制に入り、100,000 GPUクラスターを含む大規模な展開が進んでいます。SpectrumXは、NVIDIAネットワーキングにとって新しい市場を開き、イーサネット専用のデータセンターでも大規模なAIを実現できるようにします。SpectrumXは、1年以内に数十億ドル規模の製品ラインに成長することを期待しています。

3月のGTCでは、次世代AI工場プラットフォーム、ブラックウェルを発表しました。ブラックウェルGPUアーキテクチャは、H100に比べてトレーニング速度を最大4倍、推論速度を30倍向上させ、1兆パラメータの大規模言語モデルでリアルタイム生成AIを可能にします。ブラックウェルは、Hopperに比べて最大25倍のTCO削減とエネルギー消費削減を実現します。ブラックウェルプラットフォームには、マルチGPUスパインを備えた第5世代NVLink、新しいInfiniBandおよびイーサネットスイッチであるX800シリーズが含まれ、1兆パラメータ規模のAIに対応しています。ブラックウェルは、ハイパースケールから企業、トレーニングから推論、x86からGray CPU、イーサネットからInfiniBandネットワーキング、空冷から液冷まで、普遍的にデータセンターをサポートするように設計されています。ブラックウェルは、発売時に100以上のOEMおよびODMシステムで利用可能であり、Hopperの倍以上の数のシステムを提供し、世界中の主要なコンピュータメーカーを網羅しています。これにより、顧客タイプ、ワークロード、およびデータセンター環境全体で迅速かつ広範な採用がサポートされます。

ブラックウェルのタイム・トゥ・マーケット顧客には、Amazon、Google、Meta、Microsoft、OpenAI、Oracle、Tesla、XAIが含まれます。

新しいソフトウェア製品として、NVIDIA Inference Microservices(NIM)を導入しました。NIMは、NVIDIA CUDAアクセラレーション、ネットワークコンピューティング、推論ソフトウェアを活用した安全でパフォーマンス最適化されたコンテナを提供します。これには、Triton、Inference Server、およびTensorRT LLMが含まれ、テキスト、音声、イメージング、ビジョン、ロボティクス、ゲノミクス、デジタルバイオロジーの広範なユースケースに対応するための業界標準APIが含まれています。これにより、開発者はNVIDIA、AI21、ADEPT、Cohere、Getty Images、およびShutterstockのリーディングモデルや、Google、Hugging Face、Meta、Microsoft、Mistral AI、Snowflake、Stability AIのオープンモデルを使用して、生成AIアプリケーションを迅速に構築および展開できます。NIMは、クラウドまたはオンプレミスでの生産展開のために、NVIDIA AI Enterprise Software Platformの一部として提供されます。

ゲームおよびAI PCに移ります。ゲーム収益は26億5000万ドルで、前四半期比8%減、前年同期比18%増でした。季節的な減少の予想に一致していますが、GeForce RTX Supers GPUの市場反応は良好で、製品範囲全体でエンド需要とチャネル在庫が健全に保たれています。

私たちのAIの旅の始まりから、GeForce RTX GPUにCUDA Tensorコアを装備してきました。現在、1億ドル以上の設置ベースを持つGeForce RTX GPUは、ゲーマー、クリエイター、AI愛好家に最適であり、PCで生成AIアプリケーションを実行するための比類なきパフォーマンスを提供します。NVIDIAは、GeForce RTX PCで高速かつ効率的な生成AI推論を展開および実行するためのフルテクノロジースタックを提供しています。Android RT LLMは、Microsoftのi3ミニモデルおよびGoogleのGemma 2Bおよび7Bモデル、ならびにLangTangおよびLama Indexを含む人気のAIフレームワークを加速します。

昨日、NVIDIAとMicrosoftは、NVIDIA GeForce RTX AI PCでのLLM実行速度を最大3倍向上させるWindowsのAIパフォーマンス最適化を発表しました。NetEase Games、Tencent、およびUbisoftなどのトップゲーム開発者は、NVIDIA Avatarキャラクターエンジンを採用して、ゲーマーと非プレイヤーキャラクター間の対話を変革するリアルなアバターを作成しています。

ProVizに移ります。収益は4億2700万ドルで、前四半期比8%減、前年同期比45%増でした。生成AIおよびオムニバースの産業デジタル化が次のプロフェッショナルビジュアライゼーションの成長の波を引き起こすと信じています。GTCでは、開発者がオムニバースの産業デジタルツインおよびシミュレーション技術をアプリケーションに統合するための新しいオムニバースクラウドAPIを発表しました。Ansys、Cadence、3DXcite、@DiSO Systems、Brand、およびSiemensなどの世界最大の産業ソフトウェアメーカーがこれらのAPIを採用しています。開発者は、これらを使用してApple Vision Proなどの空間コンピューティングデバイスに産業デジタルツインをストリーミングできます。オムニバースクラウドAPIは、今年後半にMicrosoft Azureで利用可能になります。

企業はオムニバースを使用してワークフローをデジタル化しています。オムニバースを利用したデジタルツインにより、製造パートナーの1つであるWistronはエンドツーエンドの生産サイクルタイムを50%削減し、不良率を40%削減しました。また、世界最大の電気自動車メーカーであるBYDは、バーチャル工場計画および小売設定のためにオムニバースを採用しています。

自動車部門に移ります。収益は3億2900万ドルで、前四半期比17%増、前年同期比11%増でした。前四半期比の成長は、グローバルOEM顧客とのAIコックピットソリューションの立ち上げおよび自動運転プラットフォームの強さによって推進されました。前年同期比の成長は主に自動運転によるものでした。Xiaomiの初の電気自動車、SU7セダンの成功した発売をNVIDIA Drive Oren AI車両コンピュータで支援しました。また、NVIDIA Drive 4の新しいデザインウィンを発表しました。Drive 4は、Orenの後継機であり、新しいNVIDIA Blackwellアーキテクチャを搭載し、BYD、Xpen、DACs、Ion Hyper、およびNeuralなどの主要なEVメーカーと提携しています。Black Thoroughは来年から生産車両での利用を予定しています。

P&Lの残りの部分に移ります。GAAPの粗利益率は前四半期比で78.4%に拡大し、非GAAPの粗利益率は在庫費用の減少により78.9%に達しました。前四半期と第1四半期の両方は、好調なコンポーネントコストの恩恵を受けました。GAAPの営業費用は前四半期比で10%増加し、非GAAPの営業費用は主に給与関連費用の増加およびコンピュートおよびインフラ投資の増加を反映して13%増加しました。

第1四半期には、株式の買戻しおよび現金配当の形で株主に78億ドルを返還しました。今日、株式を10対1に分割し、6月10日を分割調整後の取引開始日とすることを発表しました。また、配当を150%増加させています。

次に、第2四半期の見通しについてお話しします。総収益は280億ドル、プラスマイナス2%を予想しています。すべての市場プラットフォームで前四半期比成長を見込んでいます。GAAPおよび非GAAPの粗利益率はそれぞれ74.8%および75.5%、プラスマイナス50ベーシスポイントを予想しており、前四半期の議論と一致しています。年間を通じて、粗利益率は中位70%の範囲になると予想しています。GAAPおよび非GAAPの営業費用はそれぞれ約40億ドルおよび28億ドルと予想しています。年間のOPEXは低位40%範囲で成長すると予想しています。GAAPおよび非GAAPのその他の収入および費用は、非関連投資からの利益および損失を除いて、約3億ドルの収入と予想されています。GAAPおよび非GAAPの税率は、任意の一時項目を除いて17%、プラスマイナス1%と予想されています。さらなる財務の詳細は、CFOコメントおよび当社のIRウェブサイトで確認できます。

それでは、ジェンスンにコメントをお願いします。

ありがとうございます、コレット。

業界は大きな変化を迎えています。Q&Aセッションを始める前に、この変革の重要性について少し説明させてください。次の産業革命が始まりました。国々はNVIDIAと提携し、従来のデータセンターの数兆ドルの設置ベースを加速コンピューティングに移行し、新しいタイプのデータセンターであるAI工場を構築して、新しいコモディティ、人工知能を生産しています。AIはほぼすべての産業に大きな生産性向上をもたらし、企業がコストとエネルギー効率を向上させると同時に、収益機会を拡大するのに役立ちます。

CSPは最初の生成AIの動き出しでした。NVIDIAとともに、CSPはワークロードを加速し、コストと電力を節約しました。NVIDIA Hopperによって生成されたトークンは、AIサービスの収益をもたらします。また、NVIDIAクラウドインスタンスは、開発者の豊富なエコシステムからのレンタル顧客を引き寄せます。強力で加速する需要、Hopperプラットフォーム上での生成AIのトレーニングと推論の需要が、データセンターの成長を推進します。モデルがマルチモーダルになり、テキスト、音声、画像、ビデオ、3Dを理解し、推論し、計画するため、トレーニングはスケールし続けます。

生成AIにより、推論は大規模なトークン生成の高速化を求められ、非常に複雑になっています。生成AIは、基盤から、全スタックコンピューティングプラットフォームの変革を促進し、すべてのコンピュータのインタラクションを変革します。今日の情報検索モデルから、コンテキストと意図を理解し、知識があり、推論し、計画し、タスクを実行するスキル生成モデルへのシフトが進んでいます。私たちは、コンピューティングの仕組みとコンピュータができることを根本的に変えています。一般的なCPUからGPUアクセラレートコンピューティングへの移行、命令駆動のソフトウェアから意図を理解するモデルへの移行、情報の取得からスキルの実行への移行、産業レベルでは、ソフトウェアの生産からトークンの生成、デジタルインテリジェンスの製造への移行です。トークン生成は、AI工場の多年度の構築を促進します。

クラウドサービスプロバイダーを超えて、生成AIは消費者インターネット企業、企業、主権AI、自動車、ヘルスケアの顧客に拡大し、複数の数十億ドル規模の垂直市場を創出しています。ブラックウェルプラットフォームは完全生産体制にあり、1兆パラメータ規模の生成AIの基盤を形成します。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、Nixonスイッチ、高速インターコネクト、および豊富なソフトウェアとパートナーのエコシステムの組み合わせにより、以前の世代よりも豊富で完全なソリューションをAI工場に提供します。Spectrum Xは、イーサネット専用データセンターに大規模なAIをもたらすための新しい市場を開拓します。NVIDIA NIMSは、CUDAを活用した企業グレードの最適化された生成AIを提供し、クラウドからオンプレミスデータセンター、RTX AI PCまで広範なエコシステムパートナーのネットワークを通じて提供します。ブラックウェルからスペクトラムX、NIMSまで、次の成長の波に備えています。

ありがとうございます。

ありがとうございます、ジェンスン。では、質問の受付を開始します。オペレーター、質問の受付をお願いします。

この時点で、質問をするためには、電話のキーパッドで星印と数字の1を押してください。

質問のリストをまとめるために、少々お待ちください。

リマインダーとして、質問は一つに限らせていただきます。

最初の質問は、バーンスタインのステイシー・ラスコンさんからです。どうぞ。

こんにちは、皆さん。質問を受けていただきありがとうございます。

最初の質問ですが、ブラックウェルのコメントについて詳しく伺いたいです。現在フル生産中とのことですが、それは出荷および納品のタイミングに関して何を意味するのでしょうか?この製品はもうサンプリングされていないようですが、生産中ということは、顧客がいつ手に入れることを意味するのでしょうか?

私たちはQ2から出荷を開始し、Q3に向けて拡大し、Q4にはデータセンターが立ち上がる予定です。

なるほど。今年中にブラックウェルの収益が見込めるということですね。

はい、ブラックウェルの収益は今年中にかなりの量が見込まれます。

次の質問は、CBSのティモシー・R・カリーさんからです。どうぞ。

ありがとうございます。ジェンスン、ブラックウェルとホッパーの展開について伺いたいです。システムの性質とGBへの需要を考慮すると、これらの展開はホッパーとはどのように異なるのでしょうか?スケールでの液冷却はこれまで行われておらず、ノードレベルやデータセンター内でのエンジニアリングの課題があります。これらの複雑さが移行を延長することになりますか?それについてどう考えていますか?ありがとうございます。

はい、ブラックウェルは多くの構成があります。ブラックウェルはプラットフォームであり、GPUではありません。プラットフォームには、空冷、x86、Grace、InfiniBand、現在のSpectrum X、および非常に大規模なNVLinkドメインのサポートが含まれています。一部の顧客は、すでにHoppersを出荷している既存のデータセンターの設置ベースに移行します。彼らはH100からH200への移行を容易に行うことができます。ブラックウェルシステムは電気的、機械的に後方互換性を持つように設計されています。もちろん、Hopperで動作するソフトウェアスタックはブラックウェルでも素晴らしく動作します。エコシステム全体と協力して、液冷却の準備を進めてきました。ブラックウェルについてエコシステムと長い間話し合ってきました。CSP、データセンター、ODM、システムメーカー、サプライチェーン全体、冷却サプライチェーンベース、データセンターサプライチェーンベース、誰もがブラックウェルの到来に驚くことはありません。

次の質問は、バンク・オブ・アメリカ証券のヴィベック・アリヤさんからです。どうぞ。

質問を受けていただきありがとうございます。ジェンスン、製品の利用率を確保し、供給の逼迫や競争などの要因による先取りや貯蔵行動を防ぐためにどのようなチェックを設けていますか?要するに、強力な出荷成長に対して収益化が追いついているという自信をどのように得ているのか教えてください。

需要は驚異的です。ChatGPTやGPT-40、そして今後はマルチモーダル対応のGeminiやVitzRamp、AnthropicなどのアプリケーションがすべてのGPUを消費しています。さらに、マルチメディアからデジタルキャラクター、設計ツールアプリケーション、生産性アプリケーション、デジタルバイオロジー、AV業界のビデオトレーニングなど、15,000〜20,000の生成AIスタートアップが存在します。需要は非常に高く、供給を上回っています。長期的には、これはプラットフォームシフトであり、以前のプラットフォームシフトよりもはるかに深いものです。コンピュータは命令駆動のコンピュータではなく、意図を理解するコンピュータに変わります。これは、世界中のコンピューティングスタックを変えるものであり、今後の変革を予測しています。

次の質問は、モルガンスタンレーのジョー・ムーアさんからです。どうぞ。

ありがとうございます。非常に強い需要があることは理解していますが、H200やブラックウェル製品への需要が非常に高い中、ホッパーやH100の需要にどのような影響があると考えていますか?新製品を待つために一時的な停止があると考えていますか、それともH100の需要が持続すると考えていますか?

今四半期中のHopperの需要は増加しており、H200やブラックウェルへの移行が進む中でも、供給を上回る需要がしばらく続くと予想しています。

次の質問は、ゴールドマン・サックスのトシハ・ハリさんからです。どうぞ。

質問を受けていただきありがとうございます。競争について伺いたいのですが、多くのクラウド顧客が内部プログラムの新規発表や既存プログラムの更新を発表しています。中長期的に彼らを競争相手と見なしていますか?また、彼らが主に内部ワークロードを対象とするのか、より広範な分野に対応する可能性があると考えていますか?ありがとうございます。

私たちは異なる点がいくつかあります。まず、NVIDIAのアクセラレーテッドコンピューティングアーキテクチャは、トレーニングから推論までのパイプライン全体を処理できます。生成プロセスは基本的に異なる処理アーキテクチャを持ち、TensorRT LLMが非常に受け入れられた理由でもあります。同じチップでの性能を3倍に向上させたことは、アーキテクチャとソフトウェアの豊かさを物語っています。第二に、NVIDIAはすべてのクラウドで利用可能であり、開発者にとってNVIDIAを最初に選ぶのは常に良い選択です。私たちはオンプレミスでもクラウドでも、あらゆるサイズと形のコンピュータで利用可能です。第三に、AI工場を構築しています。AIはチップだけの問題ではなく、システムの問題です。最適化されたチップとシステムを持つことが重要です。5億ドルのインフラストラクチャが性能を2倍に向上させれば、5億ドルの価値があります。これが今日の最高性能が最低TCOである理由です。

次の質問は、TD Cowanのマット・ラムゼイさんからです。どうぞ。

質問を受けていただきありがとうございます。データセンター業界に長年携わっていますが、新しいプラットフォームをこの速度で導入し、同時にこれほどの性能向上を達成するのは見たことがありません。トレーニングでの5倍の性能向上、GTCで発表された推論での30倍の性能向上など、驚くべきことです。しかし、これにより興味深い対比が生まれます。お客様が数十億ドルを費やしている現在の製品が、減価償却サイクルよりも早く競争力を失う可能性があります。ブラックウェルへの移行について、既存の大規模なインストールベースを持つお客様がどのように対応するのか、もう少し詳しくお聞かせください。

3つのポイントを述べたいと思います。建設の初期段階では、どんどん建設を進める必要があります。ブラックウェルが登場すると素晴らしいでしょう。次のブラックウェルの登場も控えています。私たちは1年ごとのリズムで進んでいます。早期に建設を進めることが重要です。時間が非常に貴重です。時間の価値についての例を挙げます。データセンターの立ち上げが迅速に行われることが非常に価値があります。次の大きなAIのマイルストーンに達する会社は、画期的なAIを発表できます。繰り返し画期的なAIを提供する会社になるか、わずかに改善されたものを提供する会社になるかの違いです。技術リーダーシップは非常に重要です。トレーニング時間の短縮は非常に重要です。ホッパーシステムを急いで立ち上げている理由です。

次に、なぜこれほど迅速に進展しているのかについてお話しします。すべてのスタックをここで構築し、すべてを監視、測定、最適化しています。ボトルネックを正確に理解しています。単なるパワーポイントではありません。実際にスケールで性能を発揮するシステムを提供しています。すべてのチップを最初から設計しており、システム全体での処理方法を正確に理解しています。これにより、次世代ごとに最適な性能を引き出す方法を理解しています。

次の質問は、エバコアISIのマーク・ロパキスさんからです。どうぞ。

質問を受けていただきありがとうございます。以前、一般目的のコンピューティングエコシステムが各コンピューティング時代を支配していたと述べられました。この観察が間違っている場合は教えてください。生成AIのワークロードが主要な需要を引き起こしている状況では、カスタムソリューションが適しているように見えますが、一般目的のコンピューティングフレームワークがリスクにさらされる可能性がありますか?また、これらのワークロードの変動や進化が一般目的のフレームワークを支える要因となりますか?

アクセラレーテッドコンピューティングは多用途ですが、一般目的ではありません。例えば、スプレッドシートの実行は得意ではありません。それは一般目的のコンピューティングに設計されたものです。オペレーティングシステムの制御ループコードは、アクセラレーテッドコンピューティングには適していません。私たちは多用途ですが、一般目的ではないと言えるでしょう。数多くのアプリケーションを加速することができますが、共通点があります。それらは並列実行が可能で、多くのスレッドを持っています。多用途性が重要であり、システム全体の設計が重要です。生成AIの進化に伴い、特定のモデルに適したウィジェットを持つよりも、広範なドメインに適したものが必要です。ソフトウェアは進化し続け、モデルは拡大し続けます。これにより、私たちのプラットフォームの多用途性が重要です。

次の質問は、ジェフリーズのブレイン・カーティスさんからです。どうぞ。

質問を受けていただきありがとうございます。供給制約がある中で、中国向けのH20製品の供給についてどのように考えていますか?供給の配分や影響について詳しく教えてください。

お客様に対して最善を尽くしていますが、中国でのビジネスは過去のレベルよりも大幅に減少しています。技術の制限により、中国市場は非常に競争が激しくなっています。供給の逼迫は市場全体に影響していますが、特にH200とブラックウェルについてはそうです。

次の質問は、レイモンド・ジェームズのスリニバス・ジュリさんからです。どうぞ。

質問を受けていただきありがとうございます。GB200システムについてですが、システムの需要が非常に強いようです。これまでのシステムビジネスは比較的小規模でしたが、なぜ今システムの需要がこれほど強いのでしょうか?TCOやアーキテクチャの違いがあるのでしょうか?

私たちは、システムの需要が非常に高まっています。特にTCO(総所有コスト)が重要な要素です。GraceとBlackwellの統合により、メモリシステムが一体化し、非常に高いデータ転送速度が実現されました。さらに、低消費電力メモリを使用することで、データセンターのエネルギー効率を向上させることができました。次世代の大規模言語モデルの推論には、大規模なNVLinkドメインが必要であり、それを実現するためにはGraceとBlackwellのアーキテクチャが必要でした。これにより、ソフトウェアプログラミングの観点からもシステムの効率が向上しました。

次の質問は、トゥルースト証券のウィリアム・スタインさんからです。どうぞ。

質問を受けていただきありがとうございます。NVIDIAがデータセンター向けにARMベースのGrace CPUを導入した理由として、コストや電力消費、技術的なシナジーなどが考えられますが、クライアント側でも同様のダイナミックが生じる可能性はありますか?

Grace CPUとHopperのメモリシステムは一体化しており、非常に高いデータ転送速度を実現しています。Graceは低消費電力メモリを使用しており、各ノードの消費電力を削減します。また、次世代の大規模言語モデルの推論には、大規模なNVLinkドメインが必要です。これらの理由から、GraceとBlackwellのアーキテクチャが不可欠です。クライアント側でも同様の機会があるかどうかを探ることができます。昨日の発表で、Satyaは次世代のPC、CoPilot Plus PCを発表し、NVIDIAのRTX GPUで素晴らしく動作することが示されました。

最後の質問は、カンター・フィッツジェラルドのCJ・ミューズさんからです。どうぞ。

長期的な質問ですが、ブラックウェルの後に登場する製品について、NVIDIAの革新のペースや今後の摩擦点について教えてください。

ブラックウェルの後にも新しいチップがあります。私たちは1年ごとのリズムで進んでいます。新しいネットワーキング技術、スペクトラムX、イーサネット、NVLink、InfiniBandなど、新しいスイッチ、新しいNIC、新しいソフトウェアスタック、新しいCPU、新しいGPU、新しいネットワーキングNIC、新しいスイッチなど、次々と新しい技術が登場します。すべてがCUDA上で動作し、NVIDIAのアーキテクチャに投資することで、性能が向上し続け、クラウドやデータセンターで広く利用できるようになります。私たちの革新のペースは、能力の向上とTCOの削減を促進します。新しい産業革命を開始し、人工知能トークンの製造を大規模に実現します。

これで質問と回答のセッションおよび本日のコールを終了します。ご参加いただきありがとうございました。

この記事が気に入ったらサポートをしてみませんか?