見出し画像

エヌビディア(NVDA)Q1 2025 カンファレンスコール


決算概要

オペレーター
こんにちは。オペレーターのレジーナと申します。エヌビディアの第1四半期決算説明会にようこそお越しくださいました。シモーナ・ヤンコウスキーさん、会議を始めてください。

シモナ・ステファン・ヤンコフスキー
ありがとうございます。皆様、こんにちは。NVIDIA の 2025 年度第 1 四半期カンファレンス・コールへようこそ。本日はエヌビディアから、社長兼最高経営責任者のジェンセン・フアン、取締役副社長兼最高財務責任者のコレット・クレスが出席しています。本日の電話会議は、エヌビディアの投資家向けウェブサイトにてライブ中継されます。ウェブキャストは、2025会計年度第2四半期の財務結果について説明する電話会議まで再生可能です。本日の電話会議の内容はエヌビディアの財産です。当社の事前の書面による同意なしに複製または転写することはできません。

本通話の中で、当社は現在の予想に基づく将来の見通しに関する記述を行うことがあります。これらは多くの重大なリスクと不確実性の影響を受け、当社の実際の結果は大きく異なる可能性があります。

当社の将来の業績および事業に影響を与えうる要因については、本日の決算発表、当社の最新のForm 10-KおよびForm 10-Q、ならびに当社が証券取引委員会にForm 8-Kで提出する可能性のある報告書の開示をご参照ください。当社のすべての記述は、本日2024年5月22日現在、当社が現在入手可能な情報に基づいて作成されています。法律で義務付けられている場合を除き、当社はこのような記述を更新する義務を負いません。

本通話では、非GAAP財務指標について説明します。

これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整については、当社のウェブサイトに掲載されているCFOコメンタリーをご覧ください。

今後のイベントをいくつかご紹介しましょう。6月2日(日)、台湾で開催されるコンピューテックス・テクノロジー見本市に先立ち、ジェンセンが基調講演を行います。また、6月5日にはサンフランシスコで開催されるバンク・オブ・アメリカ・テクノロジー・カンファレンスでプレゼンテーションを行います。それでは、コレットに電話を回します。

コレット・クレス
ありがとう、シモーナ。第1四半期も記録的な四半期でした。売上高は260億ドルで、前四半期比18%増、前年同期比262%増となり、見通しの240億ドルを大きく上回りました。データセンターから始めます。データセンターの売上高は226億ドルで、前四半期比23%増、前年同期比427%増となり、記録的な伸びとなりました。コンピュート売上高は前年比5倍以上、ネットワーク売上高は同3倍以上の伸びとなった。データセンターの前四半期比の力強い成長は、エンタープライズおよびコンシューマー・インターネット企業が牽引し、すべての顧客タイプによってもたらされた。大規模なクラウドプロバイダーは、エヌビディアのAIインフラストラクチャを大規模に導入し、増強しているため、引き続き力強い成長を牽引しており、当社のデータセンター売上高に占める割合は40%台半ばを占めています。NVIDIA CUDA上でのAIのトレーニングと推論は、クラウドレンタルの収益成長を加速させ、クラウドプロバイダーの投資に即座に強力なリターンをもたらしています。

NVIDIA AIインフラストラクチャに1ドル費やすごとに、クラウドプロバイダーは4年間で5ドルのGPUインスタントホスティング収益を得る機会があります。NVIDIAの豊富なソフトウェアスタックとエコシステム、そしてクラウドプロバイダーとの緊密な統合により、エンドカスタマーはパブリッククラウド上のNVIDIA GPUインスタンスを簡単に立ち上げて稼働させることができます。

クラウドレンタルの顧客にとって、NVIDIA GPUは、モデルを訓練する最良の時間、モデルを訓練する最低のコスト、そして大規模な言語モデルを推論する最低のコストを提供します。

パブリッククラウドプロバイダーにとって、NVIDIAは顧客を自社のクラウドに呼び込み、収益の成長とインフラ投資に対するリターンを促進します。OpenAI、The Depth、Anthropic、Character AI、Cohere、Databricks、DeepMind、Meta、Mistral、xAI、その他多くの大手LLM企業が、NVIDIAのクラウドAIを利用しています。今四半期、データセンターでは企業が力強い前四半期比成長を牽引しました。当社は、TeslaのトレーニングAIクラスターを35,000個のH100 GPUに拡張することをサポートしました。NVIDIA AIインフラストラクチャの利用は、Visionに基づく最新の自律走行ソフトウェアであるFSDバージョン12の画期的な性能に道を開きました。NVIDIA Transformersは、大幅に多くのコンピューティングを消費しながらも、劇的に優れた自律走行機能を実現し、自動車業界全体でNVIDIA AIインフラストラクチャの大きな成長を後押ししています。

自動車は今年、データセンター業界において最大の企業分野となり、オンプレミスとクラウドの両方で数十億ドルの収益機会をもたらすと期待しています。コンシューマー・インターネット企業も力強い成長業種です。今四半期の大きな目玉は、24,000個のH100 GPUクラスタで学習させた最新の大規模言語モデル、Llama 3の発表でした。Llama 3は、Facebook、Instagram、WhatsApp、Messengerで利用可能な新しいAIアシスタント、Meta AIを駆動する。Llama 3はオープンに利用可能であり、業界全体にAI開発の波を巻き起こした。

ジェネレーティブAIがより多くの消費者向けインターネット・アプリケーションに導入されるにつれて、推論はモデルの複雑さだけでなく、ユーザー数やユーザーあたりのクエリー数にも比例してスケールし、AIコンピュートへの需要が高まるため、継続的な成長機会が見込まれる。直近の4四半期では、推論がデータセンターの収益の約40%を占めていると推定しています。トレーニングも推論も著しく成長しています。メタやテスラが構築したような大規模クラスターは、AI生産に不可欠なインフラの一例であり、我々がAI工場と呼んでいるものだ。このような次世代データセンターは、高度なフルスタック・アクセラレーション・コンピューティング・プラットフォームをホストしており、そこにデータが入ってきてインテリジェンスが出てくる。第1四半期には、数百から数万GPU、中には10万GPUに達する規模のAIファクトリーを構築する100以上の顧客と協業した。地理的な観点から見ると、世界各国がソブリンAIに投資しているため、データセンターの収益は引き続き多様化しています。

ソブリンAIとは、自国のインフラ、データ、労働力、ビジネスネットワークを使って人工知能を生み出す国の能力を指す。各国は様々なモデルを通じて国内のコンピューティング能力を増強している。

国営の通信プロバイダーや公益事業者と共同でソブリンAIクラウドを調達し、運用しているところもある。また、地域のクラウドパートナーを後援して、公共部門と民間部門が利用できる共有AIコンピューティングプラットフォームを提供している国もある。

例えば日本は、KDDI、さくらインターネット、ソフトバンクなどの主要デジタル・インフラ・プロバイダーに7億4,000万ドル以上を投資し、国家主権AIインフラを構築する計画だ。フランスを拠点とするイリアド・グループ傘下のScalewayは、ヨーロッパで最も強力なクラウドネイティブAIスーパーコンピューターを構築している。イタリアでは、スイスコム・グループが国内初で最も強力なNVIDIA DGX搭載スーパーコンピューターを構築し、イタリア語でネイティブに訓練された初のLLMを開発する。またシンガポールでは、国立スーパーコンピュータセンターがNVIDIA Hopper GPUでアップグレードされ、シングテルは東南アジア全域にNVIDIAの加速AI工場を建設しています。NVIDIAのエンドツーエンドのコンピュートからネットワーキング技術、フルスタックソフトウェア、AIの専門知識、パートナーや顧客の豊富なエコシステムを提供する能力により、主権を持つAIや地域のクラウドプロバイダーは、自国のAIの野望を飛躍させることができます。前年はゼロだったソブリンAIの売上は、今年は一桁台後半に近づくと思われる。AIの重要性はあらゆる国の注目を集めている。我々は、港湾管理ライセンスを必要としない中国専用に設計された新製品を立ち上げた。

当社の中国におけるデータセンターの売上高は、10月に新たな輸出規制が発動される前の水準から大幅に減少している。

中国市場は今後も非常に競争が激しくなると予想しています。製品面では、コンピュート収益の大部分は当社のHopper GPUアーキテクチャによるものです。当四半期におけるHopperの需要は引き続き増加しています。CUDAアルゴリズムの革新のおかげで、H100のLLM推論を最大3倍高速化することができ、これはLlama 3のような人気モデルにサービスを提供する際の3倍のコスト削減につながります。H200は第1四半期にサンプル出荷を開始し、現在は第2四半期の出荷に向けて生産中です。

最初のH200システムはジェンセンからサム・アルトマンとOpenAIのチームに納品され、先週彼らの素晴らしいGPT-4oのデモを動かした。H200はH100の推論性能を2倍近く向上させ、プロダクションの展開に大きな価値をもたらします。

例えば、7,000億のパラメータを持つLlama 3を使用した場合、NVIDIA HGX H200サーバー1台で、毎秒24,000トークンを提供し、同時に2,400人以上のユーザーをサポートすることができます。つまり、NVIDIA、HGX H200サーバーに現在のトークン単価で1ドル使うごとに、Llama 3トークンを提供するAPIプロバイダーは4年間で7ドルの収益を上げることができます。継続的なソフトウェアの最適化により、AIモデルを提供するためのNVIDIA AIインフラストラクチャのパフォーマンスを改善し続けています。

H100の供給にはまだ制約がありますが、H200の供給にはまだ制約があります。同時に、Blackwellはフル稼働しています。

我々は、今年後半にグローバルで利用可能になるよう、システムとクラウドパートナーの立ち上げに取り組んでいる。H200とBlackwellの需要は供給を大きく上回っており、来年以降も需要が供給を上回る可能性があります。Grace Hopper Superchipは大量に出荷されています。先週開催された国際スーパーコンピューティング会議において、私たちは、今年、世界で新たに9台のスーパーコンピュータがGrace Hopperを採用し、合計200エクサフロップスのエネルギー効率に優れたAI処理能力を提供することを発表しました。その中には、欧州最速のAIスーパーコンピューターであるスイス国立スーパーコンピューティング・センターのアルプス・スーパーコンピューター、英国ブリストル大学のIsambard-AI、ドイツのユーリッヒ・スーパーコンピューティング・センターのJupiterが含まれます。

グレース・ホッパーのエネルギー効率と性能の高さから、スーパーコンピューティングへの導入率は80%に達しています。

また、Grace Hopperを搭載したスーパーコンピュータが、世界で最もエネルギー効率の高いスーパーコンピュータの第1位、第2位、第3位を獲得したことを誇りに思います。ネットワークの前年比成長率は、InfiniBand が牽引した。前四半期比では小幅な減少にとどまったが、これは主に供給のタイミングによるもので、需要が出荷能力を大幅に上回ったためである。

第 2 四半期には、ネットワークは再び前四半期比で成長すると予想しています。第1四半期には、AI向けに一から最適化した新しいSpectrum-X Ethernetネットワーキング・ソリューションの出荷を開始しました。このソリューションには、Spectrum-4スイッチ、BlueField-3 DPU、およびイーサネット上のAIの課題を克服するための新しいソフトウェア技術が含まれ、従来のイーサネットと比較してAI処理で1.6倍のネットワーキング性能を実現します。Spectrum-Xは、100,000GPUの巨大なクラスタを含む複数の顧客で量産を開始しています。Spectrum-Xは、NVIDIAネットワーキングに全く新しい市場を開き、イーサネットのみのデータセンターが大規模AIに対応できるようにします。

我々は、Spectrum-Xが1年以内に数十億ドル規模の製品ラインに飛躍すると期待している。3月のGTCでは、次世代AIファクトリープラットフォーム「Blackwell」を発表しました。BlackwellのGPUアーキテクチャは、H100よりも最大4倍高速なトレーニングと30倍高速な推論を実現し、1兆パラメータ規模の大規模言語モデル上でリアルタイムの生成AIを可能にします。Blackwellは、Hopperと比較してTCOとエネルギー消費量を最大25倍削減し、大きな飛躍を遂げます。Blackwellプラットフォームには、マルチGPUスパインを備えた第5世代のNVLinkと、1兆パラメータ規模のAI向けに設計された新しいInfiniBandおよびイーサネットスイッチ、X800シリーズが含まれる。Blackwellは、ハイパースケールからエンタープライズまで、トレーニングから推論まで、x86からGrace CPUまで、イーサネットからInfiniBandネットワーキングまで、空冷から液冷まで、普遍的にデータセンターをサポートするように設計されている。Blackwellは、Hopperの発売時の2倍以上となる100以上のOEMおよびODMシステムで発売され、世界の主要なコンピューター・メーカーを代表するものとなります。これにより、初年度の出荷では、顧客タイプ、ワークロード、データセンター環境全体で迅速かつ広範な導入が可能になる。BlackwellのTime-to-Market顧客には、Amazon、Google、Meta、Microsoft、OpenAI、Oracle、Tesla、xAIが含まれます。当社は、NVIDIA Inference Microservices(NIM)を導入した新しいソフトウェア製品を発表しました。NIMは、TritonやPrintServer、TensorRT LLMなどのネットワークコンピューティングや推論ソフトウェアにNVIDIA CUDAアクセラレーションを搭載したセキュアでパフォーマンス最適化されたコンテナを提供し、テキスト、音声、画像、ビジョン、ロボティクス、ゲノム、デジタル生物学などの大規模言語モデルを含む幅広いユースケースに対応する業界標準のAPIを備えています。開発者は、NVIDIA、AI21、Adept、Cohere、Getty Images、Shutterstockの主要モデルや、Google、Hugging Face、Meta、Microsoft、Mistral AI、Snowflake、Stability AIのオープンモデルを使用して、ジェネレーティブAIアプリケーションを迅速に構築し、展開することができます。NIMは、エヌビディアのAIエンタープライズソフトウェアプラットフォームの一部として、クラウドまたはオンプレムでの本番導入向けに提供される予定です。

ゲーミングPCとAI PCへの移行 ゲーミングの売上高は26.5億ドルで、前四半期比8%減、前年同期比18%増となり、季節的に減少するという当社の見通しと一致しました。GeForce RTXスーパーGPUの市場での評判は好調で、最終需要とチャネル在庫は製品群全体で健全な状態を維持しました。AIの旅の最初の段階から、我々はGeForce RTX GPUにCUDA Tensorコアを搭載しました。

現在、1億台以上のインストールベースを持つGeForce RTX GPUは、ゲーマー、クリエイター、AI愛好家に最適であり、PC上でジェネレーティブAIアプリケーションを実行するための比類ないパフォーマンスを提供します。NVIDIAは、GeForce RTX PC上で高速かつ効率的な生成AI推論を展開し実行するための完全な技術スタックを備えています。TensorRT LLMは現在、MicrosoftのPhi-3 Miniモデル、GoogleのGemma 2Bおよび7Bモデル、さらにLangChainやLlamaIndexを含む一般的なAIフレームワークを高速化しています。昨日、NVIDIAとMicrosoftは、NVIDIA GeForce RTX AI PC上でLLMを最大3倍高速に実行するためのWindows向けAIパフォーマンス最適化を発表しました。また、Games、Tencent、Ubisoftを含むトップクラスのゲーム開発者は、NVIDIA Avatar Character Engine (sic) [ Avatar Cloud Engine ]を採用し、ゲーマーと非プレイアブルキャラクター間のインタラクションを変化させるリアルなアバターを作成しています。

ProVizに移ります。売上高は4億2700万ドルで、前四半期比8%減、前年同期比45%増でした。我々は、ジェネレーティブAIとOmniverseの産業用デジタル化が、プロフェッショナル・ビジュアライゼーションの次の成長の波を牽引すると考えている。GTCでは、開発者がOmniverseの産業用デジタルツインとシミュレーション技術をアプリケーションに統合できるよう、新しいOmniverse Cloud APIを発表しました。

ANSYS、Cadence、3D Xcite、Systems、Brand、Siemensなど、世界最大の産業用ソフトウェアメーカーがこれらのAPIを採用している。また開発者は、Apple Vision Proのような空間コンピューティングデバイスで産業用デジタルツインをストリーミングするために、これらのAPIを使用することができます。Omniverse Cloud APIは、今年後半にMicrosoft Azureで利用可能になる予定です。企業はワークフローのデジタル化にOmniverseを利用している。Omniverseのパワーデジタルツインは、当社の製造パートナーの1つであるWistron社が、エンドツーエンドの生産サイクルタイムを50%短縮し、不良率を40%削減することを可能にしました。また、世界最大の電気自動車メーカーであるBYDは、オムニバースをバーチャル工場計画や小売コンフィギュレーションに採用しています。

自動車業界に話を移そう。売上高は前四半期比17%増、前年同期比11%増の3億2900万ドルでした。前四半期比で増収となったのは、グローバルOEM顧客とのAIコックピット・ソリューションの立ち上がりと自動運転プラットフォームの好調によるものです。前年同期比では主に自動運転が成長を牽引した。エヌビディアは、シャオミの初の電気自動車SU7セダンの発売をサポートし、ソフトウェア定義のAVフリート用AIカーコンピュータであるエヌビディア・ドライブ・オリンを搭載したSU7セダンの発売を成功させました。

当社はまた、BYD、XPeng、GACのiOnHyper、Neuroを含む複数の大手EVメーカーと、新しいNVIDIA Blackwellアーキテクチャを搭載したOrinの後継機であるNVIDIA DRIVE Thorに関する多数の新しいデザインウィンを発表しました。DRIVE Thorは、来年から市販車に搭載される予定だ。

さて、損益計算書の残りの部分に移ります。GAAPベースの売上総利益率は78.4%に、非GAAPベースの売上総利益率は78.9%に前四半期比で拡大しました。

前四半期に述べたように、第4四半期と第1四半期はともに部品コストの好影響を受けた。前四半期比では、GAAP基準の営業費用は10%増、非GAAP基準の営業費用は13%増となりましたが、これは主に報酬関連費用の増加、コンピュートおよびインフラ投資の増加を反映したものです。第 1 四半期には、自社株買いおよび現金配当の形で 78 億ドルを株主に還元しました。本日、6月10日を分割調整後の取引開始日として、1株を10株に分割することを発表しました。

また、配当金も150%増配します。

第2四半期の見通しについてご説明します。総収益は280億ドル、プラスマイナス2%を見込んでいます。

すべての市場プラットフォームで前四半期比の成長を見込んでいます。GAAPベースの売上総利益率は74.8%、非GAAPベースの売上総利益率は75.5%となる見込みです。

通期の売上総利益率は70%台半ばを見込んでいます。GAAP基準の営業費用は約40億ドル、非GAAP基準の営業費用は約28億ドルとなる見込みです。通年の営業費用は40%台前半の伸びを見込んでいます。GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資の損益を除き、約3億ドルの利益を見込んでいます。GAAPおよび非GAAPベースの税率は、個別項目を除き、プラスマイナス1%の17%を見込んでいます。財務の詳細については、CFOのコメントおよびIRウェブサイトでご覧いただけるその他の情報をご覧ください。それでは、ジェンセンからコメントをいただきたいと思います。

ジェンセン・ファン
ありがとう、コレット。業界は大きな変化を迎えています。

Q&Aを始める前に、変革の重要性について少しお話しさせてください。次の産業革命が始まっています。企業や国はエヌビディアと提携し、従来のデータセンターの1兆ドル規模のインストールベースをアクセラレーテッド・コンピューティングに移行させ、新しいタイプのデータセンター、AIファクトリーを構築し、新しい商品である人工知能を生産しようとしています。AIは、ほぼすべての業界に大幅な生産性向上をもたらし、企業が収益機会を拡大しながら、コストとエネルギー効率を高めるのに役立つだろう。CSPは、AIを生成する最初のムーバーである。エヌビディアとともに、CSPはワークロードを高速化し、コストと電力を節約した。NVIDIA Hopperによって生成されたトークンは、AIサービスの収益を促進します。そして、NVIDIAクラウドインスタンスは、開発者の豊富なエコシステムからレンタル顧客を引き寄せます。旺盛で加速する需要 -- Hopperプラットフォーム上での生成的AIトレーニングと推論に対する加速する需要が、当社のデータセンターの成長を後押ししています。トレーニングは、モデルがテキスト、音声、画像、ビデオ、3Dを理解し、推論と計画を学習するマルチモーダルを学習するにつれて拡大し続けています。

推論ワークロードは信じられないほど増大している。ジェネレーティブAIによって、大規模で高速なトークン生成に関わる推論は、信じられないほど複雑になっている。ジェネレーティブAIは、あらゆるコンピューターとのインタラクションを変革する、基礎から応用までのフルスタック・コンピューティング・プラットフォームのシフトを推進している。今日の情報検索モデルから、回答やスキル生成モデルのコンピューティングへと移行しつつある。AIは文脈と我々の意図を理解し、知識を持ち、推論し、計画し、タスクを実行する。

汎用CPUからGPUアクセラレーション・コンピューティングへ、命令駆動型ソフトウェアから意図理解型モデルへ、情報検索からスキル実行へ、そして産業レベルではソフトウェアの生産からトークンの生成、デジタル・インテリジェンスの製造へと、コンピューティングの仕組みとコンピュータにできることを根本的に変えようとしている。トークンの生成は、AIファクトリーの数年にわたる増築を推進するだろう。

クラウド・サービス・プロバイダーだけでなく、ジェネレーティブAIは消費者向けインターネット企業や企業、ソブリンAI、自動車、ヘルスケアなどの顧客へと拡大しており、数十億ドル規模の垂直市場が複数生まれている。Blackwellプラットフォームはフル稼働しており、1兆パラメータ規模のジェネレーティブAIの基盤を形成している。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、ミックスとスイッチ、高速インターコネクト、ソフトウェアとパートナーの豊富なエコシステムを組み合わせることで、AI工場向けに前世代よりも豊富で完全なソリューションを拡大・提供することができます。Spectrum-Xは、イーサネットのみのデータセンターに大規模なAIをもたらすという、まったく新しい市場を切り開きます。そして、NVIDIA NIMsは、当社のエコシステムパートナーの広範なネットワークを通じて、クラウドからオンプレムデータセンター、RTX AI PCまで、あらゆる場所でCUDA上で実行するエンタープライズグレードの最適化されたジェネレーティブAIを提供する当社の新しいソフトウェアです。BlackwellからSpectrum-X、そしてNIMsに至るまで、私たちは次の成長の波に向けて態勢を整えています。ありがとうございました。

シモーナ・ステファン・ヤンコフスキー
ありがとう、ジェンセン。

質問を受け付けます。オペレーター、質問をお願いします。

質疑応答

オペレーター
最初のご質問はバーンスタインのステイシー・ラスゴンさんからです。

ステイシー・ラスゴン
最初の質問ですが、Blackwellの「現在フル生産中」というコメントについて少し掘り下げたいと思います。もしその製品が......もうサンプリングではないようですが。現在生産中ということは、実際にお客様の手に渡るのはいつになるのでしょうか?

ジェンセン・ファン
出荷されるのは......そうですね、生産が始まって少し経ちます。しかし、生産出荷は第2四半期から始まり、第3四半期には立ち上がり、第4四半期にはお客様のデータセンターが立ち上がるはずです。

ステイシー・ラスゴン
分かりました。

ということは、今年はBlackwellの収益が見込めそうですね?

ジェンセン・ファン
今年は多くのBlackwellの収益が見込めます。

オペレーター
次の質問はUBSのティモシー・アルクリさんからです。

ティモシー・アルクリ
ジェンセン、Blackwellの展開とHopperの展開についてお聞きしたいのですが、システム的な性質とGBに対する需要の違いについてです。Blackwellの配備はHopperとどう違うのですか?というのも、大規模な液冷はこれまでに例がなく、ノードレベルでもデータセンター内でもエンジニアリング上の課題があるからです。

このような複雑さが移行を長引かせているのでしょうか?また、どのように移行を考えていますか?

ジェンセン・ファン
Blackwellにはさまざまな構成があります。BlackwellはGPUではなくプラットフォームです。このプラットフォームには、空冷、液冷x86、Grace、InfiniBand、そしてGTCでデモしたSpectrum-Xと非常に大規模なNVLinkドメインのサポートが含まれています。

そのため、顧客によっては、すでにHopperを出荷している既存のデータセンターのインストール・ベースから移行することもできます。H100からH200、B100へと簡単に移行できるでしょう。

Blackwellのシステムは、電気的、機械的に後方互換性があるように設計されています。もちろん、Hopperで稼働するソフトウェア・スタックは、Blackwellでも問題なく稼働します。

私たちはまた、エコシステム全体と一緒に、液冷に対応できるようにポンプの呼び水をしてきました。Blackwellについては、かなり前からエコシステムと話し合ってきました。CSP、データ・センター、ODM、システム・メーカー、そしてその先にある我々のサプライ・チェーン、冷却サプライ・チェーン・ベース、液冷サプライ・チェーン・ベース、データ・センター・サプライ・チェーン・ベースは、Blackwellの登場と、我々がGrace Blackwell 200で提供したい能力に、誰も驚かないでしょう。GB200は特別なものになるでしょう。

オペレーター
次の質問はバンク・オブ・アメリカ証券のヴィヴェク・アリヤさんからです。

ヴィヴェク・アリヤ
ジェンセンさん、御社の商品が十分に利用されていること、また需給の逼迫や競争、その他の要因によってプル・アヘッドやホールディングが起きていないことをどのように確認していますか?基本的に、マネタイズが貴社の非常に力強い出荷の伸びと歩調を合わせているという確信を得るために、どのようなチェックをシステムに組み込んでいるのでしょうか?

ジェンセン・ファン
そうですね、大局的な見方はこれからお話しするとして、ご質問に直接お答えします。すべてのデータセンターにおけるGPUの需要は驚異的です。私たちは毎日競争しています。その理由は、ChatGPTやGPT-4o、そしてこれからはマルチモダリティ、Gemini、ramp、Anthropicのようなアプリケーションや、すべてのCSPで行われているすべての作業が、そこにあるすべてのGPUを消費しているからです。また、ジェネレーティブAIのスタートアップは、マルチメディアからデジタル・キャラクターまであらゆる分野で、15,000社から20,000社に及びます。もちろん、あらゆる種類のデザイン・ツール・アプリケーション、生産性アプリケーション、デジタル生物学、エンド・ツー・エンド・モデルを訓練できるようにするためのAV業界のビデオへの移行、自動運転車の操作領域の拡大など、長い列をなしています。そのリストは非常に多岐にわたる。実際、私たちは競争しています。お客さまは、できるだけ早くシステムを提供し、立ち上げるよう私たちに大きなプレッシャーをかけています。そしてもちろん、自国の地域の天然資源であるデータをすべてトレーニングして、地域のモデルをトレーニングしたいと考える主権AIについても触れていない。このようなシステムを立ち上げようとするプレッシャーも大きい。

いずれにせよ、需要は本当に高く、我々の供給を上回っていると思います。長期的に見れば、それが私が飛び込みでコメントした理由です。長期的に見れば、私たちはコンピューターがどのように機能するかを完全に再設計しています。これはプラットフォーム・シフトです。

もちろん、過去の他のプラットフォーム・シフトと比較されることはある。しかし、時間が経てば、これがこれまでのプラットフォーム・シフトよりもずっとずっと深いものであることがはっきりわかるだろう。その理由は、コンピューターがもはや命令駆動のみのコンピューターではないからだ。意図を理解するコンピューターなのだ。もちろん、私たちがコンピューターとやりとりする方法も理解しますが、それだけではなく、私たちの意味、私たちがコンピューターに求めた意図も理解し、推論を繰り返し、計画を処理し、解決策を導き出す能力を備えています。

コンピュータのあらゆる側面が、あらかじめ記録されたファイルを検索する代わりに、文脈に関連したインテリジェントな答えを生成するように変化しているのです。

その結果、世界中のコンピューティング・スタックが変わることになるでしょう。実際、PCのコンピューティングスタックさえも革命を起こそうとしています。そしてこれは、私たちがラボで取り組んでいることや、世界中のスタートアップ企業や大企業、開発者たちと取り組んでいることのほんの始まりにすぎません。非常に素晴らしいものになるでしょう。

オペレーター
次の質問は、モルガン・スタンレーのジョー・ムーアです。

ジョセフ・ムーア
今おっしゃった、需要がいかに強いかということはよくわかりました。

H200やBlackwell製品に多くの需要がありますね。HopperとH100は、これらの製品への移行に伴い、一時停止するようなことは予想されますか?人々は新製品を待つのでしょうか?それとも、H100には成長を維持できるだけの需要があるとお考えですか?

ジェンセン・ファン
今四半期を通じてHopperの需要は増加していると見ています。また、H200への移行、Blackwellへの移行に伴い、しばらくの間は需要が供給を上回ると予想しています。誰もがインフラをオンラインにすることを切望しています。その理由は、お金を節約し、お金を稼ぐためであり、できるだけ早くそうしたいと考えているからです。

オペレーター
次の質問は、ゴールドマン・サックスの針俊哉さんからです。

針 俊也
ジェンセン、競争についてお聞きしたいと思います。

御社のクラウド顧客の多くは、御社との取り組みと並行して、新しい、あるいは既存の社内プログラムのアップデートを発表したと思います。中長期的に見て、どの程度競合相手として考えていますか?また、あなたの見解では、彼らはほとんどの社内ワークロードへの対応に限定されていると思いますか、それとも今後対応する対象が広がる可能性はありますか?

ジェンセン・ファン
私たちはいくつかの点で異なっています。

まず、NVIDIAのアクセラレーテッド・コンピューティング・アーキテクチャは、トレーニングの準備のための非構造化データ処理から、構造化データ処理、トレーニングの準備のためのSQLのようなデータフレーム処理、トレーニングから推論に至るまで、お客様のパイプラインのあらゆる側面を処理することを可能にします。そして、今申し上げたように、推論は本当に根本的に変わりました。猫を検出するのではなく、猫のすべてのピクセルを生成しなければならないのです。

つまり、生成プロセスは根本的に異なる処理アーキテクチャなのです。TensorRT LLMが好評だった理由の1つです。私たちのアーキテクチャで同じチップを使用した場合、パフォーマンスは3倍向上しました。これは、私たちのアーキテクチャの豊富さとソフトウェアの豊富さを物語っています。

つまり、コンピュータ・ビジョンから画像処理、コンピュータ・グラフィックス、そしてコンピューティングのあらゆるモダリティに至るまで、あらゆるものにNVIDIAを使うことができるのです。そして、汎用コンピューティングが一巡したため、世界はコンピューティングコストとコンピューティングエネルギーのインフレに苦しんでいます。

つまり、アクセラレーテッド・コンピューティングは、コンピューティングにおけるコスト削減、エネルギー削減の方法なのです。

私たちのプラットフォームは汎用性が高いため、データセンターのTCOを最も低く抑えることができるのです。

第二に、私たちはあらゆるクラウドに対応しています。

そのため、開発用のプラットフォームを探している開発者にとって、NVIDIAから始めることは常に素晴らしい選択です。また、オンプレムにもクラウドにも対応しています。どのようなサイズや形状のコンピュータにも対応しています。事実上、私たちはどこにでもいます。

これが2つ目の理由です。

3つ目の理由は、私たちがAI工場を建設しているという事実に関係しています。AIはチップだけの問題ではないということが、より明らかになりつつあります。もちろん、非常に優れたチップから始まり、私たちはAI工場のために大量のチップを製造しますが、それはシステムの問題です。

実際、AIでさえもシステムの問題なのです。1つの大きな言語モデルだけではありません。大規模な言語モデル全体が連携した複雑なシステムなのです。

NVIDIAがこのシステムを構築しているという事実は、私たちがすべてのチップを最適化してシステムとして連動させ、システムとして動作するソフトウェアを持ち、システム全体で最適化できるようにすることを意味します。単純な数字で言えば、50億ドルのインフラがあったとして、パフォーマンスを2倍向上させたとします。私たちは日常的に行っていますが、インフラを2倍向上させれば、その価値も50億ドルになります。データセンターのチップはすべて、その対価を支払うものではありません。

ですから、その価値は本当に並大抵のものではありません。そしてこれが、今日、パフォーマンスがすべてを左右する理由なのです。なぜなら、これらすべてのチップを運ぶためのインフラ・コストには莫大な費用がかかるからです。データセンターに資金を供給し、データセンターを運営し、それに付随する人員、電力、不動産、そしてそのすべてが加算されるのです。

そのため、最高のパフォーマンスは最低のTCOでもあるのです。

オペレーター
次の質問はTDコーウェンのマット・ラムジーです。

マシュー・ラムジー
ジェンセン、私はずっとデータセンター業界にいます。私は、あなた方が新しいプラットフォームを導入する速度と、あなた方が得ているパフォーマンスジャンプの組み合わせ、つまり5倍のトレーニングを見たことがありません。

つまり、トレーニングでは5倍、推論では30倍ということだ。見ているだけで驚きますが、同時に、顧客が何十億ドルも費やしている現行世代の製品が、その製品の減価償却サイクルよりもずっと早く、新しい製品との競争力を失ってしまうという、興味深い並置も生み出します。

そこで、もしよろしければ、そのような状況が顧客との間でどのように変化しているのかについて、少しお話しいただければと思います。

Blackwellへの移行に伴い、非常に大規模なインストール・ベース、明らかにソフトウェア互換性のあるインストール・ベース、しかし新世代の製品ほど性能の高くない製品のインストール・ベースを抱えることになるでしょう。そのような状況の中で、顧客との間でどのようなことが起きているのか、お聞かせ願えればと思います。

ジェンセン・ファン
ありがとうございます。3点ほど申し上げたいことがあります。

もし、あなたが5%でビルドアウトするのと95%でビルドアウトするのでは、感じ方が大きく異なるでしょう。5%しか建設していないのだから、できる限り早く建設する。ブラックウェルが来れば、それは素晴らしいものになる。そしてブラックウェルの後には、おっしゃったように他のブラックウェルが控えています。そして、世界にも説明したように、私たちは1年という短いリズムを刻んでいる。顧客には好きなだけ私たちのロードマップを見てもらいたいのですが、彼らはとにかく早い段階でビルドアウトしているので、ビルドを続けるしかないのです。だから、チップの束が彼らに襲いかかるだろうから、ただひたすらビルドし続けなければならない。

それが賢いやり方だ。彼らは今日お金を稼ぐ必要がある。彼らは今日お金を節約したい。そして、時間は彼らにとって本当に、本当に貴重なものなのだ。

データセンターを瞬時に立ち上げ、トレーニングのための時間というものを確保することが、なぜそれほど価値があるのか。その理由は、次の大きなプラトーに到達した企業は、画期的なAIを発表することができるからです。そしてその次の企業は、0.3%でも優れたものを発表することになる。

つまり、画期的なAIを提供する企業と、0.3%でも優れたAIを提供する企業のどちらを選ぶかということだ。これが、すべてのテクノロジー競争と同様に、この競争が非常に重要である理由です。複数の企業でこのような競争が起きているのは、技術的なリーダーシップを持つことが非常に重要であり、企業がリーダーシップを信頼し、自社のプラットフォーム上に構築したいと思い、構築しているプラットフォームがますます良くなっていくことを知っているからです。

そのため、リーダーシップは非常に重要である。トレーニングにかける時間も非常に重要だ。3ヶ月のプロジェクトでトレーニングする時間を確保するために、3ヶ月早くトレーニングを開始することがすべてです。

それが、私たちが今ホッパー・システムを猛烈な勢いで立ち上げている理由です。

これが2つ目の理由です。

あなたが言った最初のコメントは、本当に素晴らしいコメントです。なぜなら、私たちはここにすべてのスタックを備えているからです。私たちは文字通りデータセンター全体を構築し、すべてを監視し、すべてを測定し、すべてにわたって最適化することができます。すべてのボトルネックがどこにあるかわかっています。私たちはそれを推測しているのではありません。見栄えのいいパワーポイントのスライドを並べるわけでもない。実際、私たちはパワーポイントのスライドが少し好きなのですが、私たちはスケールの大きなシステムを提供しています。規模に見合ったパフォーマンスを発揮するシステムを提供しているのです。

私たちがやっていることのひとつに、AIインフラ全体をここで構築し、それをお客様のデータセンターに好きなように分割して統合するという、ちょっと奇跡的なことがあります。顧客とともに最適化する必要があるのはどこなのか、最大のパフォーマンスを達成するためにインフラを改善する必要があるのはどこなのかを把握しています。このようなデータセンター全体のスケールに関する深い知識こそが、今日の当社を根本的に際立たせているのです。当社は、すべてのチップを一から作り上げています。システム全体でどのように処理が行われるかを正確に把握しています。

そのため、すべての世代において、どのように性能が発揮され、どのようにすれば最大限の性能を引き出すことができるかを正確に理解しています。

ですから、感謝しています。以上、3点でした。

オペレーター
次の質問は、Evercore ISIのマーク・リパシスです。

マーク・リパシス
ジェンセン、あなたは過去に、汎用コンピューティング・エコシステムが各時代のコンピューティングを支配してきたという見解を示していましたね。その論拠は、さまざまなワークロードに適応し、高い利用率を得て、コンピュート・サイクルのコストを下げることができるというものだったと思います。これが、加速コンピューティングのために汎用GPUのCUDAエコシステムを推進した理由です。もし私がその見解を誤って理解していたら、ぜひ教えてください。

つまり、御社のソリューションの需要を牽引しているワークロードがニューラルネットワークのトレーニングや推論であることを考えると、表面的には限られたワークロードのように見えますが、カスタムソリューションに適しているようにも見えます。

そこで問題になるのは、汎用コンピューティングのフレームワークがより危険にさらされるようになるのか、それとも、歴史的な汎用フレームワークを支えるこれらのワークロードに十分な変動性や急速な進化があるのか、ということです。

ジェンセン・ファン
そうです。NVIDIAのアクセラレーテッド・コンピューティングは多用途ですが、汎用とは呼べません。例えば、スプレッドシートを実行するのは得意ではありません。あれは本当に汎用コンピューティングのために設計されたものです。

オペレーティング・システムのコードの制御ループは、おそらく汎用コンピューティングには向いておらず、アクセラレーション・コンピューティングには向いていません。

だから、私たちは多用途に使えると言いたい。長年にわたって高速化できるアプリケーションの領域は豊富ですが、それらには多くの共通点があります。深い違いもあるかもしれないが、共通点もある。それらはすべて並列実行が可能で、すべて重くスレッド化されている。例えば、コードの5%がランタイムの99%を占めている。これらはすべて、アクセラレーテッド・コンピューティングの特性です。私たちのプラットフォームの多用途性と、システム全体を設計するという事実が、過去10年ほどの間に、電話会議で皆さんに質問されたスタートアップ企業の数がかなり多い理由です。そのどれもが、アーキテクチャが脆弱なために、ジェネレーティブAIが登場した瞬間、あるいはフュージョン・モデルが登場した瞬間、そして今、次のモデルが登場しようとしている。大規模な言語モデルは、あなたと会話を続け、文脈を理解するためにメモリが必要なのです。

突然、グレース・メモリの汎用性が非常に重要になったのです。

生成AIの進歩やAIの進歩は、1つのモデルのために設計されたウィジェットを持つのではなく、1つのモデルのために設計されたウィジェットを持つことを求めています。しかし、この領域全体、この領域全体の特性、しかしソフトウェアの第一原則に従った、この領域全体に本当に適したものを持つことは、ソフトウェアが進化し続け、ソフトウェアがより良く、より大きくなり続けることを意味します。私たちは、こうしたモデルの拡張性を信じている。私たちが今後数年のうちに100万倍もの規模に拡大する理由はたくさんあります。

私たちはそれを楽しみにしていますし、その準備もできています。ですから、私たちのプラットフォームの多用途性は本当に重要なカギなのです。もし、あなたがあまりにもろく、あまりに特殊であれば、FPGAを作るか、ASICを作るか、そのようなことをした方がいいかもしれません。

オペレーター
次の質問はジェフリーズのブレイン・カーティスさんからです。

ブレイン・カーティス
実はちょっと興味があるのですが、つまり、供給に制約がある中で、あなたはどう考えているのでしょうか......つまり、あなたは中国向けにH20という製品を出しました。しかし、明らかにあなたは他のHopper製品で顧客にサービスを提供しようとしています。

ただ、下期についてどのようにお考えなのかが気になります。

売上高や売上総利益率への影響について詳しく教えてください。

ジェンセン・ファン
質問が聞こえなかった。

何かピッピッと聞こえなかった。

シモーナ・ステファン・ヤンコフスキー
H20と、異なるHopper製品間の供給の割り当てをどのように考えていますか?

ジェンセン・ファン
そうですね、私たちには尊重すべき顧客がいますし、どの顧客に対してもベストを尽くしています。中国でのビジネスは、以前のレベルよりも大幅に低下しています。私たちの技術に限界があるため、中国での競争はより激しくなっています。

そういったことは事実です。

しかし、私たちは中国市場の顧客にサービスを提供するためにベストを尽くし続けます。しかし、全体的に見れば、需要が供給を上回っているというコメントは、市場全体、特にH200とブラックウェルについては、年末に向けてそうなっていくと思います。

オペレーター
次の質問はレイモンド・ジェームズのスリニ・パジュリです。

スリニ・バジュリ
ジェンセン、あなたがおっしゃったことについて、もう少しはっきりさせたいと思います。GB 200システムは、かなりの需要があるように見えます。歴史的に、あなたはHGXボードとGPUを多く販売し、システム事業は比較的小規模だったと思います。

そこでお聞きしたいのですが、なぜ今、システムに対する需要がこれほど高まっているのでしょうか?TCOの問題なのでしょうか、それともアーキテクチャの問題なのでしょうか?

ジェンセン・ファン
そうですね。

実際、G200の販売方法も同じです。意味のあるコンポーネントをすべて分解し、コンピューター・メーカーに統合しています。

今年、ブラックウェルには100種類のコンピューター・システム構成があります。その数は桁外れです。ホッパーは率直に言って半分しかありませんでしたが、それはピーク時の話です。最初はもっと少なかった。

液冷バージョン、空冷バージョン、x86ビジョン、Graceバージョンなどなど。設計されているシステムは山ほどある。そしてそれらは、素晴らしいパートナーからなるエコシステムのすべてから提供されている。本当に何も変わっていない。

もちろん、ブラックウェル・プラットフォームは、私たちの提供するサービスを飛躍的に拡大しました。CPUの統合と、より圧縮された密度のコンピューティング、液冷は、データセンターのプロビジョニング電力を大幅に節約し、エネルギー効率を高めることは言うまでもありません。

液冷はより優れたソリューションです。つまり、データセンターのより多くのコンポーネントを提供することで、誰もが利益を得ることができるのです。データセンターはより高いパフォーマンスを得ることができ、ネットワーク・スイッチやネットワークによるネットワーキングも向上します。

もちろん、NIC、イーサネットもあるので、大規模なNVIDIAのAIを、イーサネットの操作方法しか知らない顧客にも提供することができます。

そして、Blackwellはより広範になりました。

この世代では、お客様に提供できるものがもっとたくさんあります。

オペレーター
次の質問は、Truist Securitiesのウィリアム・スタインさんからです。

ウィリアム・スタイン
ジェンセン、ある時点で、NVIDIAは、データセンター運用に利用可能なそれなりに優れたCPUがある一方で、御社のARMベースのPrice CPUは、おそらくコストや消費電力、あるいはGraceとHopper、GraceとBlackwellの間の技術的な相乗効果に関連して、その技術を顧客に提供する価値があるような、真の優位性を提供すると判断しました。インテルとAMDが非常に優れたパートナーであり、x86で優れた製品を提供していることを強調されていますが、特に新興のAIワークロードでは、NVIDIAが提供できる何らかの優位性があり、他社はより困難な状況にある可能性があります。

ジェンセン・フアン
そうですね。確かに、多くのアプリケーションにおいて、x86パートナーとのパートナーシップは本当に素晴らしく、優れたシステムを一緒に構築しています。しかし、Graceは、現在のシステム構成では不可能なことを可能にします。GraceとHopperの間のメモリシステムは、コヒーレントでつながっています。2つのチップの間のインターコネクトは、スーパーチップのようなもので、2チップと呼ぶのは奇妙です。この2つのチップは、毎秒テラバイトのインターフェースで接続されています。桁外れだよ。グレイスが使用しているメモリはLPDDRです。初のデータセンター・グレードの低消費電力メモリだ。

そのため、各ノードの電力を大幅に節約できます。そして最後に、アーキテクチャのおかげで、システム全体で独自のアーキテクチャを作ることができるようになったため、非常に大きなNVLinkドメインを持つものを作ることができます。

GB200には72ノードのNVLinkドメインがあります。これは、72個のBlackwellが1つの巨大なGPUに接続されているようなものです。

そのためにGrace Blackwellが必要でした。

アーキテクチャ上の理由、ソフトウェア・プログラミング上の理由、そしてシステム上の理由があります。

そのような機会があれば、私たちはそれを探ります。そして今日、昨日の展示会でご覧になったように、サティアは次世代PC「Copilot+ PC」を発表しました。このPCは、ノートPCに搭載されているNVIDIAのRTX GPU上で素晴らしい動作をします。しかし、ARMも見事にサポートしています。

このように、PCでもシステム革新のチャンスが広がっているのです。

オペレーター
最後の質問は、カンター・フィッツジェラルドのC.J.ミューズです。

クリストファー・ミューズ
ジェンセン、少し長期的な質問です。Blackwellがまだ発売されていないことは知っていますが、明らかに投資家は前向きで、GPUやカスタムASICとの潜在的な競争が高まる中、NVIDIAの技術革新のペースや、過去10年間で100万倍もの規模に拡大したことについてどうお考えですか。CUDA、Precision、Grace、Cohere、そしてコネクティビティ。今後10年間で解決すべき課題は何でしょうか?また、もっと重要なこととして、今日私たちと共有したいことは何でしょうか?

ジェンセン・ファン
さて、Blackwellの後にもう1つのチップがあることを発表できます。私たちは1年のリズムでやっています。

また、非常に速いリズムで新しいネットワーキング・テクノロジーを発表する予定です。イーサネットではSpectrum-Xを発表する予定です。しかし、我々はイーサネットに全力を注いでおり、イーサネットについては本当にエキサイティングなロードマップを用意しています。

私たちには、豊富なパートナーとのエコシステムがあります。デルはSpectrum-Xの市場投入を発表しました。

私たちには、AIファクトリーアーキテクチャ全体の市場投入を発表する予定の顧客とパートナーの豊かなエコシステムがあります。

究極のパフォーマンスを求める企業には、InfiniBandコンピューティング・ファブリックがあります。InfiniBandは、イーサネットからネットワークへのコンピューティング・ファブリックです。InfiniBandは、当初はコンピューティング・ファブリックでしたが、年月を経て、より優れたネットワークになりました。Ethernetはネットワークであり、Spectrum-Xによって、より優れたコンピューティング・ファブリックになる。私たちは、NVLinkコンピューティング・ファブリック、InfiniBandコンピューティング・ファブリック、イーサネット・ネットワーキング・コンピューティング・ファブリックの3つのリンクすべてにコミットしています。

そして、これら3つのファブリックのすべてを非常に速いスピードで進めていくつもりです。

そのため、新しいスイッチ、新しいNIC、新しい機能、これら3つすべてで動作する新しいソフトウェア・スタックが登場することになるでしょう。

新しいCPU、新しいGPU、新しいネットワークNIC、新しいスイッチ、山のように出てくるチップ。そしてそのすべてが......素晴らしいことに、そのすべてがCUDAで動作する。そして、そのすべてが私たちのソフトウェア・スタック全体で動作します。

ですから、私たちのソフトウェア・スタックに今すぐ投資すれば、何もしなくても、どんどん速くなります。また、何もしなくても、今日私たちのアーキテクチャに投資すれば、ますます多くのクラウドやデータセンターで利用され、すべてが実行されます。

ですから、私たちがもたらすイノベーションのペースは、一方で能力を高め、他方でTCOを下げることになると思います。

エヌビディアのアーキテクチャーによって、この新しい時代のコンピューティングをスケールアウトし、ソフトウェアだけでなく、人工知能トークンを製造する新しい産業革命を始めることができるはずです。ありがとうございました。

オペレーター
以上で本日の質疑応答と通話を終わります。皆様のご参加に感謝いたします。

この記事が気に入ったらサポートをしてみませんか?