見出し画像

【決算】エヌビディア(NVDA)FY25Q1

【概要】
⭕️EPS 結果 $6.12 vs 予想 $5.58
⭕️売上高 結果 $260.4億ドル vs 予想 $245.9億ドル
売上高成長率+262%

データセンター226億ドル(+427%)
ゲーミング26.5億ドル(+18%)
プロフェッショナル・ビジュアライゼーション4.27億ドル(+45%)
自動車向け3.29億ドル(+11%)

来期ガイダンス
⭕️売上高 $274.4億ドル~$285.6億ドル vs 予想 $268.4億ドル

NVIDIA の発行済み普通株式を 10 対 1 の先渡し株式分割する(2024年6月7日金曜日の市場終了後に分配)

普通株式の四半期現金配当を 1 株あたり 0.04 ドルから 2.5倍の1 株あたり 0.10 ドルに増額する(2024 年 6 月 28 日金曜日に支払)

〈所感〉
前回に引き続き良い決算でした。来期からAIブーム後の売上高との前年比較が始まるため、売上高成長率は大幅に鈍化していく見込みです。しかし来期は+100%程度と依然として米国株トップクラスの売上高成長率を保っています。現在の主力製品であるH100の供給逼迫は緩和してきていますが、新製品のH200や次期主力製品であるBlackwellは需要が供給を大きく上回っています。この状況は2025年まで続くと会社側は見ています。新製品を前にして既存製品への買い控えなどの動きは起きていません。他社のGPUやカスタムAIアクセラレーターとの競争が激化する見通しですが、エヌビディアはより高性能かつ省電力な製品を1年毎(今までは2年毎だった)に投入していくことで対応します。未だAI半導体におけるエヌビディアの独走体制が続いていることを示す決算でした。ホールドを続けます。

【決算コール】
主要顧客
OpenAI、Adept、Anthropic、Character.AI、Cohere、Databricks、DeepMind、Meta、Mistral、xAIなどの大手LLM企業が、NVIDIAのクラウドAIを利用しています。

今四半期のデータセンターでは、企業が力強い前四半期比成長を牽引しました。

自動車向け収益
当社は、TeslaのトレーニングAIクラスターを35,000個のH100 GPUに拡張することをサポートしました。

NVIDIA AI インフラストラクチャの利用は、Vision に基づく最新の自律走行ソフトウェアであるFSD バージョン 12 の画期的なパフォーマンスへの道を開きました。

Video Transformersは、大幅に多くのコンピューティングを消費しながらも、劇的に優れた自律走行機能を実現し、自動車業界全体でNVIDIA AIインフラストラクチャの大きな成長を後押ししています。

我々は、自動車が今年、データセンターの中で最大の企業垂直統合となり、オンプレムとクラウドの消費全体で
数十億の収益機会を促進すると予想しています。

推論が収益の約40%
ジェネレーティブAIがより多くの消費者向けインターネット・アプリケーションに導入されるにつれて、推論はモデルの複雑さだけでなく、ユーザー数やユーザーごとのクエリ数にも比例して拡張され、AIコンピュートへの需要がさらに高まるため、継続的な成長の機会が期待されます。

直近の4四半期では、推論がデータセンターの収益の約40%を占めていると推定しています。

●AI工場
トレーニングも推論も著しく成長しています。
メタやテスラによって構築されたような大規模なクラスターは、AI生産に不可欠なインフラの一例であり、我々がAI工場と呼ぶものである。

このような次世代データセンターは、高度なフルスタック・アクセラレーション・コンピューティング・プラットフォームをホストしており、そこにデータが入ってきてインテリジェンスが出てくる。第1四半期には、数百から数万GPU、中には10万GPUに達する規模のAIファクトリーを構築する100以上の顧客と協力しました。

ソブリンAI
地理的な観点から見ると、世界各国がソブリンAIに投資しているため、データセンターの収益は引き続き多様化しています。

ソブリンAIとは、自国のインフラ、データ、労働力、ビジネスネットワークを使って人工知能を生産する国の能力を指す。

各国は様々なモデルを通じて国内のコンピューティング能力を増強している。国営の通信プロバイダーや公益事業者と共同でソブリンAIクラウドを調達し、運用しているところもある。また、地域のクラウドパートナーを後援して、公共部門と民間部門が利用できる共有AIコンピューティングプラットフォームを提供しているところもある。

例えば、日本はソブリンAIインフラを構築するため、
KDDI、さくらインターネット、ソフトバンクなどの主要デジタル・インフラ・プロバイダーに7億4,000万ドル以上を投資する計画だ。

フランスを拠点とするイリアド・グループの子会社であるScaleway社は、ヨーロッパで最も強力なクラウドネイティブAIスーパーコンピューターを構築している。

イタリアでは、スイスコム・グループが国内初で最も強力なNVIDIA DGX搭載スーパーコンピューターを構築し、イタリア語でネイティブに訓練された初のLLMを開発する。またシンガポールでは、国立スーパーコンピュータセンターがNVIDIA Hopper GPUでアップグレードされ、シングテルは東南アジア全域にNVIDIAの加速AI工場を建設している。

エンドツーエンドのコンピュートからネットワーキング技術、フルスタックソフトウェア、AIの専門知識、パートナーや顧客との豊富なエコシステムを提供するNVIDIAの能力により、ソブリンAIと地域のクラウドプロバイダーは、自国のAIの野望を飛躍させることができます。前年はゼロだったソブリンAIの収益が、今年は一桁台後半に近づく可能性があると我々は考えている。AIの重要性はあらゆる国の注目を集めている。

中国向けビジネス
当社は、輸出管理ライセンスを必要としない中国専用設計の新製品を開発しました。

当社の中国におけるデータセンターの売上高は、10月に新たな輸出規制が発動される前の水準から大幅に減少している。中国市場は今後も非常に競争が激しくなると予想しています。

新製品の生産は既に始まっている
H200は第1四半期にサンプル出荷を開始し、現在は第2四半期の出荷に向けて生産中です。

最初のH200システムはジェンセンからサム・アルトマンとOpenAIのチームに納品され、先週彼らの素晴らしいGPT-4oのデモを動かした。

H200はH100の2倍近い推論性能を持ち、プロダクションの展開に大きな価値をもたらします。H100の供給は証明されていますが、H200についてはまだ制約があります。

同時に、Blackwellはフル稼働しています。
我々は、今年後半にグローバルに利用できるよう、
システムとクラウドパートナーの立ち上げに取り組んでいます。

H200とBlackwellの需要は供給を大きく上回っており、来年にかけて需要が供給を上回る可能性があると予想しています。

InfiniBand
ネットワークの前年比成長率は、InfiniBand が牽引しました。前四半期比では小幅な落ち込みとなりましたが、
これは主に供給のタイミングによるもので、需要が当社の出荷能力を大きく上回っていたためです。

第 2 四半期には、ネットワークは再び前四半期比で成長すると予想しています。

Spectrum-X
第1四半期には、AI向けに一から最適化した新しいSpectrum-X Ethernetネットワーキング・ソリューションの出荷を開始しました。

このソリューションには、Spectrum-4スイッチ、BlueField-3 DPU、およびイーサネット上のAIの課題を克服するための新しいソフトウェア技術が含まれ、従来のイーサネットと比較してAI処理に1.6倍のネットワーク性能を提供します。

Spectrum-Xは、100,000GPUの巨大なクラスタを含む複数の顧客で量産を開始しています。

Spectrum-Xは、エヌビディアのネットワーキングに全く新しい市場を開き、イーサネットのみのデータセンターが大規模AIに対応できるようにします。

我々は、Spectrum-Xが1年以内に数十億ドル規模の製品ラインに飛躍すると期待している。

新製品Blackwell
Blackwell GPUアーキテクチャーは、H100よりも最大4倍高速な学習と30倍高速な推論を実現し、1兆パラメータ規模の大規模言語モデルでリアルタイムの生成AIを可能にします。

Blackwellは、Hopperと比較してTCOとエネルギー消費量を最大25倍削減し、大きな飛躍を遂げます。

Blackwellプラットフォームには、マルチGPUスパインを備えた第5世代のNVLinkと、1兆パラメータ規模のAI向けに設計された新しいInfiniBandおよびイーサネットスイッチ、X800シリーズが含まれています。

Blackwellは、ハイパースケールからエンタープライズまで、トレーニングから推論まで、x86からGrace CPUまで、イーサネットからInfiniBandネットワーキングまで、空冷から液冷まで、あらゆるデータセンターをサポートするように設計されている。

Blackwellは、Hopperの発売時の2倍以上となる100以上のOEMおよびODMシステムで発売され、世界の主要なコンピューター・メーカーを代表するものとなります。

これにより、初年度の出荷では、顧客のタイプ、ワークロード、データセンター環境を問わず、迅速かつ広範な導入が可能になります。

BlackwellのTime-to-Market顧客には、Amazon、Google、Meta、Microsoft、OpenAI、Oracle、Tesla、xAIが含まれます。

質疑応答
◆Blackwellについて
〈質問〉Blackwellが顧客の手に渡るのはいつか?
〈回答〉本番出荷は第2四半期から始まり、第3四半期には立ち上がり、第4四半期にはデータセンターが立ち上がる予定です。

〈質問〉今年はBlackwellの収益が見込めそうですね?
〈回答〉今年は多くのBlackwellの収益が見込めます。

新製品登場に備えた買い控えの懸念
〈質問〉H200やBlackwellの製品に多くの需要があると思いますが、HopperやH100がこれらの製品に移行していく過程で、一時停止するようなことは予想されますか?人々は新製品を待つのでしょうか?それとも、H100には成長を維持できるだけの需要があるとお考えですか?

〈回答〉今四半期を通じてHopper(H100)の需要は増加していると見ています。また、H200への移行、Blackwellへの移行に伴い、しばらくの間は需要が供給を上回ると予想しています。

競合について
〈質問〉競合についてお聞きしたいのですが。クラウドの顧客の多くは、あなた方と一緒に取り組んでいることと並行して、新しい、あるいは既存の社内プログラムのアップデートを発表したと思います。中長期的に見て、どの程度競合相手として考えていますか?また、競合他社はほとんどの社内ワークロードへの対応に限られているとお考えですか、それとも、今後、より広範なワークロードへの対応が可能になるとお考えですか?

〈回答〉私たちはいくつかの点で異なっています。まず、NVIDIAのアクセラレーテッド・コンピューティング・アーキテクチャは、トレーニングの準備のための非構造化データ処理から、構造化データ処理、トレーニングの準備のためのSQLのようなデータフレーム処理、トレーニングから推論まで、お客様のパイプラインのあらゆる側面を処理することを可能にします。そして、今申し上げたように、推論は本当に根本的に変わりました。猫を検出するのではなく、猫のすべてのピクセルを生成しなければならないのです。つまり、生成プロセスは根本的に異なる処理アーキテクチャなのです。それが、TensorRT LLMが高く評価された理由のひとつです。私たちのアーキテクチャで同じチップを使用した場合、性能は3倍向上しました。これは、我々のアーキテクチャの豊富さとソフトウェアの豊富さを物語っています。つまり、コンピュータ・ビジョンから画像処理、コンピュータ・グラフィックス、コンピューティングのあらゆるモダリティに至るまで、NVIDIAをあらゆるものに使うことができるのです。そして、汎用コンピューティングが一巡したため、世界はコンピューティングコストとコンピューティングエネルギーのインフレに苦しんでいます。つまり、アクセラレーテッド・コンピューティングは、コンピューティングのコストを削減し、エネルギーを節約する方法なのです。私たちのプラットフォームは汎用性が高いため、データセンターのTCOを最も低く抑えることができるのです。第二に、私たちはあらゆるクラウドに対応しています。そのため、開発用のプラットフォームを探している開発者にとって、NVIDIAから始めることは常に素晴らしい選択です。また、オンプレムにもクラウドにも対応しています。どのようなサイズや形状のコンピュータにも対応しています。事実上、私たちはどこにでもいます。これが2つ目の理由です。3つ目の理由は、私たちがAI工場を建設しているという事実に関係しています。AIはチップだけの問題ではないということが、より明らかになりつつあります。もちろん、非常に優れたチップから始まり、私たちはAI工場のために大量のチップを製造しますが、それはシステムの問題です。実際、AIでさえシステムの問題なのです。ひとつの大きな言語モデルだけではない。大規模な言語モデル全体が連携する複雑なシステムなのです。ですから、エヌビディアがこのシステムを構築しているという事実は、システムとして連動するようにすべてのチップを最適化し、システムとして動作するソフトウェアを持つことができるようにし、システム全体で最適化することができるようにしているのです。単純な数字に置き換えてみると、50億ドルのインフラがあったとして、パフォーマンスを2倍向上させたとします。データセンターのすべてのチップはその代償を払っていません。ですから、その価値は本当に並大抵のものではありません。これが、今日、パフォーマンスがすべてを左右する理由です。なぜなら、これらすべてのチップを運ぶためのインフラ・コストには莫大な費用がかかるからです。データセンターに資金を供給し、データセンターを運営し、それに付随する人員、電力、不動産、そしてそのすべてが加算されるのです。そのため、最高のパフォーマンスは最低のTCOでもあるのです。

〈質問〉少し長期的な質問になりますが。Blackwellはまだ発売前ですが、GPUやカスタムASICとの競争が激化する可能性がある中で、NVIDIAの技術革新のペースや、過去10年間で100万倍の規模に拡大したことについてどうお考えですか。CUDA、Varsity、Precision、Grace、Cohere、そしてConnectivity。今後10年間で解決すべき課題は何でしょうか?また、もっと重要なこととして、今日私たちと共有したいことは何でしょうか?

〈回答〉Blackwellの後に、もう1つのチップがあることを発表できる。私たちは1年のリズムでやっています。また、非常に速いリズムで新しいネットワーキング・テクノロジーを発表する予定です。イーサネットではSpectrum-Xを発表する予定です。しかし、我々はイーサネットに全力を注いでおり、イーサネットについては本当にエキサイティングなロードマップを用意しています。私たちには、豊富なパートナーとのエコシステムがあります。デルはSpectrum-Xの市場投入を発表しました。私たちには、AIファクトリーアーキテクチャ全体を市場に投入することを発表する顧客やパートナーの豊富なエコシステムがあります。究極のパフォーマンスを求める企業には、InfiniBandコンピューティング・ファブリックがあります。InfiniBandはコンピューティング・ファブリックであり、イーサネットはネットワークです。InfiniBandは、当初はコンピューティング・ファブリックでしたが、年月を経て、より優れたネットワークになりました。Ethernetはネットワークであり、Spectrum-Xによって、より優れたコンピューティング・ファブリックになる。NVLinkコンピューティング・ファブリック、InfiniBandコンピューティング・ファブリック、そしてイーサネット・ネットワーキング・コンピューティング・ファブリックです。そのため、これら3つすべてを非常に速いスピードで進めていくつもりです。そのため、新しいスイッチ、新しいNIC、新しい機能、これら3つすべてで動作する新しいソフトウェア・スタックが登場することになるでしょう。新しいCPU、新しいGPU、新しいネットワークNIC、新しいスイッチ、山のようなチップが登場する。そしてそのすべてが、素晴らしいことにCUDAで動作します。そして、そのすべてが私たちのソフトウェア・スタック全体で動作します。ですから、今すぐ当社のソフトウェア・スタックに投資すれば、何もしなくても、どんどん高速化していきます。また、今日、私たちのアーキテクチャに投資すれば、何もしなくても、より多くのクラウドやデータセンターですべてが実行されます。ですから、私たちがもたらすイノベーションのペースは、一方で能力を高め、他方でTCOを下げることになると思います。エヌビディアのアーキテクチャーによって、この新しい時代のコンピューティングをスケールアウトすることができ、ソフトウェアだけでなく、人工知能トークンを製造する新しい産業革命を始めることができるはずです。


この記事が気に入ったらサポートをしてみませんか?