見出し画像

Q4 2023 NVIDIA Corporation (NVDA)

Announce Date 2/22/2023
EPS Normalized Actual $0.88 (Beat by $0.08)
EPS GAAP Actual $0.57 (Beat by $0.09)
Revenue Actual $6.05B
Revenue Surprise Beat by $31.61M

Colette Kress - Executive Vice President, Chief Financial Officer
第4四半期の売上高は6.05Bドル、前四半期比2%増、前年同期比21%減でした。通年の売上は27Bドルで、前年と横ばい。データセンターから始めます。

売上高は3.62Bドルで、前四半期比6%減、前年同期比11%増でした。通期の売上高は15Bドルで、41%増加しました。ハイパースケールの売上は、前四半期比で大幅な伸びを示しましたが、一部のクラウドサービスプロバイダーが年末に構築計画を見直したため、当社の期待値には及びませんでした。一般的には、マクロ経済の全体的な不確実性を反映した引き締めと見られるが、GPUやAIインフラに対する最終市場の需要は強いため、これはタイミングの問題であると考えます。

ネットワーキングは成長しましたが、汎用CPUインフラの需要が軟調なため、当社の予想を少し下回りました。データセンター全体の前四半期の減収は、COVIDなどの国内問題を反映した中国での減収によるもので、ほぼ当社予想通りでした。クラウドの普及が進む中、当社はOracleやGPU専業CSPなど、急成長するクラウドサービスプロバイダーへのサービス提供を拡大しています。昨年は、より多くの企業顧客がクラウドファーストのアプローチに移行したため、CSP顧客からの収益の伸びはデータセンター全体の伸びを大きく上回りました。

4四半期累計では、CSPのお客さまがデータセンターの収益の約40%を牽引しました。当社の新しいフラッグシップ・センターGPUであるH100の採用は好調です。H100の売上高は、発売後わずか2四半期で、前四半期に減少したA100の売上高をすでに大きく上回っています。これは、H100 の卓越した性能の証です。H100 は、変換器ベースの大規模言語モデルの学習において A100 の 9 倍、推論において最大 30 倍のクラスターを実現しています。

H100のトランスフォーマーエンジンは、大規模な言語モデルの推論の開発とスケールアウトに役立つタイミングで登場したのです。AIの導入は変曲点を迎えています。Open AIのChatGPTは、世界中の人々の関心を集め、人々がAIを直接体験し、生成的AIで何が可能かを示しました。こうした新しいタイプのニューラルネットワークモデルは、マーケティングコピーのようなテキストの生成、[Inaudible]のような文書の要約、広告やビデオゲーム用の画像の作成、顧客の質問への回答など、さまざまなタスクの生産性を向上させることができるのです。

生成型AIアプリケーションは、ほぼすべての産業でより多くのことをより速く行うのに役立ちます。100B 以上のパラメータを持つ生成大規模言語モデルは、今日の世界で最も高度なニューラルネットワーク(人間の脳の働きを模倣して構築された計算モデルのこと)です。NVIDIAの専門知識は、これらの能力を企業にもたらすことができるAIスーパーコンピュータ、アルゴリズム、データ処理、トレーニング方法などに及んでいます。私たちは、ジェネレーティブAIの機会でお客様を支援できることを楽しみにしています。

あらゆる主要なハイパースケールクラウドプロバイダーとの協力に加え、当社は多くの消費者向けインターネット企業、企業、スタートアップ企業と関わっています。この機会は大きく、データセンターの力強い成長を牽引しており、今年にかけて加速していくでしょう。当四半期には、当社最大の業種の一つである金融サービス分野で注目すべき発表がありました。ドイツ銀行との提携を発表し、金融サービスにおけるAIと機械学習の活用を加速させます。

共同で、仮想顧客サービスエージェント、音声AI、詐欺検出、銀行プロセスの自動化など、さまざまなアプリケーションを開発しており、NVIDIA、AIエンタープライズソフトウェアを含む、オンプレミス(企業などが情報システムの設備(ハードウェア)を自社で保有し、自社の設備において運用すること)およびクラウドの両方で、NVIDIAのフルコンピューティングスタックを活用しています。また、資産価格発見などの用途で、金融サービス業界の主要なベンチマークにおいて、NVIDIAがAI推論でトップクラスの結果を獲得したことも発表しました。ネットワーク分野では、当社の最新世代のInfiniBandおよびHPCに最適化されたEthernetプラットフォームに対する需要が、AIによって高まっていると見ています。ジェネレーティブAI基盤のモデルサイズは指数関数的に拡大し続けており、マルチノードで加速されたワークロードをスケールアウトするための高性能ネットワーキングの必要性を高めています。

比類ないパフォーマンス、レイテンシ(遅延時間)、インネットワーク・コンピューティング機能を提供するInfiniBandは、電力効率に優れたクラウドスケールのジェネレーティブAIに最適な選択肢となります。小規模な導入の場合、NVIDIAはアクセラレーション・スタックの専門知識をフルに発揮し、世界最先端の高性能イーサネット・ファブリックと統合しています。当四半期は、クラウド、エンタープライズ、スーパーコンピューティングのお客様からの需要により、Quantum-2 40ギガビット/秒プラットフォームが好調なスタートを切り、InfiniBandが当社の成長を牽引しました。イーサネットでは、毎秒40ギガビットのSpectrum-4ネットワーキング・プラットフォームが、お客様の高速化、次世代採用装置、スイッチへの移行に伴い、勢いを増しています。

私たちは、ソフトウェアとサービスの拡大に引き続き注力しています。50以上のNVIDIA AIフレームワークと事前学習済みモデルをサポートし、コンタクトセンター、インテリジェント仮想アシスト、音声転写、サイバーセキュリティのための新しいワークフローを備えたNVIDIA AIエンタープライズのバージョン3.0をリリースしました。今後提供予定のサービスには、現在お客様からの早期アクセスを受けているNeMoとBioNeMoの大規模言語モデルサービスが含まれます。次に、ソフトウェアとクラウドのビジネスについて、Jensenからもう少しお話を伺いたいと思います。

Jensen Huang - President and Chief Executive Officer
Collete、ありがとうございます。技術的なブレークスルーの積み重ねによって、AIは変曲点を迎えています。Generative AIの多用途性と能力により、世界中の企業でAI戦略の策定と展開に向けた危機感が高まっています。しかし、AIスーパーコンピュータのインフラ、モデルアルゴリズム、データ処理、トレーニング技術は、ほとんどの場合、乗り越えられない障害として残っています。

本日は、AIをすべての企業のお客様の手の届くところに置くための、私たちのビジネスモデルの次の段階をご紹介したいと思います。私たちは、NVIDIAが直接、あるいは私たちの市場参入パートナーのネットワークを通じて提供し、世界最大のクラウド内でホストされるNVIDIA AIクラウドサービスを提供するために、主要なサービス--クラウドサービスプロバイダと提携しているのです。NVIDIA AI as a serviceは、世界最先端のクラウドが提供するストレージ、ネットワーキング、セキュリティ、クラウドサービスを身近に感じながら、世界最先端のAIプラットフォームへ簡単にアクセスできる環境を企業に提供します。顧客は、AIスーパーコンピュータ、アクセラレーションライブラリソフトウェア、または事前学習済みAIモデルレイヤーでNVIDIA AIクラウドサービスを利用することができます。

NVIDIA DGXはAIスーパーコンピュータであり、世界中で建設されているAI工場の設計図である。AIスーパーコンピューターは、構築するのが難しく、時間がかかります。本日、私たちはNVIDIA DGX Cloudを発表します。これは、ブラウザーを開くだけで、あなた自身のDGX AIスーパーコンピューターを持つことができる、最も速く、最も簡単な方法です。NVIDIA DGX Cloudは、Oracle Cloud InfrastructureやMicrosoft Azure、Google GCPなどを通じてすでに提供されており、今後も順次提供される予定です。

AIプラットフォームのソフトウェア層では、お客様は大規模な言語モデルやその他のAIワークロードのトレーニングやデプロイのためにNVIDIA AIエンタープライズにアクセスすることができます。また、事前学習済み生成AIモデル層では、カスタマイズ可能なAIモデルであるNeMoとBioNeMoを、ビジネス向けに独自の生成AIモデルやサービスを構築したい企業顧客に提供する予定です。新しいビジネスモデルにより、お客様は、プライベートクラウドからあらゆるパブリッククラウドまで、NVIDIAのフルスケールのAIコンピューティングを利用することができます。NVIDIA AIクラウドサービスの詳細については、次回のGTCでお伝えしますので、ぜひご期待ください。

それでは、ゲームについてColetteに話を戻します。

Colette Kress
ありがとう、Jensen。ゲーム収入は1.83Bドルで、前四半期比16%増、前年同期比46%減でした。会計年度の収益は9.07Bドルで、27%減です。前四半期の伸びは、Ada Lovelaceアーキテクチャを採用した40シリーズGeForce RTX GPUが好評を博したことによるものです。

前年同期比の減少は、チャネル在庫の補正の影響を反映していますが、これはほぼ過去のことです。また、季節的に好調な第4四半期の需要は、ほとんどの地域で堅調に推移しました。中国はCOVIDに関連する混乱の影響を多少受けたものの、同市場の回復の兆しが見えてきたことは心強いことです。ゲーマーは、新しいRTX4090、4080、4070 TiデスクトップGPUに熱狂的に反応し、多くの小売店やオンラインショップですぐに在庫切れを起こしています。

フラッグシップのRTX 4090はSteamで急速に人気が急上昇し、AIアーキテクチャの首位を獲得しており、ゲーマーの高性能グラフィックへの欲求を反映しています。今月初めには、Adaアーキテクチャを採用したゲーミングノートPCの第1弾が店頭に並び、性能と電力効率におけるNVIDIAの過去最大の世代間飛躍を実現しました。これまで基本的な作業やアプリケーションに限定されていた、急成長中のセグメントである14インチという薄型のラップトップに、エンスージアストクラスのGPU性能を初めて提供します。また、第5世代のMax-Qテクノロジーによる電力効率化により、当社の最高性能モデルである90クラスのGPUをノートパソコンに搭載するのも初めての試みです。

RTX 40シリーズGPUは、170台以上のゲーミングおよびクリエイター向けノートPCに搭載され、新学期シーズンに向けて素晴らしいセットアップを実現します。リアルタイム・レイ トレーシングとAI搭載グラフィックスを実現するNVIDIAのRTX技術に対応したゲームやアプリケーションは、現在400を超えます。AIアーキテクチャは、当社の第3世代のAI搭載グラフィックスであるDLSS 3を搭載し、パフォーマンスを大幅に向上させます。最先端のゲームであるサイバーパンク2077では、最近DLSS 3が追加され、4K解像度でのフレームレート性能を3~4倍高めることが可能になりました。

クラウドゲーミングサービス「GeForce Now」は、ユーザー数、タイトル数、パフォーマンスなど多面的に拡大し続けています。現在、100カ国以上で2,500万人以上の会員を有しています。先月には、新しい高性能な究極の会員層でRTX 4080グラフィックス馬力を有効にしました。アルティメット会員は、フル レイト レーシングとDLSS 3により、クラウドから最大240フレーム/秒のストリーミングが可能です。

そしてつい昨日、マイクロソフトとの重要な発表がありました。私たちは、GeForce Nowに、Minecraft、Halo、Flight Simulatorなどの大ヒット作を含むMicrosoftのXbox PCゲームのラインアップを提供する10年間のパートナーシップに合意しました。そして、MicrosoftのActivision買収が完了すると、Call of DutyやOverwatchなどのタイトルが追加される予定です。Pro Visualizationに移ります。

売上高は226Mドルで、前四半期比13%増、前年同期比65%減となった。会計年度の売上は1.54Bドルで27%減。前四半期比の成長は、自動車や製造業の産業分野での強みを持つデスクトップワークステーションが牽引しました。前年同期比の減少は、チャネル在庫調整の影響を反映したもので、今年前半には終了する見込みです。

NVIDIAのOmniverseへの関心は高まり続けており、これまでに30万件近くダウンロードされ、サードパーティのデザインアプリケーションへのコネクターは185件に達しています。最新リリースされたOmniverseは、4Kのサポート、リアルタイムのパストレーシング、タグ付けされていない大規模な3DデータベースをAIで検索するOmniverse Search、AWS用のOmniverseクラウドコンテナなど、多くの機能と拡張機能を備えています。自動車に話を移しましょう。売上は過去最高の294Mドルで、17%増、前年比135%増となりました。

連続的な成長は、主にAI自動車向けソリューションが牽引しました。電気自動車と従来のOEM顧客の両方における新しいプログラムの立ち上げが、この成長を後押ししました。会計年度の売上高は903Mドルで、60%増となりました。CESでは、自動運転車および自律走行車プラットフォームの開発を目的としたFoxconnとの戦略的パートナーシップを発表しました。

この提携により、NVIDIAドライブプラットフォームに対する需要の高まりに対応するため、量産、製造のための規模を提供することになります。Foxconnは、電気自動車にNVIDIA Drive、Hyperionコンピュート、およびセンサー・アーキテクチャを使用する予定です。Foxconnは、世界の自動車向けにNVIDIA Drive Orinをベースにした電子制御ユニットを製造するTier 1メーカーとなります。また、今期は重要なマイルストーンに到達しました。

NVIDIA Driveオペレーティングシステムは、自動車業界で最も経験豊富で厳格な評価機関の1つであるTUV SUDから安全認証を受けました。業界をリードする性能と機能的安全性を備えた当社のプラットフォームは、自律型輸送に求められる高い基準をクリアしています。残りの損益に移ります。GAAPベースの売上総利益率は63.3%、非GAAPベースの売上総利益率は66.1%でした。

通期のGAAPベースの粗利益率は56.9%、non-GAAPベースの粗利益率は59.2%でした。第4四半期のGAAPベースの営業費用は前年同期比21%増、非GAAPベースの営業費用は23%増となりましたが、これは主に報酬とデータセンターのインフラ費用の増加によるものです。前四半期比では、GAAPベースの営業費用は横ばい、非GAAPベースの営業費用は1%減となりました。今後数四半期にわたり、この水準で比較的横ばいを維持する予定です。

通期のGAAPベースの営業費用は50%増、非GAAPベースの営業費用は31%増となりました。株主には、自社株買いおよび現金配当の形で1.15Bドルを還元しました。第4四半期末時点で、2023年12月までの自社株買い枠は約7Bドル残っています。次に、24年度第1四半期の見通しについてご説明します。

データセンターとゲームの力強い成長に牽引され、当社の4つの主要市場プラットフォームがそれぞれ前四半期比で成長すると予想しています。売上高は、6.5Bドル、プラスマイナス2%の見通しです。GAAPベースの粗利益率は64.1%、非GAAPベースの粗利益率は66.5%で、プラスマイナス50bpsとなる見込みです。GAAP基準の営業費用は、約2.53Bドルとなる見込みです。

非GAAPベースの営業費用は約1.78Bドルとなる見込みです。GAAP方式および非GAAP方式のその他の収益および費用は、非関連会社売却の損益を除くと、約50Mドルの収益となる見込みです。GAAP基準および非GAAP基準の税率は、個別項目を除き13%(プラスマイナス1%)となる見込みです。設備投資額は、第1四半期は約350Mドルから400Mドル、2024年度通期では1.1Bドルから1.3Bドルの範囲となる見込みです。

財務の詳細については、CFOコメンタリーなどをIRサイトにてご覧ください。最後に、金融業界向けの今後のイベントをご紹介します。3月6日にサンフランシスコで開催されるMorgan Stanley Technology Conferenceと3月7日にボストンで開催されるCowen Healthcare Conferenceに参加します。また、3月21日にはJensenの基調講演を皮切りに、GTCをバーチャルで開催します。

24年度第1四半期の業績に関するカンファレンスコールを5月24日(水)に開催する予定です。それでは、質問をお受けします。


Q & A Session

Aaron Rakers - Wells Fargo Securities
質問をお受けいただきありがとうございます。この電話では、ソフトウェアとクラウド戦略のマネタイズ効果が重要な焦点になることは明らかです。エンタープライズAIソフトウェアスイートは、1CPUソケットあたり約6,000ドルの価格設定になっていると思います。

クラウド消費モデルでは、もう少し高い価格設定指標を設定していると思います。Coletteさん、今後数四半期にわたる当社のビジネスモデルへの収益化の貢献について、過去に2 - 3Mドル程度とおっしゃいましたが、どのように考えればいいのでしょうか?この点について、もう少し詳しく説明していただけますか。

Colette Kress - Executive Vice President, Chief Financial Officer
GTCでも素晴らしいトピックとディスカッションになると思いますので、まずはJensenに話を譲りたいと思います。ソフトウェアに関する計画ですが、第4四半期の業績でも成長を続けており、パートナーとの協業、パートナーの加入、ソフトウェアの増加のいずれにおいても、かなり順調に進んでいます。ご指摘のとおりです。ソフトウエアの売上は数億ドル規模であるとお話ししてきました。

第4四半期はソフトウェアの水準がおそらく過去最高であったため、私たちは日々、さらに力をつけています。しかし、そこに関してはまだまだ解明すべきことがありますので、Jensenに回していただきたいと思います。

Jensen Huang
そうですね。まず、一歩下がって、NVIDIA AIは本質的に今日のAIシステムのオペレーティングシステムです。データ処理から始まり、学習、トレーニング、検証、推論に至るまで。そして、このソフトウェア本体は完全に高速化されています。

あらゆるクラウドで動作します。オンプレミスでも動作します。そして、あらゆるフレームワーク、あらゆるモデルをサポートし、あらゆる場所で高速化されています。NVIDIA AIを使用することで、機械学習オペレーション全体がより効率的になり、費用対効果も高くなります。

高速化されたソフトウェアを使用することで、コストを削減することができます。本日発表したNVIDIAのインフラストラクチャーを、世界の主要なクラウドサービスプロバイダーの中でホストすることで、NVIDIA AIエンタープライズを活用する企業の能力を加速させることができるのです。この機械学習パイプラインは、気の弱い人には向かないものですが、その採用を加速させます。非常に広範なソフトウェアです。

しかし、インフラからOSソフトウェア、事前学習済みモデルまで、すべてをクラウドでホストすることで、企業における生成型AIの採用を加速させることができると考えています。私たちは、このビジネスモデルの新たな拡張部分について、とても期待しています。ソフトウェアの採用を加速させることができると、私たちは本当に信じています。


Vivek Arya - Bank of America
ありがとうございます。Colette、データセンターが第1四半期にも前年同期比で成長する可能性があるということですか?それからJensen、私の主な質問は、2つの小さな関連するものに関連するものです。ジェネレーティブAIの演算強度が非常に高い場合、市場規模はほんの一握りのハイパースケーラーに限定されるのでしょうか。また、もう一方の極端な話、もし市場が非常に大きくなった場合、NVIDIAにとって、クラウドASICや市場に出ている他のアクセラレータの選択肢との競争が激化しないのでしょうか?

Colette Kress
ご質問ありがとうございます。まず、第1四半期に提示したデータセンターのガイダンスについてです。データセンターに関しては、前四半期比で大幅な成長を見込んでいます。また、前年同期比でも成長を見込んでいます。

今年は素晴らしい年になると思っています。データセンターの前年比成長率が第1四半期以降に加速すれば、おそらく素晴らしい年になると思います。

Jensen Huang
大規模な言語モデルは、かなり大規模であるため、大規模と呼ばれています。しかし、私たちはこの10年でAI処理を100万倍も加速し、進化させてきたことを忘れてはいけません。ムーアの法則が最盛期であれば、10年で100倍を実現できたはずです。新しいプロセッサー、新しいシステム、新しいインターコネクト、新しいフレームワークやアルゴリズムを考え出し、データサイエンティスト、AI研究者と協力して新しいモデルを作ることで、その全スパンで、大規模言語モデル処理を100万倍、高速化したのです。

当初は数カ月かかっていたものが、今では10日ほどで処理できるようになりました。もちろん、大規模なインフラが必要なことに変わりはありません。Hopperは、トランスフォーマーエンジン、新しいNVLinkスイッチ、新しいInfiniBand 400ギガビット/秒のデータレートを備えており、大規模な言語モデルの処理において、さらなる飛躍を遂げることができるのです。NVIDIA DGX cloud を使って、NVIDIA の DGX スーパーコンピュータをクラウド化することで、このインフラへのアクセスを民主化し、トレーニング機能を加速させ、このテクノロジーと能力を非常に身近なものにすることができると考えています。

以上が1つの考えです。もうひとつは、大規模な言語モデルや基盤モデルを開発しなければならない数がかなり多いということです。国によって文化も違えば、知識体系も異なります。画像、生物、物理など、分野やドメインが違えば、それぞれ独自の基礎モデルが必要です。

大規模な言語モデルを使えば、もちろん、他のすべての分野の開発を加速させることができる先行技術を手に入れることができます。もうひとつ忘れてはならないのは、世界の企業の数は独自のデータを持っているということです。世界で最も価値のあるデータは、独自のものです。そして、それらはその企業に属しています。

会社の中にあるのです。決して会社の外に出ることはありません。そして、そのデータ群を活用して、初めて新しいAIモデルを学習させることができるのです。私たちの戦略や目標は、DGXのインフラをクラウドに置き、この能力を、独自のデータやモデルを作りたい世界中のすべての企業に提供することです。

もうひとつは、競争についてです。私たちには長い間、競争してきました。私たちのアプローチ、つまり私たちのコンピューティング・アーキテクチャは、ご存知のように、いくつかの次元でまったく異なっています。つまり、トレーニングにも推論にも、あらゆるタイプのモデルにも使えるということです。

あらゆるフレームワークをサポートします。あらゆるクラウドに対応しています。あらゆるところに対応しています。クラウドからプライベート・クラウド、クラウドからオンプレミスまで。

エッジに至るまでです。自律的なシステムにもなり得ます。この1つのアーキテクチャによって、開発者はAIモデルを開発し、それをどこにでもデプロイできるようになります。2つ目の非常に大きなアイデアは、それ自体がアプリケーションとなるAIは存在しないということです。

前処理の部分と、アプリケーションやサービスにするための後処理の部分があるのです。ほとんどの人は、前処理と後処理については、セクシーでもなく、面白くもないので、話題にしません。しかし、前処理と後処理は、しばしば全体の作業負荷の半分から3分の2を消費していることが分かっています。そこで、データの取り込みからデータ処理、前処理、後処理に至るまで、エンドツーエンドのパイプライン全体を高速化することで、パイプラインの半分を高速化するのと比べて、パイプライン全体を高速化することができるのです。

ワークロードの半分だけを高速化した場合、即座にパスされたとしても、高速化の限界は2倍になります。NVIDIA がアプリケーションを高速化するというと、10 倍、20 倍、50 倍のスピードアップが日常的に言われるのは、このためです。その理由は、ディープラーニングの部分だけでなく、CUDAを使ってエンド・トゥ・エンドですべてを加速しているからなのです。私たちのコンピューティング--加速されたコンピューティング・プラットフォームの普遍性、あらゆるクラウドに存在する事実、クラウドからエッジまでの事実が、私たちのアーキテクチャを非常に身近で、このように非常に差別化されたものにしているのだと考えています。

そして最も重要なことは、すべてのサービスプロバイダーにとって、利用率が非常に高く、エンドツーエンドのワークロードを加速し、優れたスループットを得るために使用できるため、当社のアーキテクチャは最も低い運用コストであるということです。比較の対象にはなりません。ですから......そう、これが2つの答えです。


C.J. Muse - Evercore
こんにちは。質問を受けていただきありがとうございます。Jensen は、ChatGPT を iPhone のような変曲点として話していましたね。

そこで質問なのですが、ChatGPT以降、ハイパースケールや大企業との会話はどのように発展してきたのでしょうか?次に、トランスフォーマティブ・エンジンのHopperと高帯域幅メモリのGraceについてですが、この2つの製品サイクルの成長見通しは、ここ数カ月でどのように変化したのでしょうか?

Jensen Huang
ChatGPTは素晴らしい作品です。チームは素晴らしい仕事をし、OpenAIは素晴らしい仕事をしました。彼らはそれにこだわったのです。そして、すべてのブレークスルーの積み重ねが、その多様性と能力で皆を驚かせるモデルを内包したサービスにつながったのです。人々が驚いたのは、これは私たちの中で、そして業界内で近いところでよく理解されていることです。

しかし、1つのAIモデルが、決して訓練されていないタスクやスキルを実行できることに驚かされたのです。この言語モデルは、単に英語を話すだけでなく、もちろん翻訳もできますが、人間の言葉を話すだけでなく、人間の言葉で催促することができ、Pythonを出力し、Cobaltという、覚えている人さえほとんどいない言語を出力し、Blenderという3Dプログラム用のPythonを出力します。つまり、別のプログラムのためのプログラムを書くプログラムなのです。私たちは今 -- 世界は今、人間の言語が完璧に優れたコンピュータ・プログラミング言語であることに気づいています。そして、実行すべき特定のタスクを人間の言葉で説明できる人ならほとんど誰でも、コンピュータ・プログラミングを民主化できたのです。

この新しいコンピュータは -- 私がコンピュータの新時代と言ったとき、この新しいコンピュータ・プラットフォームは、あなたのプロンプトが何であれ、あなたの人間が説明した要求が何であれ、それを一連の命令に変換し、あなたが直接それを処理するか、あなたが処理するかどうか決めるのを待つことができます。このタイプのコンピュータは、その用途においてまったく革命的です。なぜなら、非常に多くの人々にプログラミングを民主化し、世界中の企業を興奮させたからです。あらゆるCSP、あらゆるインターネット・サービス・プロバイダー、そして率直に言ってあらゆるソフトウェア会社です。そのような理由から、ソフトウェアを開発している人は皆、警戒しているか、ショックを受けているか、積極的にChatGPTのようなものを自社のアプリケーションに統合したり、自社のサービスに統合するために取り組んでいるのです。

これは、ご想像のとおり、まったくもって世界的なことです。私たちが構築したHopperというAIインフラや、HopperやAmpereを使った大規模な言語モデルの推論に関する活動は、この60日間で一気に広がりました。この60日、90日の間に、私たちが今年をどのように考えていたとしても、かなり、劇的に変化していることは間違いないでしょう。


Matt Ramsay - Cowen
こんにちは。Jensen、DGX Cloudについていくつか質問したいのですが。私たちは皆、さまざまなハイパースケーラーを使用して、サービスやその上でホストするコンピューティングの推進力について話していると思います。

D-LinkのInfiniBandとHopperやGraceを組み合わせたり、システムレベルで販売したりといったことです。今後2〜3年の間に、データセンター事業のビジネス構成は、カード販売からシステムおよびソフトウェア販売へと進化すると思いますか?また、そのことが長期的にデータセンター事業の利益率にどのような影響を与えるとお考えでしょうか。

Jensen Huang
ご質問をありがとうございます。まず、ご存知のように、当社のデータセンター・ビジネスは、概念上のGPUビジネスです。なぜなら、当社が実際にクラウド・サービス・プロバイダーに販売するのは、パネル、つまり8Hoppers または8Ampares のかなり大きなコンピューティングパネルで、NVLinkスイッチで接続されており、NVLinkで接続されています。つまり、このボードが実質的に1つのGPUを表しているのです。

8つのチップを高速なチップ間インターコネクトで接続し、1つのGPUにしたものです。それで、私たちはかなり長い間、マルチダイコンピュータとでもいうべきものに取り組んできました。それが1つのGPUです。GPUというと、実際にはHGX GPUを思い浮かべますが、これは8個のGPUです。

今後もそうしていくつもりです。クラウドサービスプロバイダーは、NVIDIAが提供するインフラをホスティングすることで、NVIDIAが直接仕事をする企業がたくさんあることに、とても期待しています。私たちは、世界中の10,000社のAIスタートアップ企業や、あらゆる業界の企業と直接取引をしています。これらの関係者は、少なくともクラウドに、あるいはクラウドとオンプレミムに、そしてしばしばマルチクラウドに展開できることを望んでいます。

NVIDIA DGX と NVIDIA のインフラをフルスタックでクラウドに導入することで、CSP に効果的に顧客を引きつけることができます。これは、CSP にとって非常にエキサイティングなモデルです。そして、彼らは私たちを快く迎えてくれました。そして私たちは、世界のクラウドのための最高のAIセールスマンになるつもりです。

そして、顧客にとっては、いまや最先端のインフラを瞬時に手に入れることができるのです。インフラからアクセラレーションソフトウェア、NVIDIA AIオープンオペレーティングシステム、AIモデルに至るまで、極めて優秀な人材が揃っているのです。一つの企業の中で、その全領域の専門知識を利用することができるのです。これは、顧客にとって素晴らしいモデルです。

CSPにとっても素晴らしいモデルです。そして、私たちにとっても素晴らしいモデルです。このモデルによって、私たちは本当に風のように走ることができます。私たちはこれからもDGX AIスーパーコンピュータを進化させていきますが、AIスーパーコンピュータをオンプレミスで構築するのは時間がかかります。

どう考えても大変です。どう考えても時間がかかります。そこで今、私たちはその多くをプリフェッチし、できるだけ早くお客様を稼働させることができるようになりました。


Timothy Arcuri - UBS
どうもありがとうございます。Jensen、このことがあなたのTAMに何をもたらすかについて質問があります。今、最も注目されているのはテキストですが、明らかに、ビデオや音楽について多くのトレーニングを行っている企業があります。彼らは、そのモデルを作っています。

このような大規模なモデルをトレーニングしている企業は、高いところではクラウド上に少なくとも10,000台のGPUを契約しており、広く展開されているモデルの推論にはさらに数万台のGPUが必要なようです。ですから、TAMの増加は、数十万GPUの規模や、数百億ドル規模になると思われます。しかし、昨年発表されたTAMの数字がどうなるのか、ちょっと気になるところです。ハードウェアのTAMが300Bドル、ソフトウェアのTAMが300Bドルとおっしゃっていたと思いますが、この数字をどうお考えですか。

新しいTAMはどのようなものになるとお考えですか?

Jensen Huang
この数字は、まだ本当に良いアンカーだと思います。しかし、ジェネレーティブAIの驚くべき能力と多様性、そして昨年半ばから年末にかけて起こったブレークスルーの収束により、遅かれ早かれそのTAMに到達することになるでしょう。今がコンピュータ業界にとって非常に大きな瞬間であることに疑いの余地はありません。コンピュータの開発方法におけるプラットフォームの変化や変曲点のすべては、より使いやすく、よりプログラミングしやすく、よりアクセスしやすくなったからこそ起こったのです。

PC革命の時もそうでした。これはインターネット革命で起きたことです。そして、モバイルクラウドが起こりました。モバイル・クラウドは、iPhoneとApp Storeのおかげで、5M を超えるアプリケーションが登場しました。

メインフレームのアプリケーションは5Mではありませんでした。5Mのワークステーション用アプリケーションがあったわけではありません。PCのアプリケーションは5Mもありませんでした。そして、素晴らしいアプリケーションを開発し、一部はクラウド、一部はモバイルデバイスに展開し、アプリストアのおかげで配布するのが非常に簡単だったため、まったく同じことが今AIにも起こっているのです。

コンピューティングの時代にはなかったことですが、ChatGPTという1つのコンピューティングプラットフォームが60日、90日で150M人に到達したのです。つまり、これは非常に驚異的なことなのです。そして、人々はそれを使ってあらゆるものを作り出しています。現在、新しい企業や新しいアプリケーションが続々と誕生しています。

これはあらゆる意味で、新しいコンピューティングの時代であることに疑いの余地はありません。私たちが説明し、表現したTAMは、今日、そして以前よりもさらに早く実現可能になっていると思います。


Stacy Rasgon - Bernstein
こんにちは、皆さん。私の質問を聞いてくださってありがとうございます。説明と、Coletteへの質問の両方があります。まず、H100の売上がA100よりも高いということですが、これは全体的なことですか?

それとも、出荷の4分の2が終わった時点の話ですか?それから、実際の質問です。自動車、特にメルセデスの機会についてお伺いしたいと思います。メルセデスは今日イベントを行い、MB Driveのソフトウェア収益について、10年代半ばには1桁あるいは10億ユーロ前半、10年末までに10億ユーロ半ばになる可能性があると話していました。そして、このソフトウェア収益を半々で分配するということでしたね。

メルセデスとの契約によるソフトウェア収入の規模は、あなた方が考えているような、同じような時間軸での規模になるのでしょうか?そのようにモデル化すべきでしょうか?

Colette Kress
ありがとうございます。Stacy、ご質問ありがとうございます。まず、H100とA100についてのご質問からお伺いします。H100は第3四半期に初期出荷を開始しました。

これは素晴らしいスタートでした。多くの企業は、そのプロセスを何四半期も前に開始していました。そしてこれは、第3四半期に生産レベルを確保するための時間でした。ですから、第4四半期は、H100の素晴らしい立ち上げを見ることができる重要な時期でした。

つまり、第4四半期に多くのCSPがH100に注目し、クラウドインスタンスでの立ち上げと運用を希望していたのです。そのため、第4四半期はH100の販売台数よりもA100の販売台数が少なかったのですが、その分多くのお客様にご利用いただきました。今後も両方のアーキテクチャを販売していく予定ですが、第4四半期はH100の好調な四半期となりました。メルセデス・ベンツについて、追加のご質問をお願いします。

ベンツとの共同開発については、非常に満足しています。市場投入の準備について、非常に熱心に取り組んでいます。そして、あなたの言うとおりです。彼らはソフトウェアの機会について話してくれました。

Driveでできること、Connectでできること、2つのフェーズでソフトウェアの機会について話してくれました。彼らは、目の前にあるビジネスチャンスについて、おそらく10年程度のポジションを想定していました。ですから、私たちが長期的なパートナーとして考えていることと一致しますし、長期的に収益を共有することができます。

Jensen Huang
メルセデスがやっていることの賢明さについて一言付け加えましょう。メルセデスは大規模なラグジュアリーブランドで唯一、すべての -- エントリーカーから最高級車まで、すべての車に豊富なセンサーセットとAIスーパーコンピューターを搭載しています。もし、今走っているメルセデスの全車両が完全にプログラム可能で、OTAできるようになったら、どのようなものになるか想像してみてください。これがOlaのビジョンです。

そして、そのために彼らが構築しているものは、並外れたものになると思います。高級車の大規模なインストールベースは、顧客の利益のために、また収益を生み出すために更新され続けるでしょう。


Mark Lipacis - Jefferies
私の質問に答えていただきありがとうございます。Jensenにとって、毎年新しいワークロードが登場し、御社のプロセスやエコシステムのサイクルに需要を喚起しているように思います。顔認識、推薦エンジン、自然言語処理、Omniverse、そして現在のジェネレーティブAIエンジンなどを思い浮かべますが、あなたの見解を聞かせてください。これは、御社の製品に次のレベルの需要をもたらす、まったく新しいワークロードのようなものでしょうか?なぜこのような質問をしたかというと、あなたの原稿の中で、ジェネレーティブAIが御社の製品やサービスにもたらす需要についてのあなたの見解が、過去90日間にあなたが考えていたよりもずっと良いようだと述べているのが興味深かったからです。

そこで -- 次のレベルの需要を促進できるような新しいワークロードや新しいアプリケーションに取り組んでいるのであれば、今日見ているものを超えてそれを促進できると思うものについて、私たちと少し共有していただけませんか。

Jensen Huang
ご質問をいただき、本当にありがとうございます。まず第一に、私は皆さんが知らない新しいアプリケーションと、これまで共有したことのない新しいワークロードを持っており、GTCで皆さんと共有したいと思っています。GTCに来ていただければ、私たちが話すアプリケーションにとても驚き、そしてとても喜んでいただけると思います。

さて、常に新しいアプリケーションの話を聞くことができるのには、理由があります。その理由は、第一に、NVIDIA はマルチドメインアクセラレーションコンピューティングプラットフォームであることです。CPUのように完全に汎用というわけではありません。CPUは95%、98%が制御機能で、計算は2%しかありませんから、完全にフレキシブルなのです。私たちはそのような存在ではありません。

私たちは、CPUと連動した加速コンピューティング・プラットフォームで、本当に重いコンピューティング・ユニットや、高度に麻痺してしまうようなものをオフロードしてくれます。しかし、私たちはマルチドメインです。私たちは粒子システムもできますし、流体もできます。

ニューロンもできます。コンピューターグラフィックスもできます。レースもできます。あらゆる種類のアプリケーションを加速させることができるのです。

2つ目は、我々のインストールベースが非常に大きいことです。これは唯一の加速コンピューティングプラットフォームで、唯一のプラットフォームです。文字通り、PCからワークステーション、ゲーマー、自動車、オンプレミスまで、あらゆるクラウドにアーキテクチャ上の互換性がある唯一のものです。つまり、何か特別なものを開発する開発者は、そのリーチが気に入り、私たちのプラットフォームを探し求めるのです。

その理由は、汎用性の高さです。第一に、加速性が好まれます。プログラミングツールのエコシステムと使いやすさ、そして、手を差し伸べられる人がたくさんいることも気に入っているようです。世界中に何百万人ものCUDAのエキスパートがおり、ソフトウェアもツールもすべて高速化されています。

そして、非常に重要なのは、そのリーチです。ソフトウェアを開発した後に、多くのユーザーにアプローチできるという事実が気に入っているようです。これが、新しいアプリケーションを引き寄せ続けている理由です。そして最後に、これは非常に重要なポイントです。

CPUのコンピューティングの進歩のスピードがものすごく遅くなったことを忘れてはいけません。私のキャリアの最初の30年間は、5年ごとにほぼ同じパワーで10倍の性能を発揮していたのに対し、5年ごとに10倍になっています。その進歩のスピードが鈍化したのです。まだ世の中に出したいアプリケーションがたくさんあるのに、パワーが上がり続けている現状では、それを実現する余裕がないのです。

誰もがサステイナブルである必要があるのです。電力を消費し続けることはできません。高速化することで、どんなワークロードでも消費電力を減らすことができるのです。このように、さまざまな理由から、人々は加速コンピューティングを利用するようになり、私たちは新しいエキサイティングなアプリケーションを発見し続けているのです。


Atif Malik - Citi
こんにちは、私の質問を聞いてくださってありがとうございます。Colette、データセンターについて質問させてください。1月期の構築計画が若干弱かったようですが、4月から通年で前年比プラスになるとのことですね。

この加速度に対する自信をどの程度お持ちなのか、順位をつけて教えてください。それは、H100の立ち上がり、ジェネレーティブAIの売上、新しいAIサービスモデルのどれに基づいているのでしょうか?また、企業向け製品についてお聞かせください。

Colette Kress
もちろんです、ご質問ありがとうございます。第1四半期は前四半期比で成長し、第1四半期は前年同期比でも成長すると考えています。今後、この傾向はさらに加速されるでしょう。

その原動力は何だと考えていますか?はい、複数の製品サイクルが市場に投入されています。現在、H100が市場に出ています。また、GPUコンピューティングやネットワーキングを活用した新製品も継続的に投入しています。さらに、今年の後半にはグレードが登場する予定です。

さらに、ジェネレーティブAIは、CSPや企業、スタートアップ企業など、当社のお客様の間で大きな関心を呼んでいます。今年の収益増加の一翼を担うと期待しています。最後に、ムーアの法則の終焉を考えると、AIや加速度的な継続にフォーカスすることは誤りであることを忘れてはなりません。経済が良くなればなるほど、これはおそらく企業にとって非常に重要なことで、企業が[聞き取れず]クラウドファーストの存在によって促進される可能性があります。

この後、Jensenが追加で話したいことがあるかどうかを確認します。

Jensen Huang
いや、よくやったよ。素晴らしかったよ。


Joseph Moore - Morgan Stanley
ありがとうございます。Jensenは、過去10年間で、モデルの学習能力が1M倍向上したとおっしゃいました。また、大規模な言語モデルを使用している顧客の中には、そのような時間枠の中で、複雑さが100倍になっているという話もありますが、今後数年間でどのようになるのか、そのあたりについて教えてください。

Hopperがトランスフォーマーの性能を6倍向上させたことは知っています。しかし、それをスケールアップするために何ができるのでしょうか?また、この先、より大きなハードウェアの出費になることをどの程度反映しているのでしょうか?

Jensen Huang
まず、逆から説明します。私は、AIインフラは世界中で増えていくと考えています。その理由は、AI、つまり知能の生産が製造業になっていくからです。かつては物理的なモノだけを製造する時代がありました。

これからは、--ほとんどすべての企業がソフトグッズを製造するようになるでしょう。それがたまたまインテリジェンスという形になるのです。データが入ってくる。データセンターが行うことは、まさにひとつ、ただひとつです。

そのデータをもとに、新しいモデルを作り上げるのです。原材料が入ってきて、建物やインフラがそれを処理し、洗練された、あるいは改良された、価値の高いものが出てくる、それが工場と呼ばれるものです。ですから、私は世界中にAI工場ができることを期待しています。その一部はクラウドでホストされるでしょう。

オンプレミスのものもあるでしょう。大規模なものもあれば、メガ・サイズのものもあり、さらに小規模なものもあるでしょう。ですから、私はそうなることを十分に期待しています。これが1つ目です。

それから2つ目です。今後10年間、新しいチップ、新しいインターコネクト、新しいシステム、新しいオペレーティングシステム、新しい分散コンピューティングアルゴリズム、新しいAIアルゴリズムを通して、また新しいモデルを考え出す開発者と協力して、AIをさらに1M倍加速させたいと思います。NVIDIAが単なるチップ企業でない理由の1つは、私たちが解決しようとしている問題があまりにも複雑であるためです。チップからデータセンター、ネットワーク、ソフトウェアに至るまで、スタック全体で考えなければならないのです。

そして、1つの会社の頭の中で、そのスタック全体を考えることができるのです。そのため、コンピュータサイエンティストにとって、スタック全体を横断してイノベーションを起こすことができる、非常に素晴らしい遊び場なのです。ですから、私が期待するのは、今後10年間に次の会社、AIプラットフォームでAIモデルの本当に巨大なブレークスルーを見ることになるということです。しかし同時に、これの驚異的な成長と採用のため、これらのAI工場がいたるところで見られるようになるでしょう。


Jensen Huang
ありがとうございました。トランスフォーマー、大規模言語モデル、ジェネレーティブAIによるブレークスルーの積み重ねが、AIの能力と汎用性を目覚しいレベルまで高めています。新しいコンピューティング・プラットフォームが出現したのです。新しい企業、新しいアプリケーション、長年の課題に対する新しいソリューションが、驚異的なスピードで生み出されています。

ほぼすべての業界の企業が、自社の製品やビジネスを再構築するために、ジェネレーティブAIを適用しようと活性化しています。すでに高かったAIをめぐる活動のレベルが、大きく加速しているのです。これは、私たちが10年以上かけて目指してきた瞬間です。そして、私たちは準備が整っています。

新しいトランスフォーマーエンジンとQuantum InfiniBandファブリックを搭載した当社のHopper AIスーパーコンピューターはフル稼働しており、CSPはHopperクラウドサービスのオープンに向けて競っているところです。当社のGPUに対する旺盛な需要に応えるべく、今年一杯は成長を加速させたいと考えています。今度のGTCをお見逃しなく。新しいチップ、システム、ソフトウェア、新しい CUDA アプリケーションと顧客、新しいエコシステム・パートナー、そして NVIDIA AI と Omniverse に関することなど、お伝えしたいことがたくさんあります。

これまでで最高のGTCになることでしょう。現地でお会いしましょう。


サポートいただけると大変喜びます。
ありがどうございます。

サポートいただけると大変喜びます。ありがとうございます。