参考和訳 NVIDIA Corp. (NASDAQ:NVDA) Q4 2023 Earnings Conference Call February 22, 2023

NVIDIA Corp. (NASDAQ:NVDA) Q4 2023 Earnings Conference Call February 22, 2023 5:00 PM ET

企業参加者

シモーナ・ヤンコウスキー - VP、IR

コレット・クレス(Colette Kress) - EVP兼CFO

Jensen Huang - 共同創設者、CEO、社長

電話会議参加者

アーロン・レイカーズ(ウェルズ・ファーゴ証券

Vivek Arya - バンクオブアメリカ・メリルリンチ

Christopher Muse - エバーコアISI

ステイシー・ラスゴン - サンフォード・C・バーンスタイン&カンパニー

ジョセフ・ムーア - モルガンスタンレー

アティフ・マリク - シティグループ

ティモシー・アルキュリ - UBS

マーク・リパチス - ジェフリーズ

マシュー・ラムジー - コーウェンアンドカンパニー

運営者

こんにちは。本日のコンファレンス・オペレーターを務めますエマと申します。本日は、NVIDIAの第4四半期決算説明会にお越しいただきありがとうございます。[オペレーターからの指示]. ありがとうございます。シモーナ・ヤンコウスキーさん、会議を始めてください。

シモーナ・ヤンコウスキー

ありがとうございます。皆さんこんにちは、NVIDIA の 2023 年度第 4 四半期のカンファレンス・コールへようこそ。本日、NVIDIAから、社長兼最高経営責任者のジェンセン・フアン、そして、取締役副社長兼最高財務責任者のコレット・クレスが出席しています。この電話会議の模様は、NVIDIA の投資家向けウェブサイトにてライブ配信されます。このウェブキャストは、2024年度第1四半期の業績について説明するカンファレンスコールまで再生可能です。本日の電話会議の内容は、NVIDIAの所有物です。当社の事前の書面による同意なく、複製または転写することはできません。

この電話会議では、現在の予想に基づく将来の見通しに関する記述を行う場合があります。これらは、多くの重大なリスクと不確実性の影響を受け、当社の実際の結果は大きく異なる可能性があります。当社の将来の業績や事業内容に影響を与えうる要素は、本日の決算発表資料、当社の最新のフォーム 10-K および 10-Q、ならびに当社が米国証券取引委員会にフォーム 8-K で提出する報告書にて開示されています。当社のすべての記述は、本日2023年2月22日現在において、当社が現時点で入手可能な情報に基づき作成されたものです。法律で義務づけられている場合を除き、当社はそのような記述を更新する義務を負いません。

この電話会議において、当社は非GAAPベースの財務指標について説明します。これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整表は、当社のウェブサイトに掲載されているCFOコメンタリーにてご覧いただけます。

それでは、コレットに電話をつなぎます。

コレット・クレス

シモーナ、ありがとうございます。第4四半期の売上は60億5,000万ドルで、前四半期比2%増、前年同期比では21%減でした。通期の売上高は270億ドルで、前年比横ばい。データセンターから始めます。売上高は36億2,000万ドルで、前四半期比6%減、前年同期比11%増。通期の売上高は150億ドルで、41%増となりました。ハイパースケールの顧客収益は、前四半期比で大幅な伸びを示しましたが、一部のクラウドサービスプロバイダーが年末に構築計画を見直すため一時停止したため、当社の予想には及びませんでした。一般的には、マクロ経済の全体的な不確実性を反映した引き締めと見られるが、GPUやAIインフラに対する最終市場の需要は強いため、これはタイミングの問題であると考える。ネットワーキングは成長したが、汎用CPUインフラの需要が軟調なため、当社の予想を少し下回った。データセンター全体の前四半期の減収は、COVIDなどの国内問題を反映した中国での減収によるもので、ほぼ当社予想通りでした。

クラウドの普及が進む中、当社はオラクルやGPU専業CSPなど、急成長するクラウドサービスプロバイダーへのサービス提供を拡大しています。昨年は、クラウドファーストに移行する企業顧客が増加し、CSP顧客からの収益の伸びがデータセンター全体の伸びを大きく上回りました。4 四半期累計では、データセンター事業の売上高の約 40%を CSP のお客様が占めています。

当社の新しいデータセンター向けフラッグシップGPUであるH100の採用は好調です。H100の売上高は、発売後わずか2四半期で、前四半期に減少したA100の売上高をすでに大きく上回っています。これは、H100の卓越した性能の証です。H100は、トレーニングにおいてA100の9倍、トランスフォーマーベースの大規模言語モデルの推論において最大30倍高速になります。H100のトランスフォーマーエンジンは、大規模言語モデルの推論の開発とスケールアウトに役立つタイミングで到着したのです。

AIの導入は変曲点を迎えています。Open AIのChatGPTは、世界中の人々の関心を集め、人々がAIを直接体験し、生成的AIで何が可能かを示しています。こうした新しいタイプのニューラルネットワークモデルは、マーケティングコピーのようなテキストの生成、[indiscernible]のような文書の要約、広告やビデオゲーム用の画像の作成、顧客の質問への回答など、さまざまなタスクの生産性を向上させることができるのです。生成的なAIアプリケーションは、ほとんどすべての産業でより多くのことをより速く行うのに役立つでしょう。

1,000億以上のパラメータを持つ生成大規模言語モデルは、今日の世界で最も高度なニューラルネットワークです。NVIDIAの専門知識は、これらの能力を企業にもたらすことができるAIスーパーコンピュータ、アルゴリズム、データ処理、トレーニング方法などに及んでいます。私たちは、ジェネレーティブAIの機会でお客様を支援できることを楽しみにしています。

あらゆる主要なハイパースケールクラウドプロバイダーとの協力に加え、当社は多くの消費者向けインターネット企業、エンタープライズ、スタートアップ企業と関わっています。この機会は大きく、データセンターの力強い成長を牽引しており、今年にかけて加速していくでしょう。

当四半期には、当社最大の業種のひとつである金融サービス分野で注目すべき発表がありました。ドイツ銀行との提携を発表し、金融サービスにおけるAIと機械学習の活用を加速させます。共同で、仮想顧客サービスエージェント、音声AI、詐欺検出、銀行プロセスの自動化など、さまざまなアプリケーションを開発し、NVIDIA AIエンタープライズソフトウェアを含む、オンプレミスとクラウドの両方でNVIDIAのフルコンピューティングスタックを活用します。また、資産価格発見などの用途で、金融サービス業界の主要なベンチマークにおいて、NVIDIAがAI推論でトップクラスの結果を獲得したことも発表しました。ネットワーキングの分野では、最新世代のInfiniBandおよびHPCに最適化されたEthernetプラットフォームに対する需要が、AIによって高まっていると見ています。

ジェネレーティブAI基盤のモデルサイズは指数関数的に成長し続けており、マルチノードで加速されたワークロードをスケールアウトするための高性能ネットワーキングの必要性を高めています。比類ないパフォーマンス、レイテンシ、インネットワーク・コンピューティング機能を提供するInfiniBandは、電力効率に優れたクラウドスケールのジェネレーティブAIに最適な選択肢となります。

小規模な導入の場合、NVIDIAはアクセラレーションスタックの専門知識をフルに発揮し、世界最先端の高性能イーサネットファブリックと統合します。当四半期は、クラウド、エンタープライズ、スーパーコンピューティングのお客様からの需要により、Quantum 2 40ギガビット/秒プラットフォームが好調なスタートを切り、InfiniBandが当社の成長を牽引しました。イーサネットでは、毎秒40ギガビットのSpectrum 4ネットワーク・プラットフォームが、お客様の高速化、次世代アダプターやスイッチへの移行に伴い、勢いを増しています。

ソフトウェアとサービスの拡大にも引き続き注力しています。50以上のNVIDIA AIフレームワークと事前学習済みモデルをサポートし、コンタクトセンターのインテリジェントな仮想アシスト、音声転写、サイバーセキュリティのための新しいワークフローを備えたNVIDIA AIエンタープライズのバージョン3.0をリリースしました。今後提供予定のサービスには、現在お客様から早期アクセスを受けているNeMoとBioNeMoの大規模言語モデルサービスが含まれます。

それでは、Jensenからソフトウェアとクラウドのビジネスについて、もう少し詳しくお話を伺いたいと思います。

ジェンセン・フアン

コレットさん、ありがとうございます。技術的なブレークスルーの積み重ねによって、AIは変曲点を迎えています。Generative AIの汎用性と能力により、世界中の企業でAI戦略の策定と展開に向けた危機感が高まっています。しかし、AIスーパーコンピュータのインフラ、モデルアルゴリズム、データ処理、トレーニング技術は、ほとんどの場合、乗り越えられない障害として残っています。本日は、AIをすべての企業のお客様の手の届くところに置くための、私たちのビジネスモデルの次の段階をご紹介したいと思います。

私たちは、主要なサービス--クラウドサービスプロバイダーと提携し、NVIDIAが直接、または私たちの市場参入パートナーのネットワークを通じて提供し、世界最大のクラウド内でホストされるNVIDIA AIクラウドサービスを提供しています。NVIDIA AI as a serviceは、世界最先端のクラウドが提供するストレージ、ネットワーキング、セキュリティ、クラウドサービスを身近に感じながら、世界最先端のAIプラットフォームへ簡単にアクセスできる環境を企業に提供します。

顧客は、AIスーパーコンピュータ、アクセラレーションライブラリソフトウェア、または事前学習済みAIモデルレイヤーでNVIDIA AIクラウドサービスを利用することができます。NVIDIA DGXはAIスーパーコンピュータであり、世界中で建設されているAI工場の青写真でもあります。AIスーパーコンピューターは、構築するのが難しく、時間がかかるものです。本日、私たちはNVIDIA DGX Cloudを発表します。これは、ブラウザを開くだけで、あなた自身のDGX AIスーパーコンピュータを持つことができる、最も速く、最も簡単な方法です。NVIDIA DGX Cloudは、すでにOracle Cloud InfrastructureとMicrosoft Azure、Google GCPなどを通じて提供されており、今後も順次提供される予定です。

AIプラットフォームのソフトウェア層では、お客様は大規模な言語モデルやその他のAIワークロードのトレーニングやデプロイのために、NVIDIA AIエンタープライズにアクセスすることができます。また、事前学習済み生成AIモデル層では、カスタマイズ可能なAIモデルであるNeMoとBioNeMoを、ビジネス向けに独自の生成AIモデルやサービスを構築したい企業顧客に提供する予定です。新しいビジネスモデルにより、お客様はプライベートクラウドからあらゆるパブリッククラウドまで、NVIDIAのフルスケールのAIコンピューティングを活用することができます。NVIDIA AIクラウドサービスの詳細については、次回のGTCでお伝えしますので、ぜひご期待ください。

それでは、ゲームに関するコレットに話を戻します。

コレット・クレス

ありがとう、ジェンセン。ゲームの収益は18億3000万ドルで、前四半期比16%増、前年同期比46%減となりました。会計年度の収益は90億7000万ドルで、27%減です。前四半期の伸びは、Ada Lovelaceアーキテクチャを採用した40シリーズGeForce RTX GPUが好評を博したことによるものです。前年同期比の減少は、チャネル在庫の補正の影響を反映していますが、これはほぼ過去のことです。また、季節的に好調な第4四半期の需要は、ほとんどの地域で堅調に推移しました。中国はCOVIDに関連する混乱の影響を多少受けたものの、同市場の回復の兆しが見えてきていることは心強いことです。

ゲーマーは、新しいRTX4090、4080、4070 TiデスクトップGPUに熱狂的に反応し、多くの小売店やオンラインショップですぐに在庫切れを起こしています。フラッグシップのRTX 4090はSteamで急速に人気が急上昇し、AIアーキテクチャの首位を獲得しており、高性能グラフィックスに対するゲーマーの要望が反映されています。

今月初めには、Adaアーキテクチャを採用したゲーミングノートPCの第1弾が店頭に並び、性能と電力効率におけるNVIDIAの過去最大の世代交代を実現しました。これまで基本的な作業やアプリケーションに限定されていた、急成長中のセグメントである14インチという薄型のラップトップに、エンスージアストクラスのGPUパフォーマンスを初めて提供します。

また、第5世代のMax-Qテクノロジーによる電力効率化により、当社の最も高性能なモデルである90クラスのGPUをノートパソコンに搭載することも初めてです。RTX 40シリーズGPUは、ゲーミングノートPCとクリエイターノートPCに搭載され、新学期シーズンに向けての大きな力となります。

リアルタイム・レイトレーシングとAI搭載グラフィックスを実現するNVIDIAのRTX技術をサポートするゲームやアプリケーションは、現在400を超えます。AIアーキテクチャは、当社の第3世代のAI搭載グラフィックスであるDLSS 3を搭載し、パフォーマンスを大幅に向上させます。最先端のゲームであるサイバーパンク2077では、最近DLSS 3が追加され、4K解像度でのフレームレート性能が3~4倍向上しています。

当社のGeForce NOWクラウドゲーミングサービスは、ユーザー、タイトル、パフォーマンスなど多次元で拡大を続けています。現在、100カ国以上で2,500万人以上の会員を有しています。先月には、新しい高性能な究極の会員層でRTX 4080グラフィックス馬力を有効にしました。アルティメット会員は、フルレイトレーシングとDLSS 3により、クラウドから最大240フレーム/秒のストリーミングが可能です。

そしてつい昨日、マイクロソフトとの重要な発表がありました。私たちは、GeForce NOWに、Minecraft、Halo、Flight Simulatorなどの大ヒット作を含むMicrosoftのXbox PCゲームのラインアップを提供する10年間のパートナーシップに合意しました。そして、MicrosoftのActivisionの買収が完了すると、Call of DutyやOverwatchなどのタイトルが追加される予定です。

プロビジュアライゼーションに移行する。売上高は2億2600万ドルで、前四半期比13%増、前年同期比65%減となった。会計年度の売上は15億4,000万ドルで、27%減。前四半期比の成長は、自動車や製造業の産業分野での強みを持つデスクトップワークステーションが牽引しました。前年同期比の減少は、チャネル在庫調整の影響を反映したもので、今年前半には終了する見込みです。

NVIDIAのOmniverseへの関心は高まり続けており、これまでに30万件近くダウンロードされ、サードパーティのデザインアプリケーションへのコネクターは185件に達しています。最新リリースされたOmniverseは、4Kのサポート、リアルタイムのパストレーシング、タグ付けされていない大規模な3DデータベースをAIで検索するOmniverse Search、AWS用のOmniverseクラウドコンテナなど、多くの機能と拡張機能を備えています。

自動車に話を移しましょう。収益は過去最高の2億9400万ドルで、[indiscernible]から17%増、前年比135%増となりました。連続的な成長は、主にAI自動車向けソリューションが牽引しました。電気自動車と従来のOEM顧客の両方における新しいプログラムの立ち上げが、この成長を後押ししました。会計年度の売上高は9億300万ドルで、60%増となりました。

CESでは、自動運転車および自律走行車プラットフォームの開発を目的としたFoxconnとの戦略的パートナーシップを発表しました。この提携により、エヌビディアドライブプラットフォームに対する需要の高まりに対応するため、量産、製造のための規模を提供することになります。Foxconnは、電気自動車にNVIDIA Drive、Hyperionコンピュートおよびセンサー・アーキテクチャを使用する予定です。Foxconnは、NVIDIA Drive Orinをベースにした電子制御ユニットを製造するTier 1メーカーとなり、世界の.NET車両に搭載される予定です。

また、今期は重要なマイルストーンに到達しました。NVIDIA Driveオペレーティングシステムは、自動車業界で最も経験豊富で厳格な評価機関の1つであるTÜV SÜDから安全認証を取得しました。業界をリードする性能と機能的安全性を備えた当社のプラットフォームは、自律型輸送に求められる高い基準を満たすものです。

損益計算書の残りの部分に移ります。GAAPベースの売上総利益率は63.3%、非GAAPベースの売上総利益率は66.1%でした。通期のGAAPベースの粗利益率は56.9%、non-GAAPベースの粗利益率は59.2%でした。第4四半期のGAAPベースの営業費用は前年同期比で21%増加、非GAAPベースの営業費用は23%増加しましたが、これは主に報酬とデータセンターのインフラ費用が増加したことによるものです。

前四半期比では、GAAPベースの営業費用は横ばい、非GAAPベースの営業費用は1%減少しました。今後数四半期にわたり、この水準で比較的横ばいを維持する予定です。通期のGAAPベースの営業費用は50%増、非GAAPベースの営業費用は31%増となりました。

株主には、自社株買いおよび現金配当の形で11億5,000万ドルを還元しました。第4四半期末時点で、2023年12月までの自社株買い枠は約70億円残っています。

次に、24年度第1四半期の見通しについてご説明します。データセンターとゲームの力強い成長に牽引され、当社の4つの主要市場プラットフォームがそれぞれ前四半期比で成長すると予想しています。売上高は、65億ドル、プラスマイナス2%の見通しです。GAAPベースの粗利益率は64.1%、非GAAPベースの粗利益率は66.5%で、プラスマイナス50ベーシスポイントとなる見込みです。GAAP基準の営業費用は、約25億3,000万ドルとなる見込みです。非GAAPベースの営業費用は約17億8,000万ドルとなる見込みです。GAAP方式および非GAAP方式のその他の収益および費用は、非関連会社売却の損益を除くと、約5,000万ドルの収益となる見込みです。GAAP基準および非GAAP基準の税率は、個別項目を除き13%(プラスマイナス1%)となる見込みです。設備投資額は、第1四半期は約3億5,000万ドルから4億ドル、2024年度通期では11億ドルから13億ドルの範囲になると予想しています。財務の詳細については、CFOのコメントおよび当社のIRサイトで公開しているその他の情報に記載しています。

最後に、金融業界向けの今後のイベントをご紹介します。当社は、3月6日にサンフランシスコで開催されるモルガン・スタンレー・テクノロジー・カンファレンス、3月7日にボストンで開催されるコーウェン・ヘルスケア・カンファレンスに参加する予定です。また、3月21日にはジェンセンの基調講演を皮切りに、GTCをバーチャルで開催します。24年度第1四半期の業績に関する決算説明会を5月24日(水)に開催する予定です。

それでは、質問をお受けします。オペレーター、質疑応答のポールをお願いします。

質疑応答

オペレーター

[オペレーターからのご案内]. 最初の質問はウェルズ・ファーゴのアーロン・レイカーズからです。

アーロン・レイカーズ

この電話会議では、明らかに、ソフトウェアとクラウド戦略のマネタイズ効果が重要な焦点になると思います。この点については、エンタープライズAIソフトウェアスイートは、CPUソケットあたり約6,000ドルという価格設定になっていると思います。クラウド消費モデルでは、もう少し高い価格設定指標を設定していると思います。コレットさん、今後数四半期にわたる当社のビジネスモデルへの収益化の貢献について、過去に2億円程度とおっしゃいましたが、どのように考えればいいでしょうか。この点について、もう少し詳しく教えてください。

コレット・クレス

GTCでも素晴らしいトピックとディスカッションになると思いますので、まずはJensenに話を譲りたいと思います。

ソフトウェアに関しては、第4四半期の業績でも成長を続けており、パートナーとの協業、パートナーの加入、ソフトウェアの増加のいずれにおいても、かなり順調に進んでいます。ご指摘のとおりです。ソフトウエアの売上は数億ドル規模であるとお話ししてきました。第4四半期はソフトウェアの水準がおそらく過去最高であったため、私たちは日々、さらに力をつけています。しかし、そこの点については、もっと解き明かすことがありますので、ジェンセンに回します。

ジェンセン・ホァン

はい、まず一歩踏み出して、NVIDIA AIは本質的に今日のAIシステムのOSです。データ処理から始まり、学習、トレーニング、検証、推論まで行います。そして、このソフトウェア本体は完全に高速化されています。あらゆるクラウドで動作します。オンプレミスでも動作します。そして、あらゆるフレームワーク、あらゆるモデルをサポートし、あらゆる場所で高速化されています。

NVIDIA AIを使用することで、機械学習オペレーション全体がより効率的になり、費用対効果も高くなります。高速化されたソフトウェアを使用することで、コストを削減することができます。本日発表したNVIDIAのインフラストラクチャーを、世界の主要なクラウドサービスプロバイダーの中でホストすることで、企業がNVIDIA AIエンタープライズを利用する能力が加速されます。この機械学習パイプラインは、気の弱い人には向かないものですが、その導入が加速されます。これは非常に広範なソフトウェアです。しかし、インフラからOSソフトウェア、事前学習済みモデルまで、すべてをクラウドでホストすることで、企業における生成型AIの採用を加速できると信じています。私たちは、このビジネスモデルの新たな拡張部分について、とても期待しています。私たちは、それがソフトウェアの採用を加速させることになると本当に信じています。

オペレーター

次の質問は、バンク・オブ・アメリカのヴィヴェク・アーヤからお願いします。

Vivek Arya

コレットさん、データセンターは第1四半期も前年同期比で成長する可能性があるということでしょうか。

それからジェンセン、私の主な質問は、2つの小さな関連するものに関連するものです。ジェネレーティブAIの演算強度が非常に高い場合、市場規模はほんの一握りのハイパースケーラーに限定されるのでしょうか。また逆に、市場が非常に大きくなった場合、NVIDIAにとって、クラウドASICや市場にある他のアクセラレータの選択肢から、より多くの競争を引き寄せることにならないか?

コレット・クレス

ご質問ありがとうございます。まず、第1四半期に提示したデータセンターのガイダンスについてです。データセンターに関しては、前四半期比で大幅な成長を見込んでいます。また、前年同期比でも成長を見込んでいます。データセンターの前年比成長率は、おそらく第1四半期以降も加速しており、素晴らしい1年になると期待しています。

Jensen Huang

大規模な言語モデルは、かなり大規模であるため、大規模と呼ばれています。しかし、私たちはこの10年でAI処理を100万倍も加速し、進化させてきたことを忘れてはいけません。ムーアの法則が最盛期であれば、10年で100倍を実現できたはずです。新しいプロセッサー、新しいシステム、新しいインターコネクト、新しいフレームワークやアルゴリズムを考え出し、データサイエンティスト、AI研究者とともに新しいモデルに取り組むことで、その全期間にわたって、大規模言語モデル処理を100万倍、高速化することができたのです。

当初は数カ月かかっていたものが、今では10日ほどで処理できるようになりました。もちろん、大規模なインフラが必要なことに変わりはありません。Hopperは、トランスフォーマーエンジン、新しいNVLinkスイッチ、新しいInfiniBand 400ギガビット/秒のデータレートを備えており、大規模な言語モデルの処理においてさらなる飛躍を遂げることができるのです。

NVIDIA DGX cloudによって、このインフラへのアクセスを民主化し、加速されたトレーニング機能によって、このテクノロジーと能力を非常に身近なものにすることができると考えています。これが1つ目の考えです。

もうひとつは、大規模な言語モデルや基礎モデルを開発する必要がある場合、その数は非常に多くなります。国によって文化も違えば、知識体系も異なります。画像、生物、物理など、分野やドメインが違えば、それぞれ独自の基礎モデルが必要です。大規模な言語モデルを使えば、もちろん、他のすべての分野の開発を加速させることができる先行技術を手に入れることができます。

もうひとつ忘れてはならないのは、世界の企業の数は独自のデータを持っているということです。世界で最も価値のあるデータは、独自のものです。そして、それらはその企業に属しています。会社の中にあるのです。決して会社の外に出ることはありません。そして、そのデータ群を活用して、初めて新しいAIモデルを学習させることができるのです。私たちの戦略や目標は、DGXのインフラをクラウドに置き、この能力を、独自のデータやモデルを作りたい世界中のすべての企業に提供することです。

もうひとつは、競争についてです。私たちには長い間、競争がありました。私たちのアプローチ、つまり私たちのコンピューティング・アーキテクチャは、ご存知のように、いくつかの次元でまったく異なっています。つまり、トレーニングにも推論にも、あらゆるタイプのモデルにも使えるということです。あらゆるフレームワークをサポートします。あらゆるクラウドに対応しています。あらゆるところに対応しています。クラウドからプライベート・クラウド、クラウドからオンプレミスまで。エッジに至るまで。自律的なシステムにもなり得ます。この1つのアーキテクチャによって、開発者はAIモデルを開発し、それをどこにでもデプロイできるようになります。

2つ目の非常に大きな考え方は、AIそれ自体がアプリケーションになることはないということです。前処理の部分と、アプリケーションやサービスにするための後処理の部分があるのです。ほとんどの人は、前処理と後処理については、セクシーでもなく、面白くもないので、話しません。しかし、前処理と後処理は、しばしば全体の作業負荷の半分から2/3を消費していることが分かっています。そこで、データの取り込みからデータ処理、前処理、後処理に至るまで、エンドツーエンドのパイプライン全体を高速化することで、パイプラインの半分を高速化するのと比べて、パイプライン全体を高速化することができるのです。ワークロードの半分だけを高速化した場合、即座にパスされたとしても、高速化の限界は2倍になります。NVIDIA がアプリケーションを高速化するというと、10 倍、20 倍、50 倍のスピードアップが日常的に言われるのは、このためです。その理由は、ディープラーニングの部分だけでなく、CUDAを使ってエンド・トゥ・エンドですべてを加速しているからなのです。

私たちのコンピューティング--加速されたコンピューティング・プラットフォームの普遍性、あらゆるクラウドに存在する事実、クラウドからエッジまでの事実が、私たちのアーキテクチャを非常に身近で、このように非常に差別化されたものにしているのだと考えています。そして最も重要なことは、すべてのサービスプロバイダーにとって、利用率が非常に高く、エンドツーエンドのワークロードを加速し、優れたスループットを得るために使用できるため、当社のアーキテクチャは最も低い運用コストであるということです。比較の対象にはなりません。というわけで、以上2つの回答でした。

オペレーター

次の質問は、EvercoreのC.J.Museからお願いします。

クリストファー・ミューズ

Jensen さんは、ChatGPT を iPhone のような変曲点として話していましたね。そこで質問ですが、ChatGPT の導入後、ハイパースケール企業や大規模企業との会話はどのように変化したのでしょうか? 次に、トランスフォーマティブ・エンジンのHopperと高帯域幅メモリのGraceについてですが、この2つの製品サイクルの成長見通しは、ここ数ヶ月でどのように変化したのでしょうか。

Jensen Huang

ChatGPTは素晴らしい作品で、チームは素晴らしい仕事をし、OpenAIも素晴らしい仕事をしました。彼らはそれにこだわったのです。そして、すべてのブレークスルーの積み重ねが、その多様性と能力で皆を驚かせるモデルを内包したサービスにつながったのです。

人々が驚いたのは、これは私たちの中で、そして業界内で近いところでよく理解されていることです。しかし、1つのAIモデルが、決して訓練されていないタスクやスキルを実行できることに驚かされたのです。この言語モデルは、単に英語を話すだけでなく、もちろん翻訳もできますが、人間の言葉を話すだけでなく、人間の言葉で催促することができ、Pythonを出力し、Cobaltという、覚えている人さえほとんどいない言語を出力し、Blenderという3Dプログラム用のPythonを出力します。つまり、他のプログラムのためのプログラムを書くプログラムなのです。

私たちは今 -- 世界は今、人間の言語が完璧に優れたコンピュータ・プログラミング言語であることに気づいています。そして、実行すべき特定のタスクを人間の言葉で説明できる人ならほとんど誰でも、コンピュータ・プログラミングを民主化することができたのです。この新しいコンピュータは -- 私がコンピュータの新時代と言ったとき、この新しいコンピュータ・プラットフォームは、あなたのプロンプトが何であれ、あなたの人間が説明した要求が何であれ、それを一連の命令に変換し、あなたが直接それを処理するか、あなたが処理するかどうかを決定するのを待つことができるのです。

このタイプのコンピュータは、その用途においてまったく革命的です。なぜなら、非常に多くの人々にプログラミングを民主化し、世界中の企業を興奮させたからです。あらゆるCSP、あらゆるインターネット・サービス・プロバイダー、そして率直に言ってあらゆるソフトウェア会社が、今説明したように、これはどんなプログラムに対してもプログラムを書くことができるAIモデルだからです。そのため、ソフトウェアを開発している人は皆、警戒しているか、ショックを受けているか、積極的にChatGPTのようなものを自社のアプリケーションに統合したり、自社のサービスに統合したりすることに取り組んでいるのです。それで、これはご想像の通り、まったく世界的なことなのです。

Hopperで構築したAIインフラや、HopperとAmpereを使って大規模な言語モデルを推論するアクティビティは、この60日間で一気に広がりました。この60日、90日の間に、私たちが今年をどのように考えていたとしても、それはかなり、劇的に変化したことに疑いの余地はありません。

オペレーター

次の質問はコーウェンアンドカンパニーのマット・ラムジーからお願いします。

マシュー・ラムジー

Jensen、DGX Cloudについていくつかお聞きしたいのですが。私たちは皆、さまざまなハイパースケーラーを使って、サービスやその上でホストするコンピューティングのドライバーについて話していると思います。つまり、InfiniBandとHopper製品、Grace製品との組み合わせや、よりシステムレベルでの販売などです。今後2~3年の間に、データセンター事業のビジネス構成が、カード販売からシステムおよびソフトウェア販売へと変化すると思いますか? また、そのことが長期的にデータセンター事業の利益率にどのような影響を及ぼすとお考えですか?

ジェンセン・ホァン

ご質問ありがとうございます。まず、ご存知のように、当社のデータセンター事業は、概念上のGPU事業であり、実際にクラウドサービスプロバイダーに販売するのは、パネル、つまり8ホッパーまたは8アンペアのかなり大きなコンピューティングパネルで、NVLinkで接続されたNVLinkスイッチで接続されています。このボードは、実質的に1つのGPUを表しています。8つのチップを高速のチップ間インターコネクトでつないで、1つのGPUにしています。私たちは、マルチダイコンピュータに長い間取り組んできました。それが1つのGPUです。

GPUといえば、HGX GPUを思い浮かべますが、これは8個のGPUです。今後もそうしていくつもりです。クラウドサービスプロバイダーは、NVIDIAが提供するインフラをホスティングすることで、NVIDIAが直接仕事をする企業がたくさんあることに、とても期待しています。私たちは、世界中の1万社のAIスタートアップ企業や、あらゆる業界の企業と直接取引をしています。これらの企業は、少なくともクラウドに、あるいはクラウドとオンプレミムに、そしてしばしばマルチクラウドに展開できることを望んでいます。

NVIDIA DGX と NVIDIA のインフラをフルスタックでクラウドに導入することで、CSP に効果的に顧客を引きつけることができます。これは、CSP にとって非常にエキサイティングなモデルです。そして、彼らは私たちを快く迎えてくれました。そして私たちは、世界のクラウドのための最高のAIセールスマンになるつもりです。そして、顧客にとっては、いまや最先端のインフラを瞬時に手に入れることができるのです。インフラからアクセラレーションソフトウェア、NVIDIA AIオープンオペレーティングシステム、AIモデルに至るまで、極めて優秀な人材が揃っているのです。1つの事業体の中で、その全領域の専門知識を利用することができるのです。これは、顧客にとって素晴らしいモデルです。CSPにとっても素晴らしいモデルです。そして、私たちにとっても素晴らしいモデルです。このモデルによって、私たちは本当に風のように走ることができます。私たちはこれからもDGX AIスーパーコンピュータを進化させていきますが、AIスーパーコンピュータをオンプレミスで構築するのは時間がかかります。どう考えても大変です。どう考えても時間がかかります。そこで今、私たちは、その多くをプリフェッチして、できるだけ早くお客様を稼働させることができるようになりました。

オペレーター

次の質問は、UBSのティモシー・アルキュリからです。

ティモシー・アルクリ

ジェンセン、この件が貴社のTAMに与える影響について質問です。今、最も注目されているのはテキストですが、明らかに、ビデオや音楽について多くのトレーニングを積んでいる企業があります。彼らは、そのモデルを作っています。このような大規模なモデルをトレーニングしている企業は、高いところではクラウド上に少なくとも1万台のGPUを契約しており、広く展開されているモデルの推論にはさらに数万台のGPUが必要なようです。ですから、TAMの増加は、数十万GPUで、数百億ドル規模になるように思われます。しかし、昨年発表されたTAMの数字がどうなるのか、ちょっと気になるところです。ハードウェアのTAMが3,000億ドル、ソフトウェアのTAMが3,000億ドルとおっしゃっていたと思いますが、この数字をどうお考えですか。新しいTAMはどのようなものになるのでしょうか?

Jensen Huang

この数字は、今でも本当に良いアンカーだと思います。しかし、ジェネレーティブAIの驚くべき能力と多様性、そして昨年半ばから年末にかけて起こったブレークスルーの収束により、遅かれ早かれそのTAMに到達することになるでしょう。今がコンピュータ業界にとって非常に大きな瞬間であることに疑いの余地はありません。コンピュータを開発する上で、プラットフォームの変化や変曲点はすべて、より使いやすく、よりプログラミングしやすく、よりアクセスしやすくなったから起こったものです。PC革命がそうでした。インターネット革命もそうでした。そして、モバイル・クラウドがそうでした。モバイル・クラウドは、iPhoneとApp Storeのおかげで、500万を超えるアプリケーションが登場しました。メインフレームのアプリケーションは500万個ではありませんでした。500万個のワークステーション用アプリケーションがあったわけではありません。PCのアプリケーションは500万個もありませんでした。そして、素晴らしいアプリケーションを開発し、一部はクラウド、一部はモバイルデバイスに展開し、アプリストアのおかげで配布するのが非常に簡単だったため、まったく同じことが今AIにも起こっているのです。

コンピュータの時代にはなかったことですが、ChatGPTという1つのコンピュータ・プラットフォームが、60~90日で1億5千万人に到達したのです。つまり、これは非常に驚くべきことなのです。そして、人々はそれを使ってあらゆるものを作り出しています。現在、新しい企業や新しいアプリケーションが続々と誕生しています。これはあらゆる意味で、新しいコンピューティングの時代であることに疑いの余地はありません。このように、私たちが説明し、表現したTAMは、今日、そして以前よりもさらに早く実現可能になっていると思います。

オペレーター

次の質問は、BernsteinのStacy Rasgonからお願いします。

ステイシー・ラスゴン

コレットさんに対して、説明と質問の両方があります。明確化というのは、H-100の収益がA-100より高いとおっしゃいましたね。これは全体的な話でしょうか?それとも、2四半期分の出荷の後など、同じ時点での話ですか?

それから、実際の質問です。自動車、特にメルセデスの機会についてお伺いしたいと思います。メルセデスは今日イベントを行い、MBドライブのソフトウェア収益について、10年代半ばには1桁あるいは10億ユーロ前半、10年代の終わりには10億ユーロ半ばになる可能性があると話していました。このソフトウエアの売上は半々ということですが、これはどの程度の規模なのでしょうか。メルセデスとの契約によるソフトウェア収入の規模は、あなた方が考えているような、同じような時間軸での規模になるのでしょうか?そのようにモデル化すべきでしょうか。

コレット・クレス

そうですね。ステイシー、ご質問ありがとうございます。まず、H-100とA100についてのご質問からお伺いします。H-100は、第3四半期に初期出荷を開始しました。素晴らしいスタートでした。多くの企業は、そのプロセスを何四半期も前に開始していました。そしてこれは、第3四半期に生産レベルを確保するための時間でした。そのため、第4四半期は、H-100の素晴らしい立ち上げを見ることができる重要な時期でした。つまり、H-100は第4四半期に多くのCSPが注目し、クラウドインスタンスで稼働させたいと考えていたということです。そのため、第4四半期には、H-100で見られたような大きな金額のA100はあまり見られませんでした。今後も両アーキテクチャの販売を継続する予定ですが、第4四半期は、H-100の好調な四半期となりました。

メルセデス・ベンツに関する追加質問です。ベンツとの共同開発については、非常に満足しています。市場投入の準備については、非常に熱心に取り組んでいます。そして、あなたの言うとおりです。彼らはソフトウェアの機会について話してくれました。Driveでできること、Connectでできること、2つのフェーズでソフトウェアの機会について話してくれました。彼らは、目の前にあるビジネスチャンスを見ながら、おそらく10年程度のポジションまで拡張しました。ですから、私たちが長期的なパートナーとして考えていることと一致しますし、長期的に収益を共有することができます。

ジェンセン・ホァン

ステイシー、メルセデスがやっていることの賢明さについて一言付け加えましょう。メルセデスは大規模なラグジュアリーブランドで唯一、すべての -- エントリーカーから最高級車まで、すべての車に豊富なセンサーセットとAIスーパーコンピューターを搭載しています。もし、今走っているメルセデスの全車両が完全にプログラム可能で、OTAが可能だとしたら、どのようなものになるのか想像してみてください。これがOlaのビジョンです。そして、そのために彼らが構築しているものは、並外れたものになると思います。高級車の大規模なインストールベースは、顧客の利益のために、そして収益を生み出すために更新され続けるでしょう。

オペレーター

次の質問は、ジェフリーズのマーク・リパシスからです。

マーク・リパチス

ジェンセンさんにとって、毎年新しいワークロードが登場し、御社のプロセスやエコシステムのサイクルに需要をもたらしているように思います。顔認識、推薦エンジン、自然言語処理、Omniverse、そして現在のジェネレーティブAIエンジンのことを思い出すと、あなたの考えを聞かせてください。これは、御社の製品に次のレベルの需要をもたらす、まったく新しいワークロードのようなものでしょうか?

なぜこのような質問をしたかというと、あなたの原稿の中で、ジェネレーティブAIが御社の製品やサービスにもたらす需要についてのあなたの見解が、過去90日間にあなたが考えていたよりもずっと良いようだと述べているのが興味深かったからです。そこで -- 次のレベルの需要を促進できるような新しいワークロードや新しいアプリケーションに取り組んでいるのであれば、今日見ているものを超えてそれを促進できると思われるものについて、少し教えていただけませんか?

ジェンセン・ホァン

マーク、ご質問ありがとうございます。まず、みなさんが知らないような新しいアプリケーションや、これまで共有したことのない新しいワークロードを、GTCでみなさんと共有したいと思っています。GTCに来れば、私たちが話すアプリケーションにとても驚き、そしてとても喜んでいただけると思います。

さて、常に新しいアプリケーションの話を聞くことができるのには、理由があります。その理由は、第一に、NVIDIA はマルチドメインアクセラレーションコンピューティングプラットフォームであることです。CPUのように完全に汎用というわけではありません。CPUは95%、98%が制御機能で、数学は2%しかありませんから、完全にフレキシブルなのです。私たちはそのようなことはありません。CPUのように完全に汎用というわけではありません。CPUの95%、98%が制御機能で、2%が演算機能です。しかし、私たちはマルチドメインです。私たちは粒子システムもできますし、流体もできます。流体もできます。ニューロンもできます。コンピュータグラフィックスもできます。コンピュータグラフィックスもできる。あらゆる種類のアプリケーションを加速させることができるのです。

2つ目は、我々のインストールベースが非常に大きいことです。これは唯一の加速コンピューティング・プラットフォームで、唯一のプラットフォームです。文字通り、PCからワークステーション、ゲーマー、自動車、オンプレミスまで、あらゆるクラウドにアーキテクチャ上の互換性がある唯一のものです。つまり、何か特別なものを開発する開発者は、そのリーチが気に入り、私たちのプラットフォームを探し求めるのです。その理由は、汎用性の高さです。第一に、加速性が好まれます。プログラミングツールのエコシステムと使いやすさ、そして、手を差し伸べられる人がたくさんいることも気に入っているようです。世界中に何百万人ものCUDAのエキスパートがおり、ソフトウェアもツールもすべて高速化されています。そして、非常に重要なのは、そのリーチです。ソフトウェアを開発した後に、多くのユーザーにアプローチできるという事実が気に入っているようです。これが、新しいアプリケーションを引き寄せ続けている理由です。

そして最後に、これは非常に重要なポイントです。CPUのコンピューティングの進歩のスピードがものすごく遅くなったことを忘れてはいけません。私のキャリアの最初の30年間は、5年ごとにほぼ同じパワーで性能が10倍になり、その後5年ごとに10倍になったのですが。その継続的な進歩の速度が遅くなったのです。まだ、世の中に出したいと思っているアプリケーションがたくさんあるのに、電力が上がり続けている現状では、それを実現する余裕がないのです。誰もがサステイナブルである必要があります。電力を消費し続けることはできません。高速化することで、どんなワークロードでも消費電力を減らすことができます。このように、さまざまな理由から、人々は加速コンピューティングを利用するようになり、私たちは新しいエキサイティングなアプリケーションを発見し続けているのです。

オペレーター

次の質問は、シティのアティフ・マリクさんからです。

アティフ・マリク

コレット、データセンターについて質問します。1月期は建設計画に若干の弱さが見られましたが、4月から通年では前年比で加速するとのことですね。加速の確信度をランキング形式で教えてください。それは、H-100の立ち上がり、ジェネレーティブAIの売上、新しいAIサービスモデルのどれに基づいているのでしょうか?また、企業向け製品についてお聞かせください。

コレット・クレス

ご質問ありがとうございます。第1四半期は前四半期比で成長し、第1四半期は前年同期比でも成長すると考えています。今後、この傾向はさらに加速すると思われます。その原動力は何だと考えていますか?はい、複数の製品サイクルが市場に投入されています。現在、H-100が市場に出ています。また、GPUコンピューティングやネットワーキングを活用した新製品も継続的に投入しています。さらに、今年の後半にはグレードが登場する予定です。さらに、ジェネレーティブAIは、CSPや企業、スタートアップ企業など、当社のお客様の間で大きな関心を呼んでいます。今年の収益増加の一翼を担うと期待しています。最後に、ムーアの法則の終焉を考えると、AIや加速度的な継続にフォーカスすることは誤りであることを忘れてはなりません。経済が良くなればなるほど、これはおそらく企業にとって非常に重要なことで、企業にとってクラウドファーストの存在によって、[無分別]に促進される可能性があるわけです。それでは、Jensenから何か補足がないか聞いてみたいと思います。

ジェンセン・ホァン

いや、よくやった。素晴らしいです。

司会

最後の質問はモルガンスタンレーのジョセフ・ムーアからです。

ジョセフ・ムーア

ジェンセン、あなたは過去10年間にこれらのモデルを訓練する能力を100万倍向上させたという話をしましたね。また、大規模な言語モデルを使用しているお客様の中には、そのような時間枠の中で100倍の複雑さについて話している方もいらっしゃいますが、今後数年間でどのようなものになるのか、そのあたりについても教えてください。Hopperがトランスフォーマーの性能を6倍向上させたことは知っています。しかし、それをスケールアップするために何ができるのでしょうか?また、この先、より大きなハードウェアの出費になることをどの程度反映しているのでしょうか?

ジェンセン・フアン

まず、後ろ向きから。私は、AIインフラの数は世界中で増えていくと考えています。その理由は、AI、つまり知能の生産が製造業になっていくからです。かつては物理的なモノだけを製造する時代がありました。これからは、--ほとんどすべての企業がソフトグッズを製造するようになるでしょう。それがたまたまインテリジェンスという形になるのです。データが入ってくる。データセンターが行うのは、まさに1つのこと、1つだけです。そのデータをもとに、新しいモデルを作り上げるのです。原材料が入ってきて、建物やインフラがそれを処理し、大きな価値を持つ洗練されたもの、改善されたものが出てくる、それが工場と呼ばれるものです。ですから、私は世界中にAI工場ができることを期待しています。その一部はクラウドでホストされるでしょう。オンプレミスのものもあるでしょう。大規模なものもあれば、メガ・サイズのものもあり、さらに小規模なものもあるでしょう。ですから、私はそうなることを十分に期待しています。

次に、2つ目。今後10年の間に、新しいチップ、新しいインターコネクト、新しいシステム、新しいオペレーティングシステム、新しい分散コンピューティングアルゴリズム、新しいAIアルゴリズム、そして新しいモデルを考え出す開発者とともに、AIをさらに100万倍加速させたいと考えています。NVIDIAが単なるチップ企業でない理由の1つは、私たちが解決しようとしている問題があまりにも複雑であるためです。チップからデータセンター、ネットワーク、ソフトウェアに至るまで、スタック全体で考えなければならないのです。そして、1つの企業の頭の中で、そのスタック全体を考えることができるのです。そのため、コンピュータ科学者にとって、スタック全体を横断してイノベーションを起こすことができる、非常に素晴らしい遊び場なのです。ですから、私が期待するのは、今後10年間に次の会社、AIプラットフォームで、AIモデルにおける本当に巨大なブレークスルーを見ることになるということです。しかし同時に、これの驚異的な成長と採用のため、これらのAI工場がいたるところで見られるようになるでしょう。

運営担当者

以上でQ&Aセッションを終了します。それでは、ジェンセン・フアン氏に電話を戻し、締めのご挨拶をお願いします。

ジェンセン・フアン

ありがとうございました。トランスフォーマー、大規模言語モデル、そしてジェネレーティブAIによるブレークスルーの積み重ねが、AIの能力と汎用性を驚くべきレベルまで高めています。新しいコンピューティングプラットフォームが出現したのです。新しい企業、新しいアプリケーション、長年の課題に対する新しいソリューションが、驚異的なスピードで生み出されています。ほぼすべての業界の企業が、自社の製品やビジネスを再構築するために、ジェネレーティブAIを適用しようと活性化しています。すでに高かったAIをめぐる活動のレベルが、大きく加速しているのです。これは、私たちが10年以上かけて目指してきた瞬間です。そして、私たちは準備が整っています。新しいトランスフォーマーエンジンとQuantum InfiniBandファブリックを搭載した当社のHopper AIスーパーコンピューターはフル稼働しており、CSPはHopperクラウドサービスのオープンに向けて競っているところです。当社のGPUに対する旺盛な需要に応えるべく、今年一杯は成長を加速させたいと考えています。

今度のGTCをお見逃しなく。新しいチップ、システム、ソフトウェア、新しい CUDA アプリケーションと顧客、新しいエコシステム・パートナー、そして NVIDIA AI と Omniverse に関することなど、お伝えしたいことがたくさんあります。これまでで最高のGTCになることでしょう。それでは、会場でお会いしましょう。

運営担当者

これにて本日のカンファレンスは終了です。これより接続を解除してください。

ここから先は

0字

¥ 200

この記事が気に入ったらサポートをしてみませんか?