Nvidia (NVDA) Q2 2024 Earnings Call Transcript

NVDAの2023年6月期決算説明会。
エヌビディア 
2024年第2四半期決算電話会議
2023年8月23日午後5時00分(米国東部時間

内容
コメント
質疑応答
コール参加者
準備書面

オペレーター

こんにちは。オペレーターのデビッドと申します。本日はエヌビディアの第2四半期決算説明会にようこそお越しくださいました。本日の会議は録音されています。

バックグラウンド・ノイズを防ぐため、すべての回線をミュートにしています。ご発言の後、質疑応答となります。[ありがとうございます。シモーナ・ヤンコウスキーさん、会見を始めてください。

シモーナ・ヤンコフスキー -- 投資家対応担当副社長

ありがとうございます。2024年度第2四半期に関するエヌビディアの電話会議にようこそ。本日、エヌビディアからは、社長兼最高経営責任者(CEO)のジェンセン・フアン、執行副社長兼最高財務責任者(CFO)のコレット・クレスが出席しています。本日の電話会議は、エヌビディアの投資家向けウェブサイトにてライブ中継されます。

このウェブキャストは、2024年度第3四半期の業績に関する電話会議まで再生可能です。本日の電話会議の内容はエヌビディアの財産です。当社の事前の書面による同意なしに複製または転写することはできません。この電話会議では、現在の予想に基づく将来の見通しに関する記述を行う場合があります。

エヌビディアより好きな10銘柄
当社のアナリスト・チームが銘柄情報を提供する際には、耳を傾けることをお勧めします。彼らが10年以上にわたって発行しているニュースレター「Motley Fool Stock Advisor」は、市場を3倍にしてきました*。

その彼らが、投資家が今買うべきベスト10銘柄を発表した!その通り、彼らはこの10銘柄がさらに買いだと考えている。

10銘柄を見る

*2023年8月21日現在のストック・アドバイザー・リターン

これらは多くの重大なリスクと不確実性の影響を受けるため、実際の業績は大きく異なる可能性があります。当社の将来の業績および事業に影響を与えうる要因については、本日の決算発表資料、当社の最新のForm 10-KおよびForm 10-Q、ならびに当社が米国証券取引委員会にForm 8-Kで提出する可能性のある報告書の開示をご参照ください。当社のすべての記述は、本日2023年8月23日現在、当社が現在入手可能な情報に基づいて作成されています。法律で義務付けられている場合を除き、当社はかかる記述を更新する義務を負いません。

本通話では、非GAAPベースの財務指標について説明します。これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整については、当社のウェブサイトに掲載されているCFOコメンタリーをご覧ください。それでは、コレットに電話を回します。

コレット・クレス -- エグゼクティブ・バイスプレジデント、最高財務責任者

ありがとう、シモーナ。素晴らしい四半期でした。第2四半期の売上高は過去最高の135億1,000万ドルで、前四半期比88%増、前年同期比101%増となり、見通しの110億ドルを上回りました。まずデータセンターからご説明します。

過去最高の売上高となった 103 億 2,000 万ユーロは、前四半期比 141%増、前年同期比 171%増となりました。データセンターのコンピュート収入は、主にクラウドサービスプロバイダーや大手消費者インターネット企業による、当社のHGXプラットフォーム(生成および大規模言語モデルのエンジン)に対するクラウド需要の加速により、前年比約3倍に増加しました。AWS、Google Cloud、Meta、Microsoft Azure、Oracle Cloudなどの大手企業や、GPUクラウドプロバイダーの多くが、当社のHopperおよびAmpereアーキテクチャのテンソルコアGPUをベースにしたインボリュームHGXシステムを導入しています。AIのゴールドスタンダードであるエンドツーエンドのInfiniBandネットワーキングプラットフォームが牽引し、ネットワーキングの収益は前年比でほぼ倍増しました。

エヌビディアのアクセラレーション・コンピューティングとAIプラットフォームに対する需要は非常に大きい。当社のサプライ・パートナーは、当社のニーズをサポートするため、並外れた能力増強を行ってきました。35,000の部品と非常に複雑なネットワーキングを持つHGXを含む当社のデータセンター・サプライチェーンは、過去10年にわたって構築されてきました。また、共同パッケージングなど、製造工程における重要なステップのための追加能力およびサプライヤーを開発し、認定してきました。

来年まで、四半期ごとに供給が増加すると予想しています。地域別では、顧客が設備投資をAIやアクセラレーション・コンピューティングに向けるなか、データセンターの成長は米国で最も強かった。中国の需要は、コンピュートとネットワーキングのソリューションを含め、当社のデータセンター収益の20%から25%という過去の範囲内に収まっています。

この際、当社の中国向け輸出に対する規制強化の可能性に関する最近の報道について、少し述べさせてください。現在の規制は意図した結果を達成していると考えています。当社の製品に対する世界的な需要の強さを考えると、当社のデータセンター向けGPUに対する追加的な輸出規制が採用されたとしても、当社の業績に直ちに重大な影響を与えるとは考えていません。しかし、長期的には、当社のデータセンター向けGPUの中国への販売を禁止する規制が実施された場合、米国業界が競争しリードする機会を永久に失うことになります。

世界最大級の市場で競争しリードする機会を永久に失うことになります。当社のクラウドサービスプロバイダーは、アクセラレーテッドコンピューティングとAIの新時代に向けてデータセンターインフラをアップグレードする世代交代を進めており、当四半期はHGXシステムに対する非常に強い需要を牽引しました。NVIDIA HGXプラットフォームは、シリコン、システム、相互接続、ネットワーキング、ソフトウェア、アルゴリズムにわたる約20年にわたるフルスタックのイノベーションの集大成です。NVIDIA H100テンソルコアGPUを搭載したインスタンスは現在、AWS、Microsoft Azure、およびいくつかのGPUクラウドプロバイダーで一般に利用可能であり、他のプロバイダーも間もなく利用可能になります。

消費者インターネット企業もまた、非常に強い需要を牽引しました。AI向けに構築されたデータセンター・インフラへの投資は、すでに大きな利益を生み出している。例えば、Meta社は最近、リールとAIレコメンデーションを開始して以来、Instagramの利用時間が24%以上増加したことを明らかにした。企業もまた、ジェネレーティブAIの導入を急いでおり、クラウドにおけるNvidia搭載インスタンスの強力な消費と、オンプレミス・インフラストラクチャの需要を促進しています。

クラウドでもオンプレミスでも、パートナー経由でも直接でも、当社のアクセラレーション・ライブラリ、事前学習済みモデル、およびAPIを利用することで、お客様のアプリケーションはNvidia AI Enterpriseソフトウェア上でシームレスに実行できます。当社はSnowflakeとの提携を発表し、企業が独自のデータを使用してカスタマイズされたジェネレーティブAIアプリケーションを作成するための加速パスを、すべてSnowflakeデータクラウド内で安全に提供します。大規模な言語モデルを開発するためのNVIDIA NeMoプラットフォームにより、企業はチャットボット、検索、要約などの高度なAIサービスのためのカスタムLLMをスノーフレークのデータクラウドからすぐに作成できるようになります。事実上、あらゆる業界がジェネレーティブAIの恩恵を受けることができる。

例えば、マイクロソフトが発表したばかりのようなAIコパイロットは、10億人以上のオフィスワーカーや数千万人のソフトウェアエンジニアの生産性を高めることができる。法律サービス、営業、カスタマーサポート、教育などの分野では、何百万人もの専門家が、それぞれの分野で訓練されたAIシステムを活用できるようになるだろう。そして、副操縦士やアシスタントは、我々の顧客にとって数千億ドル規模の新たな市場機会を創出することになる。私たちは、マーケティング、メディア、エンターテインメントにおいて、ジェネレーティブAIの最も早い段階での応用を目の当たりにしている。

世界最大のマーケティング・コミュニケーション・サービス企業であるWPPは、アーティストやデザイナーがジェネレーティブAIを3Dコンテンツ制作に統合できるよう、Nvidia Omniverseを使用したコンテンツエンジンを開発している。WPPのデザイナーは、ビジュアルデザイン用のカスタムジェネレーティブAIモデルのファウンドリであるNVIDIA Picassoを使用して、AdobeやGetty ImagesなどのNvidiaパートナーのジェネレーティブAIツールやコンテンツを責任を持ってトレーニングしながら、テキストプロンプトから画像を作成することができます。ビジュアルコンテンツプロバイダーであるShutterstockも、NVIDIA Picassoを使用して、ユーザーがジェネレーティブAIの助けを借りて3Dシーンの背景を作成できるツールやサービスを構築しています。当社は、ServiceNowおよびAccentureと提携してAI Lighthouseプログラムを立ち上げ、エンタープライズAI機能の開発を迅速に進めています。

AIライトハウスは、ServiceNowのエンタープライズ・オートメーション・プラットフォームとエンジンを、Nvidiaのアクセラレーテッド・コンピューティングと、アクセンチュアのコンサルティングおよびデプロイメント・サービスと統合したものです。また、ハギング・フェイスとも協力し、企業向けの新しいカスタムAIモデルの作成を簡素化する。Hugging Faceは、NVIDIA DGX Cloudを利用した高度なAIモデルの訓練と調整を行う新しいサービスを企業向けに提供する予定です。VMwareとNvidiaは昨日、VMware Private AI Foundation with Nvidiaと呼ばれる大規模な新しいエンタープライズ向けサービスを発表しました。VMware Private AI Foundationは、NvidiaのAIソフトウェアと高速コンピューティングを搭載した完全統合プラットフォームで、VMwareを実行している企業向けのマルチクラウド・ソフトウェアです。

VMwareの数十万の企業顧客は、モデルをカスタマイズし、インテリジェントなチャットボット支援、検索、要約などの生成的AIアプリケーションを実行するために必要なインフラストラクチャ、AI、クラウド管理ソフトウェアにアクセスできるようになります。また、業界標準のデータセンター・サーバー・エコシステムとBlueField-3 DPUデータセンター・インフラストラクチャ・プロセッサ向けに構築された新しいNVIDIA L40S GPUを搭載した、新しいNVIDIA AIエンタープライズ対応サーバーも発表しました。L40Sは、生協の供給に制限されることなく、世界の主要なサーバー・システム・メーカーに出荷されている。L40Sは、AIのトレーニングと[聞き取れず]、3Dデザインとビジュアライゼーション、ビデオ処理、およびNVIDIA Omniverse産業デジタル化を含む、最も計算集約的なアプリケーションを高速化するために、大量データセンターのスケールアウト用に設計されたユニバーサル・データセンター・プロセッサーです。

NVIDIA AI Enterprise-readyサーバーは、VMware Cloud FoundationとPrivate AI Foundationに完全に最適化されています。NVIDIA AI Enterprise-readyサーバーの100近い構成が、Dell、HPE、Lenovoを含む世界の主要なエンタープライズITコンピューティング企業から間もなく提供される予定です。当社のArmベースのGrace CPUとHopper GPUを組み合わせたGrace Hopper Superchip GH200はフル生産に入り、OEMサーバーで今四半期中に利用可能になる予定です。また、ロスアラモス国立研究所やスイス国立計算センターなど、複数のスーパーコンピューティングの顧客にも出荷されています。

また、Nvidiaとソフトバンクは、ジェネレーティブAIと5G/6Gアプリケーション向けのGH200をベースとしたプラットフォームで協業している。最新のHBM GPUメモリを搭載したグレース・ホッパー・スーパーチップの第2世代バージョンは、2024年第2四半期に発売される予定です。当社は、巨大AI言語モデル、レコメンダー・システム、データ分析向けの新しいクラスの大容量メモリAIスーパーコンピュータであるDGX GH200を発表しました。これは、新しいNVIDIA NVLinkスイッチシステムを初めて採用したもので、256個のGrace Hopperスーパーチップを1つにして動作させることができます。

DGX GH200システムは年末までに利用可能になる見込みで、Google Cloud、Meta、Microsoftなどが最初にアクセスできるようになる。ネットワークの力強い成長は、主にHGX GPUシステムを接続するためのInfiniBandインフラによってもたらされた。InfiniBandは、そのエンドツーエンドの最適化とネットワーク内コンピューティング機能により、AI向けに従来のイーサネットの2倍以上のパフォーマンスを実現する。数十億ドル規模のAIインフラにとって、InfiniBandのスループット向上による価値は数億ドルに相当し、ネットワークに見合う対価を支払います。

さらに、InfiniBandだけが数十万のGPUに拡張できます。InfiniBandは、AIの第一線で活躍する研究者に選ばれているネットワークです。AIのパフォーマンスを最適化しようとするイーサネットベースのクラウドデータセンター向けに、AIワークロード向けにイーサネットを最適化するように設計された高速ネットワーキングプラットフォームであるNVIDIA Spectrum-Xを発表しました。Spectrum-Xは、イーサネットスイッチ用のスペクトラムとBlueField-3 DPUを組み合わせ、従来のイーサネットに対して1.5倍の総合的なAI性能と電力効率を実現します。

BlueField-3 DPUは大きな成功を収めています。BlueField-3 DPUは大成功を収め、大手OEMと契約し、複数のCSPやコンシューマー・インターネット企業で採用が進んでいる。さて、ゲームの話に移ります。ゲーム事業の売上高は 24.9 億ドルで、前四半期比 11%増、前年同期比 22%増となった。

ノートPCおよびデスクトップPC向けのGeForce RTX 40シリーズGPUが成長の原動力となり、顧客需要は堅調で季節性と一致していた。我々は、昨年の減速の後、世界の最終需要が成長に戻ったと考えている。我々のインストールベースのちょうど47%がRTXにアップグレードしており、約20%がRTX 3060以上の性能を持つGPUである。ノートPC向けGPUは、RTX 4060 GPUに牽引され、重要な新学期シーズンに力強い成長を記録した。

NvidiaのGPU搭載ノートPCは人気を博しており、その出荷台数は世界のいくつかの地域でデスクトップGPUを上回っている。これは、ノートPCの学校帰りや休日の製造スケジュールを反映し、第2四半期と第3四半期が今年の好調な四半期となることで、当社の全体的なゲーム収益の実態が再び変化する可能性があります。デスクトップでは、GeForce RTX 4060とGeForce RTX 4060 Ti GPUを発売し、エイダ・ラブレス・アーキテクチャを299ドルという低価格にまで引き下げました。RTXおよびDLSSゲームのエコシステムは拡大を続け、Diablo 4やBaldur's Gate 3などの大ヒットゲームを含む35の新しいゲームがDLSSサポートに追加されました。

現在、330以上のRTXアクセラレーションゲームとアプリがあります。私たちは、ゲームにジェネレーティブAIをもたらします。Computexでは、NVIDIA Avatar Cloud Engine [Inaudible] for gamesというカスタムAIモデルファウンドリーサービスを発表しました。開発者は、このサービスを利用して、ノンプレイヤーのキャラクターに知性を持たせることができます。

このサービスには、NeMo RivaやAudio2Faceなど、NVIDIA OmniverseとAIの技術が活用されています。現在はプロフェッショナルなビジュアライゼーションに移行している。売上高は 3 億 7,500 万ドルで、前四半期比 28%増、前年同期比 24%減となった。エイダ・アーキテクチャの増強が第2四半期の力強い成長を牽引し、当初はラップトップ・ワークステーションで展開され、第3四半期にはデスクトップ・ワークステーションのリフレッシュが予定されている。

これらには、最大4つのNVIDIA RTX 6000 GPUを搭載し、5,800テラフロップス以上のAI性能と192ギガバイトのGPUメモリを提供する強力な新しいRTXシステムが含まれる。これらのシステムは、NVIDIA AI EnterpriseまたはNVIDIA Omniverse Enterpriseで構成することができます。また、エイダ世代をベースとした3つの新しいデスクトップワークステーションGPU、NVIDIA RTX 5000、4500、4000も発表し、前世代と比較して最大2倍のRTコアスループットと最大2倍高速のAIトレーニング性能を提供します。3Dデザインやコンテンツ作成といった従来のワークロードに加え、新しいワークロードやジェネレーティブAI、大規模言語モデル開発、データサイエンスが、当社のRTXテクノロジーのプロビジュアライゼーションにおける可能性を広げています。

今月初めのSIGGRAPHにおけるジェンセンの基調講演の主要テーマの1つは、グラフィックスとAIの融合でした。NVIDIA Omniverseの位置づけはここにあります。OmniverseはOpenUSDデータプラットフォームである。OpenUSDは、HTMLが2Dコンテンツの世界共通言語であるのと同じように、3D世界の標準となりつつあるユニバーサル・インターチェンジだ。

Adobe、Apple、Autodesk、Pixar、Nvidiaは、OpenUSDのためのアライアンスを結成しました。我々のミッションは、OpenUSDの開発と普及を加速させることです。私たちは、OpenUSDワークロードにジェネレーティブAIをもたらすRunUSDやChatUSDを含む、新しい、そして今後のOmniverse Cloud APIを発表しました。自動車業界へ

売上高は2億5,300万ドルで、前四半期比15%減、前年同期比15%増となりました。前年同期比で堅調な伸びを示したのは、多くの新エネルギー車メーカーとのエヌビディア・ドライブ・オリンSoCをベースとした自動運転プラットフォームの立ち上がりによるものです。前四半期比の減少は、特に中国における自動車需要全体の減少を反映している。エヌビディアはメディアテックとの提携を発表し、ドライバーと乗客に車内で新たな体験を提供する。

メディアテックは車載用SoCを開発し、エヌビディアGPUチップセットの新製品ラインを統合する。このパートナーシップは、高級車からエントリーレベルまで幅広い車種セグメントをカバーしています。損益計算書の残りの部分に移る。GAAPベースの粗利益率は70.1%に、非GAAPベースの粗利益率は71.2%に拡大しました。

当社のデータセンター向け製品には大量のソフトウェアと複雑性が含まれており、このことも粗利率を押し上げる要因となっています。前期のGAAPベースの営業費用は6%増、非GAAPベースの営業費用は主に報酬と手当の増加を反映して5%増となりました。当社は自社株買いおよび現金配当の形で約34億円を株主に還元しました。取締役会は、第2四半期末時点で残っている40億株の買い戻しに加え、さらに250億株の買い戻しを承認したばかりです。

次に、2024年度第3四半期の見通しについてご説明します。当社のAI向けデータセンター・プラットフォームに対する需要は非常に大きく、業種や顧客を問わず幅広いものとなっています。当社の需要見通しは来年まで続きます。今後数四半期にわたる当社の供給は、サイクルタイムを短縮し、供給パートナーと協力して生産能力を増強するため、引き続き増加するでしょう。

さらに、新しいL40S GPUは、クラウドからエンタープライズまで、多くの種類のワークロードに対する需要の高まりに対応するのに役立つでしょう。第3四半期の総収益は160億ドル、プラスマイナス2%を見込んでいる。前四半期比の伸びは、主にデータセンターが牽引し、ゲーミングとプロビジスも貢献すると予想している。GAAPベースの売上総利益率は71.5%、非GAAPベースの売上総利益率は72.5%、プラスマイナス50bpを見込んでいる。GAAP基準の営業費用は約29億5,000万円、非GAAP基準の営業費用は約20億円を見込んでいます。

GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資からの損益を除き、約1億円の収益となる見込みです。GAAPおよび非GAAPベースの税率は、個別項目を除き、プラスマイナス1%の14.5%を見込んでいる。財務の詳細については、CFOのコメントおよびIRウェブサイトでご覧いただけるその他の情報をご参照ください。最後に、金融業界向けの今後のイベントをいくつかご紹介します。

当社は、8月30日にシカゴで開催されるジェフリーズ・テック・サミット、9月5日にサンフランシスコで開催されるゴールドマン・サックス・テック・カンファレンス、9月6日にエバーコア・セミコンダクター・カンファレンス、9月10日にニューヨークで開催されるシティ・テック・カンファレンス、9月11日にBofAバーチャルAIカンファレンスに参加します。2024年度第3四半期の業績に関する決算説明会を11月21日(火)に予定しております。オペレーター、質問を受け付けます。質問をお願いします。ありがとうございます。

質疑応答

オペレーター

ありがとうございます。[最初のご質問はTDコーウェンのマット・ラムジーさんからお願いします。お待たせしました。

マット・ラムジー -- TDコーウェン -- アナリスト

はい、ありがとうございます。こんにちは。素晴らしい結果ですね。ジェンセン、ラージモデル推論の応用が急速に進んでいることについて質問したいのですが。

投資家の大半は、御社がトレーニング市場で圧倒的なシェアを持っていることをよく理解していると思います。小規模な市場 -- 小規模なモデル推論のワークロードの多くは、これまでASICやCPUで行われてきました。しかし、GPTやその他の大規模モデルの多くでは、大規模モデルの推論を超高速で行う新しいワークロードが登場しています。グレース・ホッパー・スーパーチップやその他の製品は、そのような用途に適していると思います。しかし、小規模モデル推論と大規模モデル推論の間の推論市場セグメントをどのように見ているのか、また、御社の製品ポートフォリオがそれに対してどのように位置づけられているのか、お聞かせいただけますか?ありがとうございます。

ジェンセン・ファン -- プレジデント兼CEO

ありがとうございます。では、少し話を戻しましょう。この大規模言語モデルはかなり驚異的です。もちろん、いくつかのことができます。

非構造化言語を理解する能力があります。しかし、その中核にあるのは、人間の言語の構造を学習したことであり、学習したコーパスによって学習した大量の人間の知識をエンコードし、圧縮したものなのです。このような大規模な言語モデルを作成し、できる限り大規模なモデルを作成し、そこからさらに小さなバージョンのモデル、つまり基本的にはteach-your-studentモデルを導き出す。これは蒸留と呼ばれるプロセスです。そして......だから、これらの小さな......小さなモデルを見るとき、それは大きなモデルから派生したり、蒸留されたり、学んだりしたものである可能性が非常に高い。

教授や教師、学生などがいるのと同じです。ですから、非常に大きなモデルから始めて、それを構築する必要があります......それは大量の一般性と汎化、そして......ゼロショット能力と呼ばれるものを持っています。そのため、特別にトレーニングしていない多くのアプリケーションや質問、スキルに対して、これらの大規模な言語モデルは、奇跡的にそれらを実行する能力を持っています。それこそが魔法のようなものなのだ。その一方で、あなたは......あなたは......このような能力とあらゆる種類のコンピューティング・デバイスを持ちたいと思うでしょう。

それで、どうするかというと、それらを絞り込むんだ。これらの小型モデルは、特定のスキルにおいては優れた能力を持つかもしれないが、汎用性はそれほど高くない。いわゆる優れたゼロシュート能力は持っていない。しかし、あなたは非常に大きなモデルから始めるのです。

運営者

では次に、BofA証券のヴィヴェック・アリヤさんにお願いします。お電話をお待ちしております。

ヴィヴェク・アーリャ -- バンク・オブ・アメリカ・メリルリンチ -- アナリスト

ありがとうございます。質問についてちょっと確認したいことがあります。コレット、来年はどれくらい供給が増えると予想していますか?20%、30%、40%、50%といったところでしょうか?四半期ごとに供給が伸びているとのことですが、どの程度なのでしょうか?それからジェンセン、あなたへの質問ですが、ハイパースケーラ全体の支出を見ると、そのパイはそれほど大きくなっていません。では、ハイパースケーラがジェネレーティブAIのためのパイをさらに拡大し続けられると確信できる根拠は何でしょうか。また、今後1~2年を見通したときに、この需要がどの程度持続可能なものなのか、あなたの感覚をお聞かせください。

第3四半期のデータセンターの見通しが120億台、130億台ということですが、これはすでにAIアクセラレーションが導入されたサーバーの台数を示しているのでしょうか?それはどこに向かっているのでしょうか?つまり、あなたが見ている成長が今後1~2年持続可能であるという確信を私たちに与えてください。

コレット・クレス -- エグゼクティブ・バイスプレジデント、最高財務責任者

供給に関するご質問ありがとうございます。はい、私たちは次の四半期も、そして来年度も、引き続き供給量を増やしていく予定です。パーセンテージについては、私たちが把握しているものではありません。HGXの他にも多くの新製品が市場に投入される予定です。しかし、私たちはサプライヤーとのサポートにも、サプライヤーの供給改善に費やした長い時間にも非常に満足しています。

ジェンセン・フアン -- プレジデント兼CEO

世界には、クラウドや企業向けなど、約1兆ドル相当のデータセンターが設置されています。そして、この1兆ドル規模のデータセンターは、アクセラレーテッド・コンピューティングとジェネレーティブAIに移行する過程にあります。私たちは2つのプラットフォームの移行を同時に目にしています。1つはアクセラレーテッド・コンピューティングで、その理由は、それが現在最もコスト効率が高く、エネルギー効率が高く、パフォーマンスが高いコンピューティング方法だからです。そして......つまり、あなたが目にしているのは......ジェネレーティブAIによって突然可能になった......加速コンピューティングによって可能になったジェネレーティブAIが登場したのです。そしてこの驚くべきアプリケーションは今、すべての人に2つの移行する理由を与えている。汎用コンピューティング、つまり古典的なコンピューティングのやり方から、この新しいコンピューティングのやり方、アクセラレーテッド・コンピューティングへのプラットフォーム・シフトを行うのだ。

データセンターには、毎年1兆ドル相当の設備投資が行われています。世界中のデータセンターはその設備投資を、今日のコンピューティングの2つの最も重要なトレンド、アクセラレーテッド・コンピューティングとジェネレーティブAIに集中させています。ですから、これは短期的なことではありません。これは長期的な業界の移行であり、この2つのプラットフォームのシフトが同時に起こっているのです。

オペレーター

次はバーンスタイン・リサーチのステイシー・ラスゴンです。お待たせしました。

ステイシー・ラスゴン -- アライアンス・バーンスタイン -- アナリスト

こんにちは。私の質問に答えてくれてありがとう。コレットさん、今四半期のデータセンターはどの程度なのか、ガイダンスの内容も含めて、システム対GPU、例えばDGX対H100のようなものを教えていただけないでしょうか。私が本当に知りたいのは、価格設定やコンテンツ、あるいはどのように定義するかは別として、実際に今後の成長を牽引するのはユニットに対してどの程度なのかということです。そのあたりをお聞かせください。

コレット・クレス -- エグゼクティブ・バイスプレジデント、最高財務責任者

もちろんです、ステイシー。お手伝いしましょう。当四半期において、当社のHGXシステムはデータセンターおよびデータセンターの成長において非常に重要な役割を果たしました。これらのシステムには、HopperアーキテクチャのHGXだけでなく、Ampereアーキテクチャも含まれています。

この2つのアーキテクチャは現在も市場で販売されています。さて、このことを考えると、システムという単位が非常に大きく成長していることが、収益増加の原動力になっていることがわかります。つまり、この2つがデータセンターにおける収益の原動力となっているのです。DGXは常に、追加で販売するシステムの一部です。DGXは、企業のお客様や、消費者向けインターネット企業にも見られるようなさまざまなタイプのお客様にとって大きなチャンスです。DGXと一緒に販売するソフトウェアも重要ですが、これは販売の一部です。その他のGPUについては、L40Sという新しいGPUが市場に投入され、今後も継続的な成長が見込まれます。

しかし、繰り返しになりますが、前四半期の収益の最大の原動力は、間違いなくHGXシステムでした。

ジェンセン・ファン -- プレジデント兼CEO

それからステイシー、ちょっと補足させてください。H100とおっしゃいましたが、H100は3万5,000個の部品、70ポンド(約8.5kg)の重さ、1兆個近いトランジスタを組み合わせています。スーパーコンピューターのテストにはスーパーコンピューターが必要だ。このように、これらはテクノロジーの驚異であり、その製造には多大な労力を要する。H100はHGXと呼ばれ、世界のハイパースケーラであり、本当に非常に大きなシステム・コンポーネントなのです。

オペレーター

次に、ジェフリーズのマーク・リパシスにお願いします。お待たせしました。

マーク・リパシス -- ジェフリーズ -- アナリスト

私の質問にお答えいただきありがとうございます。Jensenさん、市場での成功の鍵は、チップやハードウェア・プラットフォームとともにソフトウェア・エコシステムを提供することにあるようですね。これについては2つの質問があります。ソフトウェア・エコシステムの進化、重要な要素について教えてください。

また、この次元でのリードを定量化する方法はあるのでしょうか。それから、その2ですが、エヌビディア・プラットフォームの価値のうち、ハードウェアの差別化とソフトウェアの差別化の割合について、あなたの見解をお聞かせいただけないでしょうか。ありがとうございます。

ジェンセン・フアン -- プレジデント兼最高経営責任者

マーク、ご質問ありがとうございます。いくつかの指標を使わせてください。AIエンタープライズのランタイムスコアがあります。これは我々のソフトウェア・スタックの一部です。

データ処理から、好きなフレームワークで好きなモデルのトレーニング、推論、そしてデプロイメント、データセンターへのスケールアウト、ハイパースケールデータセンターへのスケールアウト、エンタープライズデータセンターへのスケールアウト、例えばVMware上でのスケールアウトまで、機械学習のエンドツーエンドにほぼすべての企業が使用しているランタイムです。当社のGPUならどれでも可能です。私たちは、フィールドに数億のGPUを、クラウドに数百万のGPUを、あらゆるクラウドに展開しています。シングルGPU構成でも、コンピュートやマルチノードごとのマルチGPU構成でも実行できます。また、GPUごとに複数のセッションや複数のコンピューティング・インスタンスがあります。

つまり、GPUごとのマルチインスタンスから、マルチGPU、マルチノード、データセンター全体のスケールまで対応できるのです。NVIDIA AI Enterpriseと呼ばれるこのランタイムには、4,500のソフトウェアパッケージやソフトウェアライブラリがあり、互いに10,000の依存関係があります。そして、このランタイムは......申し上げたように、継続的に更新され、我々のスタックのインストールベース向けに最適化されています。これは、アクセラレーテッド・コンピューティングを実現するために必要なことのほんの一例に過ぎず、コードの組み合わせやアプリケーションの種類の組み合わせは、実に膨大な数になる。

そして、ここにたどり着くまでに20年かかった。 その第一は建築です。データ処理からトレーニング、推論、推論を行う前のデータの前処理、データの後処理、言語のトークン化など、今申し上げたようなことをすべて行うことができます。ワークフローの量は、トレーニングや推論よりもはるかに多い。とにかく、私たちはそこに焦点を当てます。

しかし、実際にこのようなコンピューティング・システムを使うとなると、非常に多くのアプリケーションが必要になります。そのため、我々のアーキテクチャを組み合わせることで、最も低い所有コストを実現することができるのです。その理由は、さまざまなものを高速化するからです。当社の2つ目の特徴は、インストール・ベースです。なぜすべてのソフトウェア開発者が私たちのプラットフォームに集まってくるのか、自問自答する必要があります。

その理由は、ソフトウェア開発者が大規模なインストール・ベースを求めているからで、それによって多くのエンドユーザーにリーチし、ビジネスを構築したり、投資に対するリターンを得たりすることができるからです。そして3つ目の特徴は、リーチである。私たちは今日、パブリック・クラウドとパブリック向けクラウドの両方でクラウドに参入していますが、それは私たちのプラットフォームを利用する顧客が非常に多いからです。CSPは喜んでクラウドにアップしています。レコメンダー・システムや検索エンジン、データ処理エンジンなどを開発し、トレーニングや推論に至るまで、内部で利用するために使ってくれています。私たちはクラウドに参入し、エンタープライズにも参入しました。

昨日、非常に大きな発表がありました。これを見ていただくだけでも価値があると思います。VMwareは世界のエンタープライズのオペレーティング・システムです。VMwareは世界のエンタープライズのオペレーティング・システムであり、私たちは数年前から協業しています。そして、リーチがもうひとつの理由です。

リーチがあるからこそ、世界中のシステムメーカーがエヌビディアのプラットフォームをシステムに搭載することを望んでいるのです。そのため、世界中のOEMメーカーやODMメーカーなどから、非常に幅広い販売網を獲得しています。そして最後に、私たちの規模と速度のおかげで、ソフトウェア、ハードウェア、ネットワーキング、コンピュートといった実に複雑なスタックを、さまざまな利用モデルやさまざまなコンピューティング環境のすべてにわたって維持することができました。そして、エンジニアリングの速度を加速させながら、これらすべてを実現することができました。今では2年ごとに新しいアーキテクチャを導入しているようなものです。

新しいアーキテクチャーや新製品を発表するのは、ちょうど半年に一度くらいです。このような特性があるため、エコシステムは私たちの上に企業やビジネスを構築することができるのです。ですから、これらを組み合わせることで、特別なものになるのです。

オペレーター

次はシティのアティフ・マリクです。お待たせしました。

アティフ・マリク -- シティ -- アナリスト

私の質問にお答えいただきありがとうございます。決算と見通しについて、ありがとうございます。コレット、クールオフ・リストについて質問があります。L40Sはどの程度供給不足を解消できるのでしょうか?また、この製品による収益性の増加や売上総利益の貢献について教えてください。

ありがとうございます。

ジェンセン・ファン -- 社長兼CEO

ええ、アティフ、私から......私から......お聞きします。L40 -- L40Sは本当に異なるタイプのアプリケーション用に設計されています。H100は、大規模な言語モデルや処理のために設計されています。ですから、L40Sの焦点はそこではありません。

L40Sの焦点は、モデルを微調整できること、つまり事前に訓練されたモデルを微調整できることであり、L40Sはそれを驚くほどうまくこなす。トランスフォーマー・エンジンを搭載している。パフォーマンスも高い。サーバーに複数のGPUを搭載できる。ハイパースケール・スケールアウト用に設計されているので、世界中のハイパースケールデータセンターにL40Sサーバーを設置するのは簡単です。

標準的なラック、標準的なサーバーに搭載されています。L40Sは、標準ラック、標準サーバーで構成されており、すべてが標準的であるため、設置が容易です。L40Sはまた、BlueField-3やVMwareとの協業、SnowflakeやServiceNow、その他多くのエンタープライズ・パートナーとの協業など、L40Sを取り巻くソフトウェア・スタックとともに、世界のエンタープライズITシステム向けに設計されています。HPE、デル、レノボ、その他20社ほどのシステム・メーカーが、約100種類の構成のエンタープライズ・サーバーを製造しており、ジェネレーティブAIを世界のエンタープライズに提供するために私たちと協力しています。そして、L40Sはまさに......異なる......異なるタイプのスケールアウトのために設計されています。もちろん、大規模な言語モデルです。

もちろんジェネレーティブAIですが、それとは異なるユースケースです。L40Sは素晴らしいスタートを切り、世界中の企業やハイパースケーラーがL40Sの導入を熱望しています。

オペレーター

では次に、モルガン・スタンレーのジョー・ムーアにお願いします。お電話がつながりました。

ジョー・ムーア -- モルガン・スタンレー -- アナリスト

はい。ありがとうございます。この数字について、私にとって驚くべきことは、まだ満たされていない需要の多さだと思います。貴社の顧客と話をすると、この数字と同様に、貴社は数四半期で収益を3倍以上に伸ばしました。

場合によっては、その何倍もの需要があるわけです。未達成の需要はどれくらいあると思いますか?また、来年まで見通しが立つとおっしゃいました。需給の均衡がいつ取れるか、見通しは立っていますか?

ジェンセン・ファン -- 社長兼CEO

ええ、今年から来年にかけての見通しは良好です。また、すでに大手CSPやデータセンター建設業者と次世代インフラを計画しています。需要について考える最も簡単な方法は、世界が汎用コンピューティングから高速コンピューティングに移行しつつあるということです。これが需要を考える最も簡単な方法です。

企業がスループットを向上させ、エネルギー効率を改善し、コスト効率を改善する最善の方法は、設備予算をアクセラレーテッド・コンピューティングとジェネレーティブAIに振り向けることです。そうすることで、CPUから多くのワークロードを切り離し、データセンターで利用可能なCPUを増やすことができるからだ。この転換点を認識し、移行の始まりを認識し、設備投資をアクセラレーテッド・コンピューティングとジェネレーティブAIに振り向ける。そして......つまり、これが私たちの前にある機会について考える最も簡単な方法でしょう。しかし、これは新しいコンピューティング・プラットフォームであり、新しいコンピューティングの移行であり、世界中のデータセンターがこれに対応し、広範にシフトしているのです。

オペレーター

では次に、ゴールドマン・サックスの針俊哉さんにお願いします。はい、どうぞ。

トシ・ハリ -- ゴールドマン・サックス -- アナリスト

ご質問ありがとうございます。コレットに1つ、それからジェンセンにもう1つ、簡単な説明をお願いします。コレットさん、前四半期では、データセンターの売上に占めるCSPの割合は約40%、コンシューマー・インターネットが30%、エンタープライズが30%とおっしゃっていたと思います。あなたの発言からすると、CSPとコンシューマー・インターネットの方が大きな割合を占めているように聞こえました。その点を明確に、あるいは確認していただけると非常に助かります。

それからジェンセン、あなたに質問です。AIの主要な実現者としてのあなたの立場、契約の幅広さ、顧客のプロジェクトに対するあなたの可視性を考えると、あなたの顧客が投資に対して妥当なリターンを生み出すのに十分なアプリケーションやユースケースがあるという確信がどの程度あるのか気になります。この質問をしたのは、今後数年間、御社の需要プロファイルが少し停滞するのではないかという懸念があるからです。今後、データセンター事業の持続的な拡大を支えるだけの広さと深さがあるのかどうか、気になるところです。ありがとうございました。

コレット・クレス -- エグゼクティブ・バイスプレジデント、最高財務責任者

データセンター・ビジネスにおける顧客のタイプに関するご質問をありがとうございました。当社のCSPは、第2四半期の売上高の50%強を占めており、次に多いのはコンシューマー・インターネット企業です。そして最後に、エンタープライズおよびハイパフォーマンス・コンピューティングがあります。

ジェンセン・フアン -- プレジデント兼最高経営責任者

トシ、将来について推測するのは気が引けるので、コンピュータサイエンスの第一原理からお答えします。それは......以前から認識されていることですが、汎用コンピューティングは汎用コンピューティングを強要するものではありません。汎用コンピューティングを大規模に使うことは、もはや前進するための最良の方法ではない。コストがかかりすぎるし、アプリケーションのパフォーマンスも遅すぎるでしょ?そしてついに、世界は新しい方法を手に入れた。アクセラレーテッド・コンピューティングだ。

そして、それをターボチャージさせたのがジェネレーティブAIだ。しかし、アクセラレーテッド・コンピューティングは、すでにデータセンターにあるあらゆる種類のアプリケーションに使うことができる。アクセラレーテッド・コンピューティングを使うことで、CPUの負荷が軽減され、コストとエネルギーが桁違いに節約でき、スループットも向上する。そして......それこそが、業界が真に応えていることなのです。

今後、データセンターに投資する最善の方法は、設備投資を汎用コンピューティングから転換し、ジェネレーティブAIとアクセラレーテッド・コンピューティングに集中させることだ。ジェネレーティブAIは、生産性を生み出す新しい方法、顧客に提供する新しいサービスを生み出す新しい方法を提供し、アクセラレーテッド・コンピューティングは、コスト削減と省電力に役立ちます。そして......アプリケーションの数は......そうですね、何トンもあり、たくさんの開発者、たくさんのアプリケーション、たくさんのライブラリがあります。導入の準備は整っている。ですから、世界中のデータセンターは、これこそがデータセンターにとってリソースを配置し、資本を投下する最善の方法だと認識していると思います。これは世界のクラウドにも言えることで、GPUに特化したクラウド・サービス・プロバイダーが続々と誕生しています。有名なところではCoreWeaveがあり、信じられないほどうまくいっています。

しかし、GPUのスペシャリストであるサービス・プロバイダーは、今や世界中に存在し、そして......彼らは皆同じことを認識しています。また、企業もそれを望んでいる。しかし、企業がそれを実現するためには、管理システム、オペレーティング・システム、セキュリティ、ソフトウェア--企業のソフトウェア定義データセンター・アプローチをサポートする必要があり、それがVMwareです。私たちはVMwareと数年にわたり協業し、VMwareがCPUの仮想化だけでなくGPUの仮想化、GPUの分散コンピューティング機能、高性能ネットワーキングのためのNVIDIAのBlueFieldをサポートできるようにしました。私たちが取り組んできたジェネレーティブAIライブラリはすべて、VMwareの販売部隊によって特別なSKUとして提供される予定です。この新しいSKUはVMware Private AI Foundationと呼ばれます。

そして...これは企業向けに可能にする新しいSKUとなる。HPE、デル、レノボが提供するL40Sベースの新しいサーバーと組み合わせることで、どんな企業でも最先端のAIデータセンターを持つことができ、ジェネレーティブAIを活用できるようになります。この質問に対する答えは、四半期ごとに何が起こるかを正確に予測するのは難しいと思います。しかし、プラットフォーム・シフトが起きているという傾向は、非常にはっきりしていると思います。

オペレーター

次はUBSのティモシー・アルクリです。ただいまより回線をお開けします。

ティム・アーキュリ -- UBS -- アナリスト

ありがとうございます。御社が出荷しているコンピュートに対するネットワーク・ソリューションの接続率についてお聞かせください。言い換えれば、コンピュートの半分はネットワーク・ソリューションと一緒に出荷されているのでしょうか、半分以上でしょうか、半分以下でしょうか。ありがとうございました。

ジェンセン・フアン -- プレジデント兼CEO

そうですね、逆算すると、GPUの割り当ての優先順位付けには使っていません。どのようなネットワーキングを使用するかは、お客様に決めていただいています。そして、非常に大規模なインフラを構築しているお客様にとっては、InfiniBandは、言い方は悪いですが、間違いないでしょう。その理由は、InfiniBandの効率が非常に高いからです。

10億ドルのインフラで10%、15%、20%もスループットが向上すれば、莫大な節約になります。基本的に、ネットワーキングは無料です。ですから、インフラが単一のアプリケーション、あるいは大規模な言語モデルや大規模なAIシステムに特化しているのであれば、InfiniBandは本当に素晴らしい選択です。SpectrumXは、InfiniBandの機能のすべてではありませんが、InfiniBandの機能の一部をイーサネットに導入するもので、イーサネットの環境の中で、優れたジェネレーティブAI機能を実現することができます。そのため、Spectrum Xは現在稼働を開始しているところです。BlueField-3が必要で、Spectrum-2とSpectrum-3の両方のイーサネット・スイッチをサポートしています。

この追加性能は本当に素晴らしいものです。そして、BlueField-3がそれを可能にし、それに付随するソフトウェアの数々を提供します。BlueField -- BlueFieldは、皆さんもご存知のように、私にとって本当に大切なプロジェクトです。とてつもないスタートを切った。ホームランだと思う。

これは、インネットワーク・コンピューティングのコンセプトであり、コンピューティング・ファブリックに多くのソフトウェアを搭載するというもので、BlueField-3で実現されます。これはホームランになるでしょう。

オペレーター

最後の質問はMeliusのBen Reitzesです。どうぞよろしくお願いいたします。

ベン・ライツ -- メリウス・リサーチ -- アナリスト

こんにちは、こんばんは。ご質問、ありがとうございます。DGX Cloudについて質問します。

DGXクラウドの評判と、その勢いについてお聞かせください。それからコレットさん、ソフトウェア・ビジネスについてもお聞かせください。また、コレットさん、ソフトウェア事業についてもお聞かせください。すでに利益率に少し貢献しているようですが。ありがとうございました。

ジェンセン・フアン -- プレジデント兼最高経営責任者

DGXクラウドの戦略からお話しします。DGX Cloudの戦略は、いくつかのことを達成することです。1つ目は、私たちと世界のCSPの間で本当に緊密なパートナーシップを可能にすることです。私たちは......私たちは世界中の約3万社の企業と仕事をしていますが、そのうちの1万5000社はスタートアップ企業で、そのうちの数千社はジェネレーティブAI企業です。そして、最も急速に成長している分野は、もちろんジェネレーティブAIです。私たちは世界中のAIスタートアップ企業と連携しています。そして......そして最終的には、彼らは世界有数のクラウドに着地できることを望んでいる。

そこで私たちは、DGX Cloudを世界有数のクラウド内のフットプリントとして構築し、同時にすべてのAIパートナーと協力し、クラウド・パートナーのいずれかに簡単に導入できるようにしました。DGXクラウドの2つ目の利点は、ハイパースケールクラウドのパフォーマンスを向上させるために、CSPと私たちが緊密に連携できることです。ハイパースケールクラウドは、歴史的にマルチテナント向けに設計されており、ジェネレーティブAIのような高性能分散コンピューティング向けに設計されていません。そのため、ネットワーク・パフォーマンスとコンピューティング・パフォーマンスを向上させるために、私たちのエンジニアが手を取り合って、アーキテクチャー面で緊密に協力できることは、本当に強力で素晴らしいことです。そして3つ目は、もちろんNvidia自身も非常に大規模なインフラを使用しており、自動運転車チーム、Nvidiaの研究チーム、ジェネレーティブAIチーム、言語モデルチームなどがあります。私たちが必要とするインフラの量は、かなり......かなり大きいんです。最適化コンパイラも、DGXシステムなしには実現できません。最近ではコンパイラでさえAIを必要とし、最適化ソフトウェアやインフラ・ソフトウェアの開発にもAIを必要としています。

当社のエンジニアリングがAIを使ってチップを設計していることはよく知られています。ロボット工学チームやオムニバース・チームなど、社内でAIを消費するチームはすべてAIを必要としています。DGXクラウドには複数のAIがあります。DFXクラウドには複数のユースケース、複数のドライバーがあり、大成功を収めています。私たちのCSPはDFX Cloudを気に入っています。

開発者も気に入っています。社内のエンジニアたちは、もっと使いたいと切望しています。また、世界中のAIエコシステムと緊密に連携できる素晴らしい方法です。

コレット・クレス -- エグゼクティブ・バイスプレジデント、最高財務責任者

ソフトウェア収益に関するご質問と、冒頭のご挨拶の一部についてお答えしましょう。ソフトウエアは、データセンター製品、GPU、システム、ゲーム製品、将来の車載製品など、ほとんどすべての製品の一部です。おっしゃる通り、私たちはソフトウェア単体での販売も行っています。また、ソフトウェア単体でも成長を続けており、ソフトウェア、サービス、アップグレードの両方を提供しています。現在、ソフトウェア・ビジネスでは、おそらく年間数億ドルの売上を見込んでいます。

NVIDIA AI Enterpriseは、DGXやPCIe版のH100など、我々が販売している多くの製品に含まれるものと考えています。また、CSPマーケットプレイスでも、より多くの利用が可能になると思います。ですから、私たちは素晴らしいスタートを切ることができましたし、今後も成長を続けていくと思います。

オペレーター

本日の質疑応答は以上です。ジェンセン・ファンにお電話をお返しして、追加または終了のご挨拶をお願いします。

ジェンセン・フアン -- プレジデント兼最高経営責任者

新しいコンピューティングの時代が始まりました。業界は、アクセラレーテッド・コンピューティングとジェネレーティブAIという2つのプラットフォーム転換期を同時に迎えている。データセンターは、汎用コンピューティングからアクセラレーテッド・コンピューティングへとプラットフォームを移行しつつある。兆ドル規模のグローバルデータセンターは、パフォーマンス、エネルギー効率、コストを桁違いに向上させるため、アクセラレーテッド・コンピューティングに移行する。アクセラレーテッド・コンピューティングはジェネレイティブAIを可能にし、それは現在、ソフトウェアのプラットフォーム・シフトを推進し、これまでにない新しいアプリケーションを可能にしている。

アクセラレーテッド・コンピューティングとジェネレイティブAIはともに、広範なコンピュータ業界のプラットフォーム・シフトを推進している。我々の需要は非常に大きい。私たちは生産能力を大幅に拡大しています。今年と来年は、供給が大幅に増加するでしょう。誰も20年以上前からこのために準備してきたわけではなく、世界の産業が--世界の産業がその上に構築できるような--新しいコンピューティング・プラットフォームを作り上げたのです。

NVIDIAが特別なのは、ひとつはアーキテクチャだ。Nvidiaは、データ処理、あらゆるAIモデルのトレーニング推論、リアルタイムの音声対コンピューター・ビジョン、巨大なレコメンダーからベクトル・データベースまで、あらゆるものを高速化します。当社のアーキテクチャの性能と汎用性は、データセンターのTCOを最低限に抑え、最高のエネルギー効率を実現します。2つ目は、インストールベースです。

Nvidiaは、世界中で数億のCUDA互換GPUを所有しています。開発者がエンドユーザーにリーチし、ビジネスを成長させるには、大規模なインストールベースが必要です。Nvidiaは開発者に好まれるプラットフォームです。より多くの開発者がより多くのアプリケーションを開発することで、顧客にとってのNvidiaの価値が高まります。3つ目は、リーチです。

Nvidiaは、クラウドの企業データセンター、産業エッジ、PC、ワークステーション、計測器、ロボティクスに搭載されています。それぞれが基本的にユニークなコンピューティング・モデルとエコシステムを持っている。OEMのようなシステムサプライヤー、つまりコンピュータOEMは、エヌビディアに自信を持って投資することができます。規模と速度。Nvidiaは大規模なスケールを達成し、アクセラレーテッド・コンピューティングとジェネレーティブAIに100%投資しています。

私たちのエコシステム・パートナーは、私たちが専門知識、集中力、規模を持ち、強力なロードマップとリーチを提供して成長を支援することを信頼できます。私たちが加速しているのは、これらの能力がもたらす付加的な成果のためです。私たちは、拡大するジェネレーティブAIの世界に対応するため、2年ごとではなく、約半年ごとにアップグレードし、新製品を追加しています。大規模な言語モデルのトレーニングや推論用にH100の出力を増やす一方で、クラウド・スケールアウトやエンタープライズ・サーバー向けの新しいユニバーサルGPU L40Sを増強しています。当社のイーサネット・スイッチ、BlueField-3、スーパーネット、ソフトウェアで構成されるSpectrum Xは、イーサネット・インフラ上で最高のAIパフォーマンスを求めるお客様を支援します。お客様はすでに、当社のグレース・ホッパーを使用して、次世代の高速コンピューティングとジェネレーティブAIに取り組んでいます。

私たちはNVIDIA AIを、生成的なAIを求めつつも、プライバシー、セキュリティ、主権というモデルを求める世界の企業に拡張しています。アクセンチュア、アドビ、ゲッティ、ハギング・フェイス、スノーフレーク、サービスナウ、ヴイエムウェア、WPPといった世界有数のエンタープライズIT企業や、デル、HPE、レノボといったエンタープライズ・システム・パートナーとともに、私たちは世界のエンタープライズにジェネレーティブAIを提供しています。私たちは、NVIDIA Omniverseを構築し、世界の数兆ドル規模の重工業がジェネレーティブAIを使用して物理的資産の構築と運用を自動化し、より高い生産性を達成できるよう、デジタル化を進めています。ジェネレーティブAIはクラウドから始まりますが、最も大きなチャンスは、企業が何兆ドルもの生産性向上を実現できる世界最大の産業です。Nvidia、お客様、パートナー、そしてエコシステム全体にとって、コンピューティングの世代交代を推進するエキサイティングな時です。来期も進捗状況をご報告できることを楽しみにしています。

オペレーター

[オペレーターのサインオフ]

所要時間 0 分

通話参加者
シモーナ・ヤンコウスキー -- 投資家対応担当副社長

コレット・クレス -- エグゼクティブ・バイスプレジデント、最高財務責任者

マット・ラムジー -- TDコーウェン社アナリスト

ジェンセン・ファン -- プレジデント兼最高経営責任者

Vivek Arya -- バンク・オブ・アメリカ・メリルリンチ -- アナリスト

ステイシー・ラスゴン -- アライアンス・バーンスタイン -- アナリスト

マーク・リパシス -- ジェフリーズ -- アナリスト

アティフ・マリク -- シティ -- アナリスト

ジョー・ムーア -- モルガン・スタンレー -- アナリスト

Toshi Hari -- ゴールドマン・サックス -- アナリスト

Tim Arcuri -- UBS -- アナリスト

ベン・ライツ -- メリウスリサーチ -- アナリスト

ここから先は

0字

¥ 200

この記事が気に入ったらサポートをしてみませんか?