参考和訳NVIDIA (NVDA) 21 Nov 232024 Q3 Earnings call transcript

オペレーター
こんにちは。本日の電話会議のオペレーターを務めますジャエルと申します。エヌビディアの第3四半期決算説明会にようこそお越しくださいました。[オペレーターの指示に従ってください。シモナ・ヤンコフスキーさん、会議を始めてください。

シモナ・ステファン・ヤンコフスキー
ありがとうございます。皆さん、こんにちは。2024 年度第 3 四半期のエヌビディアのカンファレンス・コールへようこそ。本日はエヌビディアから、社長兼最高経営責任者のジェンセン・フアン、取締役副社長兼最高財務責任者のコレット・クレスが出席しています。本日の電話会議は、エヌビディアの投資家向けウェブサイトにてライブ中継されます。このウェブキャストは、第4四半期および2024会計年度の業績について説明する電話会議まで再生可能です。本日の電話会議の内容はエヌビディアの財産です。当社の事前の書面による同意なしに複製または転写することはできません。

本通話の中で、当社は現在の予想に基づく将来の見通しに関する記述を行う場合があります。これらは多くの重大なリスクと不確実性の影響を受け、当社の実際の結果は大きく異なる可能性があります。

当社の将来の業績および事業に影響を与えうる要因については、本日の決算発表、当社の最新のForm 10-KおよびForm 10-Q、ならびに当社が証券取引委員会にForm 8-Kで提出する可能性のある報告書の開示をご参照ください。すべての記述は本日2023年11月21日現在、当社が現在入手可能な情報に基づいて作成されています。法律で義務付けられている場合を除き、当社は将来の見通しに関する記述を更新する義務を負いません。

本通話では、非GAAPベースの財務指標について説明します。

これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整は、当社のウェブサイトに掲載されているCFOのコメントに記載されています。それでは、コレットに電話を回します。

コレット・クレス
ありがとう、シモーナ。第3四半期も記録的な四半期でした。売上高は181億ドルで、前四半期比34%増、前年同期比では200%以上増加し、見通しの160億ドルを大きく上回りました。データセンターから始めます。当社のHopper Tensor Core GPUアーキテクチャに基づくNVIDIA HGXプラットフォームが、InfiniBandエンド・ツー・エンド・ネットワーキングとともに引き続き拡大したことで、売上高は145億ドルとなり、前四半期比41%増、前年同期比279%増となりました。NVIDIA HGXとInfiniBandの組み合わせは、基本的にAIスーパーコンピュータとデータセンター・インフラのリファレンス・アーキテクチャです。

最もエキサイティングなジェネレーティブAIアプリケーションのいくつかは、Adobe、Firefly、ChatGPT、Microsoft 365 Copilot、CoAssist、Now Assist with ServiceNow、Zoom AI Companionなど、NVIDIA上で構築・実行されています。

データセンターのコンピュート収入は昨年の4倍、ネットワーク収入は約3倍になりました。大規模言語モデル、ディープラーニング・レコメンダーシステム、およびジェネレーティブAIアプリケーションのトレーニングおよび推論のためのインフラへの投資が、エヌビディアのアクセラレーテッド・コンピューティングに対する強力な幅広い需要を後押ししています。推論は現在、NVIDIA AI コンピューティングの主要なワークロードとなっています。

コンシューマー・インターネット企業およびエンタープライズは、第 3 四半期に異例の連続成長を遂げ、当社の データセンター収益の約半分を占め、総成長を上回りました。Meta 社のような企業は、ディープラーニングを利用したレコメンダーシステムを本格的に稼働させており、また広告主が画像やテキストを最適化できるよう、ジェネレーティブ AI にも投資しています。ほとんどの大手消費者向けインターネット企業は、ジェネレーティブAIの導入を急ピッチで進めている。企業におけるAI導入の波は今、始まっている。Adobe、Databricks、Snowflake、ServiceNowなどのエンタープライズ・ソフトウェア企業は、自社のプラットフォームにAIコパイロットやアシスタントを追加している。また、より広範な企業が、テスラや自律走行などの垂直産業アプリケーション向けにカスタムAIを開発している。

クラウドサービスプロバイダーは、当四半期のデータセンター収益の約半分を牽引しました。需要は、すべてのハイパースケールCSPだけでなく、AIの新しい市場機会に対応するために急速に成長しているGPUに特化したCSPの世界的な拡大セットからも好調でした。NVIDIA H100 Tensor Core GPUインスタンスは、インスタンスと高い需要があるほぼすべてのクラウドで一般的に利用できるようになりました。

当社は今年、旺盛な需要に応えるため、四半期ごとに供給量を大幅に増やしており、来年もそれを継続する見込みです。

また、拡大し多様化するAIの機会に対応するため、より広範で迅速な製品投入を行う予定です。当四半期の終わりに、米国政府は中国およびベトナムや中東の特定の国を含むその他の市場に対する新たな輸出管理規制を発表しました。これらの規制により、Hopper、Ampere 100および800シリーズをはじめとする多くの当社製品の輸出にライセンスが必要となります。

現在ライセンス要件の対象となっている製品から派生する中国およびその他の影響を受ける国への売上は、過去数四半期にわたり一貫してデータセンター売上高の約20%から25%に寄与しています。

第4四半期には、これらの地域への売上が大幅に減少すると予想されますが、他の地域での力強い成長によって相殺されると考えています。

米国政府は、米国業界が中国を含む世界中の市場にデータセンター・コンピューティング製品を提供し、世界的な競争を継続できるようにするために、この規制を策定しました。

最高性能レベルに対しては、政府はライセンスを要求する。

より低い性能レベルの製品については、政府は合理化された事前通知プロセスを要求する。さらに低い性能レベルの製品については、政府は一切の通知を必要としない。

政府の明確なガイドラインに従い、当社はデータセンター製品ポートフォリオを拡充し、米国政府が出荷前の事前通知を希望しない製品も含め、各規制カテゴリーに準拠したソリューションを提供できるよう取り組んでいます。

当社は中国や中東の一部の顧客と協力し、米国政府からのライセンス取得を目指している。しかし、これらのライセンスがかなりの収益につながるかどうかを判断するのは時期尚早である。多くの国々が、経済成長と産業革新を支援するために、AIインフラへの投資の必要性に目覚めつつある。国内の計算能力に投資することで、各国は自国のデータを使ってLLMを訓練し、地域のジェネレーティブAIエコシステムをサポートすることができる。

例えば、私たちはインド政府やインフォシス、リライアンス、タタなどの大手ハイテク企業と協力して、ソブリンAIインフラを強化しています。また、フランスのプライベートクラウドプロバイダーであるScalewayは、NVIDIA H100、InfiniBand、NVIDIA AI Enterpriseソフトウェアをベースとした地域AIクラウドを構築し、フランスとヨーロッパ全域での発展を促進しています。コンピュート容量への国家投資は、新たな経済的要請であり、ソブリンAIインフラ市場へのサービスは、今後数年間で、数十億ドル規模のビジネスチャンスとなります。製品面では、第3四半期の収益の大部分は、当社のHopper GPUアーキテクチャに基づくNVIDIA HGXプラットフォームによるもので、前世代のAmpere GPUアーキテクチャの寄与は低かった。業界標準サーバー向けに構築された新しいL40S GPUの出荷が開始され、様々な顧客のトレーニングや推論ワークロードをサポートした。また、この四半期は、ARMベースのGrace GPUとHopper GPUを組み合わせたGH 200 Grace Hopper Secretチップの最初の売上四半期でもありました。グレースとグレース・ホッパーは、数十億ドル規模の新たな製品ラインに成長しつつあります。Grace Hopperインスタンスは現在、GPU専門のクラウド・プロバイダーで利用可能で、Oracle Cloudでも間もなく利用可能になります。グレース・ホッパーはスーパーコンピューティングの顧客にも大きな支持を得ており、ロスアラモス国立研究所とスイス国立スーパーコンピューティング・センターへの初期システム出荷が第3四半期に行われた。

英国政府は、ほぼ5,500個のグレース・ホッパー・スーパーチップを搭載した世界最速のAIスーパーコンピュータ「Isambard-AI」の1台を構築すると発表した。ドイツのスーパーコンピューティングセンターであるユーリッヒも、24,000個近いグレース・ホッパー・スーパーチップとQuantum-2 InfiniBandを搭載した次世代AIスーパーコンピューターを構築すると発表した。

来年、米国、欧州、日本全体でグレース・ホッパーをベースに構築されたすべてのスーパーコンピューターのAI演算能力を合計すると、200エクサフロップスを超え、さらに多くの勝利がもたらされると予測しています。AIは現在、ディープラーニングのレコメンダー、チャットボット、コピロット、テキストから画像への変換などで本格的に稼働しており、推論はデータセンターの需要に大きく貢献しています。そして、これは始まりに過ぎません。NVIDIA AIは、最高の推論性能と汎用性を提供し、その結果、消費電力と所有コストを低減します。

私たちはまた、高速なコスト削減カーブを描いています。

NVIDIA TensorRT LLMのリリースにより、NVIDIA GPUによるLLMの推論性能は2倍以上、コストは半分になりました。

また、Hopperファミリーの最新メンバーであるH200も発表しました。H200は、生成AIとLLMをさらに加速するために、HBM3e、より高速で大きなメモリを提供する最初のGPUとなります。これは、Llama 2のようなLLMを実行するH100 GPUと比較して、推論速度をさらに2倍に向上させます。TensorRT LLMとH200を組み合わせることで、顧客がスタックを変更することなく、わずか1年で性能が4倍向上し、コストが4倍削減されました。これは、CUDAと当社のアーキテクチャ互換性の恩恵です。A100]と比較して、H200はGPT-3のような初期モデルで18倍の性能向上を実現し、顧客はレイテンシを増加させることなく、より大きなモデルに移行することができます。Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloudは、来年からH200ベースのインスタンスを提供する最初のCSPのひとつとなる。

先週のマイクロソフト・イグナイトでは、マイクロソフトとの協業を全株式にわたって深め、拡大しました。私たちは、Azure上で動作するカスタム生成AIエンタープライズ・アプリケーションの開発とチューニングのためのAIファウンドリー・サービスを発表しました。顧客はドメインの知識や独自のデータを持ち込むことができ、私たちはDGX Cloudで私たちのAI専門知識とソフトウェアスタックを使用してAIモデルの構築を支援します。SAPとAmdocsは、Microsoft Azure上のNVIDIA AIファウンドリ・サービスの最初の顧客である。

さらにマイクロソフトは、H100をベースにした新しい機密コンピューティング・インスタンスを発表する予定です。H100は、最新のMLPerf業界ベンチマークの結果に示されているように、AIトレーニングのためのトップパフォーマンスで最も汎用性の高いプラットフォームであり続け、大差をつけています。

当社のトレーニングクラスタには、6月の3倍にあたる10,000個以上のH100 GPUが含まれており、非常に効率的なスケーリングを反映しています。LLMは毎年桁違いに増加しているため、効率的なスケーリングは生成AIにおける重要な要件です。Microsoft Azureは、ほぼ同じクラスタで同様の結果を達成し、パブリッククラウドの展開におけるNVIDIA AIの効率性を実証しました。ネットワーキングは現在、年換算で100億ドルの収益を上げている。力強い成長の原動力となったのは、前年比5倍増となったInfiniBandに対する並外れた需要である。InfiniBandは、LLMのトレーニングに必要なスケールとパフォーマンスを得るために不可欠である。Microsoftは先週、まさにこの点を強調し、Azureが地球を一周するのに十分な29,000マイル以上のInfiniBandケーブルを使用していることを明らかにしました。

私たちは、NVIDIAのネットワーキングをイーサネットの分野にも拡大しようとしています。

当社の新しいSpectrum-Xエンド・ツー・エンド・イーサネットは、Dell、HPE、Lenovoを含む大手OEMのサポートを得て、AI向けに特化した技術を搭載し、来年第1四半期に提供される予定です。Spectrum-Xは、従来のイーサネット製品に比べ、AI通信において1.6倍のネットワーク性能を実現します。

Spectrum-Xは、従来のイーサネット製品と比較して、AI通信用に1.6倍のネットワーク性能を実現します。

経常的なソフトウェア、サポート、サービスの年間売上高は10億ドルに達する見込みです。中期的には、DGXクラウドサービスとエヌビディアのAIエンタープライズ・ソフトウェアに2つの成長機会があると考えています。それぞれ、エンタープライズAIトレーニングとエンタープライズAI推論の成長を反映しています。

当社の最新のDGX Cloud顧客発表は、今朝、GenentechとのAI研究コラボレーションの一環として行われました。このバイオテクノロジーのパイオニアは、当社のBioNeMo LLMフレームワークを使用して、AI創薬プラットフォームの加速と最適化を支援する予定です。私たちは現在、Adobe、Dropbox、Getty、SAP、ServiceNow、SnowflakeなどとエンタープライズAIパートナーシップを結んでいます。

なるほど。

ゲームに移ります。ゲーム事業の売上高は28.6億ドルで、前四半期比15%増、前年同期比では80%以上の増収となりました。重要なバック・トゥ・スクールショッピングシーズンに強い需要があり、NVIDIA RTXレイトレーシングとAIテクノロジーが299ドルという低価格帯で利用できるようになりました。私たちは、ゲーマーとクリエイターのための過去最高のラインアップでホリデーを迎えます。ゲーミングは、PC市場の不振を背景にしながらも、COVID以前の水準に比べて倍増しています。これは、RTXやDLSSのようなイノベーションにより、当社がゲーミング・エコシステムに大きな価値をもたらしたことを反映しています。これらの技術をサポートするゲームやアプリケーションの数はこの間に爆発的に増加し、アップグレードを促進し、新たな購入者を引き付けています。RTXエコシステムは成長を続けています。現在、RTX対応のゲームやアプリケーションは475を超える。NVIDIA RTX GPUは、最も高性能なAI PCとワークステーションを定義しています。私たちはTensorRT LLM for Windowsをリリースしたばかりで、デバイス上でのLLM推論を4倍高速化します。1億台以上のインストールベースを持つNVIDIA RTXは、AIアプリケーション開発者にとって当然のプラットフォームです。

最後に、当社のGeForce NOWクラウド・ゲーミング・サービスは、勢いを増し続けています。PCゲームのライブラリは、Alan Wake 2、Baldur's Gate 3、Cyberpunk 2077、Phantom Liberty、Starfieldの発売を含め、1,700タイトルを超えました。

ProVizに移る。売上高は4億1,600万ドルで、前四半期比10%増、前年同期比108%増となった。NVIDIA RTXは、プロフェッショナルなデザイン、エンジニアリング、シミュレーションのユースケースに選ばれるワークステーションプラットフォームであり、AIは強力な需要ドライバーとして台頭している。初期のアプリケーションには、ヘルスケアにおけるAI画像処理のための推論や、スマートスペースや公共部門におけるエッジAIなどがあります。当社は、NVIDIA RTXエイダ・ラブレス世代GPUとConnectX、SmartNICをベースとしたデスクトップ・ワークステーションの新ラインを発売し、AI処理、レイトレーシング、グラフィックス性能を旧世代の最大2倍に向上させました。これらの強力な新型ワークステーションは、AIモデルの微調整、より小さなモデルのトレーニング、ローカルでの推論実行などのAIワークロードに最適化されています。

当社は、3D仮想世界を設計、構築、運用するためのソフトウェア・プラットフォームであるOmniverseの開発を引き続き進めています。メルセデス・ベンツは、Omniverseを活用したデジタル・ツインを使用して、製造・組立施設の計画、設計、構築、運用を行っており、効率性の向上と不良品の削減に貢献しています。[Axon社はまた、ロボティクスとオートメーションのパイプライン全体のエンドツーエンドのシミュレーションを含む製造プロセスにOmniverseを導入し、時間とコストを削減しています。私たちは、自動車、Microsoft Azure上で利用可能なデジタル化、仮想工場シミュレーションエンジンと自律走行車シミュレーションエンジンのための2つの新しいOmniverseクラウドサービスを発表しました。

自動車部門に移ります。売上高は2億6,100万ドルで、前四半期比3%増、前年同期比4%増となりました。これは主に、NVIDIA DRIVE Orin SoCをベースとした自動運転プラットフォームの継続的な成長と、グローバルOEM顧客とのAIコックピット・ソリューションの立ち上がりによるものです。当社は Foxconn との自動車向けパートナーシップを拡大し、当社の次世代車載用 SoC である NVIDIA DRIVE Thor を搭載しました。FoxconnはEVのODMとなりました。

私たちのパートナーシップは、Foxconnに標準的なAVセンサーとコンピューティング・プラットフォームを提供し、顧客が最先端の安全でセキュアなソフトウェア・デファインド・カーを簡単に構築できるようにします。

次に損益計算書の残りの部分に移ります。GAAPベースの売上総利益率は74%に、非GAAPベースの売上総利益率は75%に拡大しました。これは、データセンターの売上高が増加したことと、Ampere GPUアーキテクチャ製品に関連する予約済み在庫の放出による1%ポイントの利益を含む、正味在庫引当金の減少によるものです。前四半期比で、GAAPベースの営業費用は12%増、非GAAPベースの営業費用は10%増となりましたが、これは主に報酬と手当の増加を反映しています。

2024年度第4四半期に話を移します。総収益は200億ドル、プラスマイナス2%を見込んでいます。

前四半期比では、コンピュートとネットワーキングの両分野で旺盛な需要が続くデータセンターが牽引し、大幅な伸びを見込んでいます。ゲーム事業は、ノートPCの季節性との整合性が高まっているため、前四半期比で減少する可能性が高い。GAAPベースの売上総利益率は74.5%、非GAAPベースの売上総利益率は75.5%、プラスマイナス50bpを見込んでいる。GAAP基準の営業費用は約31億7,000万ドル、非GAAP基準の営業費用は約22億ドルとなる見込みです。GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資からの損益を除き、約2億ドルの収益となる見込みです。GAAPおよびnon-GAAPベースの税率は、個別項目を除き、プラスマイナス1%の15%となる見込みです。詳細な財務情報は、CFOのコメントおよびIRウェブサイトでご覧いただけるその他の情報に含まれています。最後に、金融業界向けの今後のイベントをいくつかご紹介します。

当社は、11月28日にアリゾナ州スコッツデールで開催されるUBSグローバル・テクノロジー・カンファレンス、11月29日にカリフォルニア州ランチョ・パロス・バーデスで開催されるウェルズ・ファーゴTMTサミット、12月7日にアレテ・バーチャル・テック・カンファレンス、1月8日にサンフランシスコで開催されるJPモルガン・ヘルスケア・カンファレンスに出席します。

第4四半期および2024年度の業績に関する決算説明会を2月21日(水)に予定しています。

ご質問をお受けいたします。オペレーター、質問をお願いします。

オペレーター
[最初のご質問はバンク・オブ・アメリカのヴィヴェク・アリヤさんからです。

ヴィヴェク・アリヤ
コレットさん、第4四半期に期待される中国への貢献についてお聞かせください。それからジェンセン、あなたへの質問です。ジェネレーティブAI市場への出荷という点で、私たちは採用曲線のどのあたりにいるとお考えですか?というのも、御社のデータセンターの成長の軌跡を見ると、来年のデータセンターへの支出は全体の30%近くになると思われます。

では、どのような指標に注目して、成長を続けられると判断しているのでしょうか?また、御社製品のジェネレーティブAI市場への導入曲線はどのような状況でしょうか?

コレット・クレス
まず、ビベックさんからの質問ですが、輸出規制と、私たちが提示した第4四半期の見通しとガイダンスに見られる影響についてです。過去数四半期において、中国やその他の影響を受ける地域は、当社のデータセンター収益の20%から25%程度になると見ています。

今回のガイダンスでは、第4四半期に入るとこの割合が大幅に減少すると予想しています。輸出規制は当社の中国ビジネスにマイナスの影響を与えるでしょうし、長期的に見てもその影響の大きさについてはよく見えていません。

しかし、当社はデータセンター製品ポートフォリオを拡充し、ライセンスを必要としない新たな規制対応ソリューションを提供できるよう取り組んでいます。これらの製品は、今後数ヶ月のうちに利用可能になるかもしれません。

しかし、第4四半期の売上高に占めるこれらの製品の寄与は、それほど大きくはないと考えています。

ジェンセン・フアン
ジェネレーティブAIは、ソフトウェアとハードウェアのTAM拡大としては、ここ数十年で最大のものです。その中核にあるのは、本当にエキサイティングなのは、検索に基づくコンピューティング・アプローチ、つまり、あなたが行うほとんどすべてのことが、どこかのストレージから検索されるということです。

テキストからテキストへ、テキストから画像へ、テキストからビデオへ、テキストから3Dへ、テキストからタンパク質へ、テキストから化学物質へ......これらは過去に人間が処理し、入力したものですが、今では生成的なアプローチになっています。データへのアクセス方法は変わった。かつては明示的なクエリーに基づいていた。現在は、自然言語クエリ、意図クエリ、セマンティッククエリに基づいています。

ですから、SAPやDropbox、その他多くの企業との協業に興奮しています。本当にインパクトのある分野の1つは、約1兆ドル規模のソフトウェア産業で、過去数十年にわたり手動で使用するツールを構築してきました。そして今、コパイロットやアシスタントと呼ばれるまったく新しい分野のソフトウェアが登場している。手作業で使用する代わりに、これらのツールにはコパイロットがついていて、使用を手助けしてくれます。

そして、ソフトウェアのライセンスを取得する代わりに、もちろんライセンスは継続するが、ソフトウェアの使用を手助けしてくれるコパイロットやアシスタントを雇うことになる。私たちはこれらのコパイロットやアシスタントをすべてAIのチームにつなげ、それが現代版ソフトウェア、現代版エンタープライズ・ビジネス・ソフトウェアになるでしょう。

そして、ソフトウェアとソフトウェアのあり方の変革が、その下にあるハードウェアを動かしているのです。そして、2つの方法でハードウェアを変革していることがわかるだろう。ひとつは、ジェネレーティブAIとは無関係なものです。2つのトレンドがあります。ひとつはアクセラレーテッド・コンピューティングに関するものです。汎用コンピューティングはエネルギーとコストの無駄が多すぎます。アクセラレーテッド・コンピューティングと呼ばれる、はるかに優れたアプローチを使えば、1桁のエネルギーを節約できます。

アクセラレーションを使うことで、1桁の時間や1桁のコストを節約することができます。

アクセラレーション・コンピューティングは、いわば汎用コンピューティングをこの新しいアプローチに移行させるものです。さらに、新しいクラスのデータセンターも登場した。今お話にあったような従来のデータセンターは、私たちがその1/3を占めています。しかし、新しいクラスのデータセンターがあります。この新しいクラスのデータセンターは、過去のデータセンターとは異なり、同じインフラを使用するさまざまなテナントが多くのアプリケーションを実行し、データセンターは多くのファイルを保存します。そしてデータを処理する。モデルを訓練し、トークンを生成する。そしてAIを生成する。私たちはこうした新しいデータセンターをAIファクトリーと呼んでいます。私たちは、こうした新しいデータセンターをAIファクトリーと呼んでいます。

そして、この新しいコンピューティング・アプローチへの拡大、移行がどのような形で進んでいるかというと、最初の波は、大規模な言語モデルのスタートアップ企業、ジェネレーティブAIのスタートアップ企業、コンシューマー・インターネット企業でした。そして現在、私たちはその取り組みを強化している最中です。その一方で、チャットボットやコピロット、アシスタントを構築し、自社のプラットフォーム上にあるツールを増強したいと考えている企業向けソフトウェア企業とも提携を始めています。

GPUに特化したCSPが世界中に出現しており、AI処理という本当にひとつのことに特化しています。

自国のデータを活用し、自国のデータを保持し、自国の文化を保持し、データを処理し、自国のAIを開発する必要があると認識している国々がある。

インドでも、1年ほど前にはスウェーデンでも見られた。

日本でもそうだ。先週はフランスで大きな発表があった。しかし、構築されつつあるソブリンAIクラウドの数は実にかなりのものだ。私の推測では、ほぼすべての主要地域が、そして確実に、すべての主要国が独自のAIクラウドを持つことになるでしょう。

生成的AIの波があらゆる産業、あらゆる企業、あらゆる地域に伝播していく中で、新たな展開が見られると思います。

私たちは今、このコンピューティングの変遷の始まりにいるのです。

オペレーター
次の質問はウェルズ・ファーゴのアーロン・レイカーズさんからです。

アーロン・レイカーズ
ネットワーク事業についてお聞きしたいのですが。

今お話にあった成長率(確か前年比155%、前四半期比も大幅成長)を考えると、この事業は四半期ベースで25億ドルから30億ドルのレベルに近づいているように見えます。来年に向けて、イーサネットがInfiniBandだけでなくネットワーキングの一部になっていくと思いますが、従来のイーサネット・スタックに対するSpectrum-Xの差別化をどのようにお考えでしょうか。

ジェンセン・ファン
ご質問ありがとうございます。

当社のネットワーキング・ビジネスは、すでに100億ドルを超える規模になっています。そして、今後もさらに拡大していくでしょう。また、ご指摘の通り、私たちは最近、ネットワーキング・ビジネスに新しいネットワーキング・プラットフォームを追加しました。大規模なAI専用工場の大半はInfiniBandを標準としています。その理由は、データレートやレイテンシーだけでなく、ネットワーク上でトラフィックを移動させる方法が本当に重要だからです。AIやマルチテナントのハイパースケール・イーサネット環境の処理方法は、トラフィック・パターンが根本的に異なります。InfiniBandとSoftware-Defined Networkを使えば、輻輳制御、アダプティブ・ルーティング、パフォーマンス・アイソレーション、ノイズ・アイソレーションはもちろんのこと、InfiniBandのデータ・レートと低レイテンシー、そしてInfiniBandの自然な部分である非常に低いオーバーヘッドを実現できます。

InfiniBandは単なるネットワークではありません。コンピューティング・ファブリックでもあります。私たちは、計算を含む多くのソフトウェア定義機能をファブリックに組み込みました。浮動小数点演算や計算をスイッチやファブリックの中で行います。

イーサネットとインフィニバンドの違いは、AI工場向けのインフィニバンドとイーサネットの違いが劇的な理由です。その理由は、AI工場用に20億ドルのインフラに投資したばかりだからです。20%、25%、30%の全体的な効果の違いは、特に規模を拡大するにつれて、数億ドルの価値で測定されます。また、そのインフラを4、5年かけてレンタルしていたとしたら、それは本当に、本当に積み重なります。

したがって、AI工場にとってInfiniBandの価値提案は否定できない。

しかし、AIをエンタープライズに移行させるにあたり、すべての企業が独自のカスタムAIを構築できるようにしたいと考えています。当社では、当社独自のデータや当社独自のスキルに基づいてカスタムAIを構築しています。

例えば......最近、私たちが作っているモデルのひとつについて話しました。ChipNeMoと呼ばれています。他にもたくさん作っています。社内で作成するカスタムAIモデルは数十から数百になるだろう。私たちの会社では、従業員が使用するすべてのAIモデルは、モデルを訓練するために使用するAI工場ほど高性能である必要はありません。

そのため、AIにはイーサネット環境で動作してほしいのです。

そこで私たちは、イーサネットを拡張する新しいプラットフォームを開発しました。これはイーサネットを置き換えるものではありません。イーサネットに100%準拠しており、東西トラフィックに最適化されています。BlueFieldとスペクトラム・スイッチによるエンド・ツー・エンドのソリューションでイーサネットに追加することで、InfiniBandにある機能の一部(すべてではないが、一部)を実行できるようになり、優れた結果を達成している。私たちが市場に投入する方法は、すでに私たちのコンピューティング・ソリューションを提供している大企業のパートナーとともに市場に投入することです。

HP、Dell、Lenovoは、NVIDIA AIスタック、NVIDIA AI Enterpriseソフトウェア・スタックを持っています。そして今、彼らはBlueFieldと統合し、彼らのSpectrumスイッチを市場に投入することで、彼らの膨大な販売力と再販業者の膨大なネットワークを使って、世界中の企業顧客に、完全に統合された、言うなれば完全に最適化された、少なくともエンドツーエンドのAIソリューションを提供できるようになります。

これは基本的に、世界の企業向けにイーサネットにAIを導入するということです。

オペレーター
次の質問は、モルガン・スタンレーのジョー・ムーアさんからです。

ジョセフ・ムーア
素晴らしい。グレース・ホッパーについて、またマイクロプロセッサーを活用する能力、TAMエクスパンダーとしてのグレース・ホッパーの捉え方について、もう少しお聞かせいただけますでしょうか。また、グレース・ホッパーと従来のH100アプリケーションを比較した場合、どのようなアプリケーションでグレース・ホッパーを使うとお考えですか?

ジェンセン・ファン
ご質問ありがとうございます。グレース・ホッパーは現在、量産体制に入っています。来年には、ハイパフォーマンス・コンピューティングとAI、AIインフラストラクチャーにおける設計の勝利が見込まれています。

最初のデータセンター向けCPUから数十億ドル規模の製品ラインまで、非常に速いスピードで立ち上がりつつあります。これは当社にとって非常に大きな製品ラインとなるでしょう。グレース・ホッパーの能力は実に素晴らしい。超高速メモリと超大容量メモリを同時に搭載したコンピューティング・ノードを作る能力がある。ベクトル・データベースや意味検索の分野では、RAG(retrieval augmented generation)と呼ばれる、生成的なAIモデルを持つことができ、応答を生成する前に独自のデータや事実データを参照することができます。また、コンテキストの長さが非常に長いアプリケーションや生成モデルも考えられます。

基本的に、質問をする前にシステム・メモリに本全体を保存することになります。

そのため、コンテキストの長さは非常に大きくなります。一方では、事実データ、独自データ、ドメイン固有データ、あなたのデータを参照することができ、文脈に関連したものとなり、幻覚を減らすことができる。

例えば、グレース・ホッパーにとって、この特定のユースケースは本当に素晴らしいものです。また、x86とは異なるCPUを必要とする顧客にも対応しています。欧州のスーパーコンピューティング・センターや、独自のARMエコシステムを構築してスタックを構築したい欧州の企業、あるいは、自社のカスタムCPUがARMベースなのでARMに軸足を移したいと考えているCSPなどです。グレース・ホッパーの成功にはさまざまな理由がありますが、私たちは素晴らしいスタートを切りました。これはホームラン商品です。

オペレーター
次の質問はUBSのティモシー・アルキュリさんからです。

ティモシー・アルクリ
収益の見通しについて少しお聞きしたいと思います。いくつか動く部分があるのは承知しています。一方では、購入コミットメントがまた大きく増加しました。しかしその一方で、中国以外の需要を満たすことができれば、中国のバンドは間違いなく引っ張ってくるでしょう。

まだ2024年に入っていないのですが、ジェンセンさんは来年がデータセンターの収益のピークになるとは考えていないようですね。データセンターは2025年まで成長できると思いますか?

ジェンセン・ファン
データセンターは2025年まで成長できると確信しています。もちろん、それにはいくつかの理由があります。

私たちは供給を大幅に拡大しています。

私たちはすでに、世界で最も広範で最大かつ有能なサプライチェーンを求めています。GPUはチップだと思われていますが、HGX、H100、Hopper HGXには35,000個の部品があります。重さは70ポンド。チップのうち8つがホッパーです。

残りの35,000個はそうではありません。HGXは......パッシブ・コンポーネントでさえ、高電圧部品、高周波部品、大電流部品で構成されている。スーパーコンピューターなので、スーパーコンピューターを別のスーパーコンピューターでテストする唯一の方法なのだ。製造も複雑だ。テストも複雑だ。出荷も複雑だし、設置も複雑だ。

HGXのサプライチェーンはあらゆる面で複雑なのです。言うまでもなく、HGXはすべてNVIDIAのネットワーキングで接続されており、ネットワーキング、トランシーバー、NIC、ケーブル、スイッチなど、その複雑さには目を見張るものがあります。

ネットワーク、トランシーバー、NIC、ケーブル、スイッチなど、その複雑さは信じられないほどです。

私たちは絶対に世界トップクラスです。しかしその一方で、私たちは新しい顧客と新製品を増やしています。

ですから、新しい供給もあります。

先ほど申し上げたように、新しい顧客もいます。さまざまな地域がGPU専門クラウドを立ち上げ、主権を持つAIクラウドが世界中から生まれています。そうすべきなのだ。彼らにはスキルがあり、我々と組み合わせることで、その手助けをすることができる。

そして、彼らが最初にしなければならないことは、AIクラウド、つまり国家AIクラウドを構築することです。

また、私たちはエンタープライズ市場にも進出しています。エンタープライズ市場には2つの道があります。ひとつは、3つの道です。

最初の道は、もちろん既製のAIです。もちろん、ChatGPTは素晴らしい既製AIです。他にもあるでしょう。サービスナウやSAPのようなソフトウェア企業は、自社のインテリジェンスを外部に委託するわけにはいかないからだ。そして、彼らはツールを開発している。そして、そのツールの上に、カスタムで独自のドメインに特化したコパイロットやアシスタントを構築し、それを顧客ベースに貸し出すのだ。これは......彼らは金鉱の上に座っているのだ。世界中の主要なツール会社のほとんどが金鉱の上に座っている。彼らは、自分たちでカスタムAIを構築しなければなりません。

私たちはAIファウンドリーと呼ばれる新しいサービスを提供しており、そこでエヌビディアの能力を活用しています。そして次に、企業が独自のカスタムAI、独自のカスタムチャットボット、独自のカスタムRAGを構築することです。この能力は世界中に広がっています。私たちがこの市場にサービスを提供する方法は、NVIDIA AI Enterpriseと呼ばれるソフトウェア・スタックを実行するコンピュート、ネットワーキング、スイッチを含むシステム全体のスタックを、HP、デル、レノボなどの市場パートナーを通じて提供することです。

スタートアップ企業やCSPから始まり、コンシューマー・インターネット企業、エンタープライズ・ソフトウェア・プラットフォーム、エンタープライズ企業へと、ジェネレーティブAIの波が押し寄せています。そして、最終的には、私たちが多くのエネルギーを費やしている分野の1つに、産業用ジェネレーティブAIがあります。これはNVIDIA AIとNVIDIA Omniverseが一緒になるところです。これは本当にエキサイティングな仕事です。

私たちは、ジェネレーティブAIやアクセラレーテッド・コンピューティングへの、基本的に全面的な産業移行の始まりにいると思います。これは、あらゆる企業、あらゆる産業、あらゆる国に影響を与えるでしょう。

オペレーター
次の質問はゴールドマン・サックスの針俊哉さんからです。

針 俊也
コレットさんには少しはっきりさせておきたいことがあります。コレットさんは、今後2、3ヶ月の間に規制に対応した商品を導入するとおっしゃっていましたが、第4四半期の収益への貢献は比較的限定的なものになるはずです。それはタイミングの問題でしょうか?また、それが4月以降のデータセンターの成長再加速の要因になる可能性はありますか?それとも、今後の収益への貢献は比較的限定的となるような価格帯なのでしょうか?それからジェンセンへの質問ですが、先週発表されたAIファウンドリーサービスについてお伺いしたいのですが、できればもう少し詳しくお聞かせいただければと思います。収益化モデルはどのように機能するのでしょうか?サービスやソフトウェアの収益が中心なのでしょうか?長期的なオポチュニティセットについてどう考えるべきか?また、これはマイクロソフトだけのものになるのでしょうか?それとも他のパートナーにも拡大する計画があるのでしょうか?

コレット・クレス
トシヤ、中国の顧客に提供できる新製品の可能性についての質問ありがとう。このような新製品を設計・開発するのは非常に重要なプロセスです。

私たちが議論したように、これらの製品についても私たちの意図を米国政府と十分に話し合うつもりです。

今期の状況を考えると、すでに数週間が経過しています。この2つの製品のニーズや要望について顧客と話し合うには、まだ時間がかかりそうです。

今後、中期的なものであれ長期的なものであれ、米国政府と中国の顧客との間で、どのような製品を製造できるのか、その両方のアイデアを言うのは難しい。

ですから、私たちは中国のお客様のために適切なバランスを見つけることに集中していますが、現時点では何とも言えません。

ジェンセン・ファン
トシヤ、質問ありがとう。世界にはAIファウンドリーにとって非常に大きなチャンスがあります。

まず、どの企業にもコア・インテリジェンスがあります。それは、会社、データ、ドメインの専門知識です。多くの企業の場合、私たちはツールを作っている。そして、世界中のソフトウェア会社のほとんどは、ツールのプラットフォームです。そしてそれらのツールは今日、人々に使われています。そして将来的には、私たちが雇った大勢のAIによって増強された人々によって使われるようになるでしょう。そして、これらのAIプラットフォームは世界中に広がっていく。SAP、ServiceNow、Dropbox、Gettyなど、すでにいくつか発表しています。他にも多くの企業が参入する予定です。その理由は、彼らが独自のAIを持っているからです。彼らは独自のAIを欲しがっている。他社にAIを構築してもらうために、インテリジェンスを外注し、データを提供し、フライホイールを提供する余裕はない。

だから私たちのところに来るのです。

TSMCがファウンドリーであるように、ファウンドリーには本当に必要なものがいくつかあります。

それはAI技術です。ご存知のように、当社はAI技術に非常に長けています。そして第二に、ベストプラクティス、既知のプラクティス、AIモデルの発明を通じてデータを処理するスキル、ガードレール、ファインチューニング、安全性などを備えたAIを開発するスキルが必要です。そして3つ目は、ファクトリーが必要だということです。

私たちのAIモデルはAIファウンデーションと呼ばれています。

AIを作成するための我々のプロセス、CADシステムはNeMoと呼ばれ、DGX Cloudと呼ばれるエヌビディアのファクトリー上で稼働します。

私たちのマネタイズモデルは、パートナー各社がDGX Cloud上のサンドボックスを借り、そこで私たちが一緒に仕事をするというものです。パートナーはデータを持ち込みます。パートナーは専門知識を持ち込む。私たちは研究者とエンジニアを連れてきます。我々は、彼らがカスタムAIを構築する手助けをする。そのカスタムAIが素晴らしいものになるよう手助けをする。そして、その顧客のAIは顧客のものとなり、エンタープライズ・グレード、エンタープライズ最適化、またはアウトパフォーマンス最適化されたランタイムでデプロイされ、すべてのNVIDIAで稼働します。

私たちは、クラウド・オンプレムのどこにでも巨大なインストールベースを持っています。そして、安全で、セキュアなパッチが適用され、常にパッチが適用され、最適化され、サポートされています。これをNVIDIA AI Enterpriseと呼んでいます。

NVIDIA AI Enterpriseは1GPあたり年間4,500ドルです。これが我々のビジネスモデルです。

我々のビジネスモデルは基本的にライセンスです。

基本的なライセンスがあれば、その上に収益化モデルを構築することができます。多くの点で、私たちは卸売業です。小売りになる。サブスクリプション・ライセンスをベースにすることもできます。インスタンス単位でもいいし、使用量単位でもいい。しかし、私たちのビジネスモデルは基本的に、オペレーティング・システムのようなソフトウェア・ライセンスのようなものです。

私たちのビジネスモデルは、カスタムモデルの作成を支援するものです。

そのカスタムモデルをNVIDIA AI Enterprise上で実行します。そして、素晴らしいスタートを切ることができました。NVIDIA AI Enterpriseは当社にとって非常に大きなビジネスになるでしょう。

オペレーター
次の質問は、バーンスタイン・リサーチのステイシー・ラスゴンさんからです。

ステイシー・ラスゴン
コレット、もし中国の規制がなかったら、第4四半期はもっと高かったのでしょうか?それとも、中国に行くはずだったものを他の場所に再出荷するという供給上の制約があるのでしょうか?また、データセンターのリードタイムが今どの程度なのか、教えていただけますか?また、今回のような中国へのリダイレクトは、すぐに出荷可能なパーツを手に入れたことで、リードタイムを短縮しているのでしょうか?

コレット・クレス
はい、ステイシー、ご理解いただけるでしょうか。はい、今も四半期ごとに供給改善に取り組んでいる状況です。私たちは毎期、本当に堅実な仕事をし、それが収益を決定付けてきました。しかし、中国がなくなったことで、第4四半期の見通しについては、確かに、中国に売ることができたものを、供給が制限されることなく売ることができたかもしれません。

では、第4四半期のガイダンスはもう少し高くなる可能性があったのでしょうか?はい。

私たちはまだ供給を改善する努力を続けていますし、来年もそれに向けて成長し続けるつもりです。

オペレーター
次のご質問は、TDコーウェンのマット・ラムジーさんからお願いします。

マシュー・ラムジー
皆さん、決算おめでとうございます。ジェンセン、2つに分けて質問したいのですが、1つの前提があります。その前提とは、AIトレーニングがエヌビディアの支配的な領域であり、推論、それも大規模なモデル推論がTAMの多くを占めるようになると、市場の競争が激しくなると考えている投資家からの質問を、私はまだ多く受けているということです。

エヌビディアは差別化を図ることができなくなります。

そこで、質問の2つの部分として、1つ目は、LLMに移行するにつれて推論ワークロードがどのように進化していくのか、また、御社が小規模なモデル推論ではなく、それに対してどのような位置づけにあるのかについて、少し時間を割いてお話しいただけないでしょうか。2つ目は、1、2ヶ月前まで、AIワークロードのデータ処理部分について全く質問を受けたことがありませんでした。

学習前、学習と推論の間、推論後のデータを操作する部分ですが、これは現在ワークロードの大部分を占めていると思います。

ジェンセン・ファン
推論は複雑です。実際、非常に複雑です。

私たちは今四半期、TensorRT LLMと呼ばれる最もエキサイティングな新エンジン、最適化コンパイラを発表しました。評判は上々です。

GitHubをご覧ください。世界中のスタックやフレームワークに、ほとんど瞬時に統合されています。それにはいくつかの理由があります。

CUDAがプログラマブルだからTensorRT LLMを作ることができたのです。もしCUDAとGPUがそれほどプログラマブルでなかったら、私たちがこのペースでソフトウェア・スタックを改良することは本当に難しかったでしょう。同じGPU上でTensorRT LLMを使えば、誰も何も触らなくても、パフォーマンスが2倍向上します。H200ではさらに2倍向上しました。

その結果、推論性能、別の言い方をすれば推論コストは、約1年の間に4倍も低下したのです。

これは本当に、ついていくのが大変なことなんだ。

私たちの推論エンジンが支持される理由は、インストールベースがあるからです。私たちは20年、20年以上にわたってインストールベースに専念してきました。

私たちのインストールベースは、あらゆるクラウドで最大規模を誇るだけではありません。あらゆるエンタープライズ・システム・メーカーに導入されています。あらゆる業界の企業で利用されています。そして、エヌビディアのGPUを見るときはいつでも、当社のスタックが動いています。アーキテクチャ的にも互換性があります。これは、私たちが非常に長い間専念してきたことです。私たちはそれについて非常に規律正しい。言ってみれば、アーキテクチャの互換性を第一に考えています。そしてそれが、当社のプラットフォームの安定性の確かさを世界に伝えてきました。NVIDIAのプラットフォームの安定性、確実性こそが、誰もが最初にNVIDIAを構築する理由であり、誰もが最初にNVIDIAを最適化する理由なのです。NVIDIAの上に構築されるすべてのエンジニアリング、すべての作業、すべての技術の発明は、NVIDIAのGPUを使用するすべての人にもたらされ、NVIDIAのGPUを使用するすべての人に利益をもたらします。

もしあなたが推論プラットフォームで、推論アプリケーションをデプロイしているなら、あなたは基本的にアプリケーション・プロバイダです。そして、ソフトウェア・アプリケーションのプロバイダーとして、大規模なインストールベースを求めている。データ処理では、モデルをトレーニングする前に、データをキュレートする必要がある。

データを除外しなければならない。合成データでデータを補強する必要があるかもしれない。

データをきれいにし、整列させ、正規化する。

データはすべて、バイトやメガバイトで測られるものではない。テラバイトやペタバイトで測られる。データエンジニアリングやトレーニングの前に行うデータ処理の量は非常に大きい。最終的な作業量の30%、40%、50%を占めるかもしれない。最終的にデータ駆動型の機械学習サービスを構築するためには、データ処理が非常に重要なのです。

ですから、データ処理は非常に重要な部分なのです。私たちはSparkを加速させます。Pythonを加速させます。

世界で最も成功しているデータ・サイエンス・フレームワークであるpandasは、現在NVIDIA CUDAによって高速化されています。

Pandasは現在、NVIDIA CUDAによって高速化されています。pandasは、データサイエンスのためのデータ処理という、たった一つの目的のために設計されました。

NVIDIA CUDAはそのすべてを提供します。

オペレーター
最後の質問は、JPMorganのハーラン・スールさんからです。

ハーラン・スール
ハイテク業界の歴史を見ると、成功した企業は常にエコシステム、シリコン、ハードウェア、ソフトウェア、強力なパートナーシップ、そして同じくらい重要なことですが、新製品の積極的な供給体制、長期的なセグメンテーションを重視してきました。チームは最近、より積極的な新製品開発計画を発表し、データセンターを2年から1年ごとに、より高いレベルのセグメンテーション、トレーニング、最適化、推論、CPU、GPU、DPUネットワーキングを行うと発表した。より積極的で拡大するロードマップをサポートするように見える研究開発費の伸びをどう考えればいいのでしょうか?しかし、より重要なことは、このような複雑な状況を管理し、実行に移すために、チームはどのようなことをしているのでしょうか?

ジェンセン・ファン
素晴らしいですね。

あなたはエヌビディアのビジネスプランを書いたばかりです。そして私たちの戦略を説明してくれました。

まず第一に、私たちが実行を加速させる根本的な理由があります。その理由は、根本的にコストを下げるからです。TensorRT LLMとH200の組み合わせは、大規模モデル推論のコストを4分の1に削減しました。もちろん、スピードやフィードも含まれますが、ほとんどはソフトウェアのおかげです。

そのため、私たちはロードマップを加速させたいと考えています。

2つ目の理由は、ジェネレーティブAIのリーチを拡大することです。世界のデータセンターの構成数、これは驚くべきことです。エヌビディアはあらゆるクラウドに参入していますが、どのクラウドも同じではありません。エヌビディアはあらゆるクラウドサービスプロバイダーと連携していますが、そのネットワーキング制御プレーンのセキュリティ態勢は1つとして同じではありません。プラットフォームはそれぞれ異なりますが、私たちはすべてのスタック、すべてのデータセンターに統合されており、そのすべてと驚くほどうまく機能しています。そして言うまでもなく、私たちはそれらすべてを取り込み、スタンドアローンのAIファクトリーを構築します。我々のプラットフォームを利用する。スーパーコンピューターにも導入できる。企業にも導入できる。AIを企業に導入することは、誰もやったことのないことです。私たちは今、そのすべてを市場に投入しようとしているところです。

その複雑さには、もちろんすべてのテクノロジーやセグメント、ペースが含まれます。また、これらすべてにアーキテクチャ上の互換性を持たせなければならないという事実も含まれる。私たちが作成するドメイン固有のライブラリも含まれます。その理由は......どのコンピューター会社も、何も考えずにエヌビディアをロードマップに統合し、市場に投入することができます。医療には市場の需要がある。製造業にも需要がある。もちろん、AI、金融サービス、スーパーコンピューティング、量子コンピューティングにも需要がある。私たちが特定分野に特化したライブラリを持っている市場やセグメントのリストは、信じられないほど幅広いのです。そして最後に、データセンター向けのエンド・ツー・エンドのソリューションです。InfiniBandネットワーク、イーサネット・ネットワーキング、x86、ARMなど、あらゆるソリューション、テクノロジー・ソリューション、ソフトウェア・スタックを提供しています。そしてそれは、最大数のエコシステム・ソフトウェア開発者、最大規模のシステム・メーカーのエコシステム、最大かつ最も広範な販売パートナーシップ・ネットワーク、そして最終的には最大規模のリーチを持つことにつながります。そしてそれは、確かに多くのエネルギーを必要とする。しかし、それを支えているのは、数十年前に私たちが下した素晴らしい決断です。あるGPUで動作するドメイン固有言語を開発すると、すべてのGPUで動作します。TensorRTをクラウド用に最適化したとき、私たちはそれをエンタープライズ用に最適化しました。新機能、新ライブラリ、新機能、あるいは新しい開発者を取り込むようなことをすれば、その開発者は即座に私たちの全領域の恩恵を受けることができます。

このような規律、アーキテクチャ互換の規律が、数十年以上続いていることが、エヌビディアが今でも本当に効率的である理由のひとつです。私たちは28,000人の従業員を抱え、世界中のあらゆる企業、あらゆる産業、あらゆる市場にサービスを提供しています。

オペレーター
ありがとうございました。それでは、ジェンセン・フアングにお電話をお返しして、閉会のご挨拶とさせていただきます。

ジェンセン・ファン
当社の力強い成長は、汎用コンピューティングからアクセラレーテッド・コンピューティング、そしてジェネレーティブAIへの幅広い産業プラットフォームの移行を反映しています。大規模な言語モデルの新興企業、消費者向けインターネット企業、グローバルなクラウド・サービス・プロバイダーが最初の動きです。次の波が押し寄せ始めている。国や地域のCSPは、地域の需要に応えるためにAIクラウドを構築している。アドビやドロップボックス、SAPやServiceNowのようなエンタープライズ・ソフトウェア企業は、自社のプラットフォームにAIコパイロットやアシスタントを追加している。また、世界最大の産業分野の企業は、自動化と生産性向上のためにカスタムAIを開発している。ジェネレーティブAIの時代が本格化し、データの精製やトレーニング、推論、AIの生成に最適化された、新しいタイプのデータセンターとAIファクトリーの必要性が生まれている。AI工場のワークロードは、ITタスクをサポートするレガシーデータセンターのワークロードとは異なり、インクリメンタルである。AIファクトリーはコパイロットやAIアシスタントを実行し、ソフトウェアTAMを大幅に拡大し、1兆ドルの従来型データセンター・インフラのインストールベースを拡大し、AI産業革命を力づける、大規模な新規投資を推進している。InfiniBandとNVIDIA AIソフトウェアスタックを搭載したNVIDIA H100 HGXは、今日のAI工場を定義しています。

世界の需要に応えるためにサプライチェーンを拡大する一方で、AIの次の波に向けた新たな成長ドライバーも構築しています。CPU、ネットワーキング、ソフトウェアとサービスです。GraceはNVIDIA初のデータセンター向けCPUです。GraceとGrace Hopperはフル生産体制にあり、来年には数十億ドル規模の新たな製品ラインに成長する。CPUの選択に関係なく、我々は顧客がAI工場を構築するのを支援することができる。エヌビディアのネットワーキングは現在、年間売上高100億ドルを超えている。InfiniBandは前年比で5倍に成長し、AI工場のネットワーキングとして今後素晴らしい成長を遂げる位置づけにある。企業もAIを採用しようと競争しており、イーサネットが標準的なネットワーキングとなっています。今週、当社は企業向けのAI向けイーサネット・プラットフォームを発表した。NVIDIA Spectrum-Xは、BlueField SuperNIC、Spectrum-4イーサネット・スイッチ、ソフトウェアからなるエンド・ツー・エンドのソリューションで、AIワークロード向けにイーサネット性能を最大1.6倍向上させる。Dell、HPE、Lenovoは、NVIDIAのAIコンピューティング、ネットワーキング、ソフトウェアによる完全なジェネレーティブAIソリューションを世界の企業に提供するために、私たちと協力しています。エヌビディアのソフトウェアとサービスは、年率10億ドルで今年を終える予定です。ServiceNowやSAPのような企業向けソフトウェア・プラットフォームは、独自のAIを構築・運用する必要がある。企業はカスタムAIコパイロットを構築し、展開する必要がある。

当社は、顧客がカスタムモデルを構築するのを支援するためのAI技術、専門知識、規模を有している。

独自のデータをNVIDIA DGX Cloud上に置き、エンタープライズグレードのNVIDIA AI Enterprise上にAIアプリケーションを展開することで、NVIDIAは本質的にAIファウンドリーとなる。NVIDIAのGPU、CPU、ネットワーキング、AIファウンドリーサービス、そしてNVIDIA AI Enterpriseソフトウェアは、すべてフルスロットルの成長エンジンです。

本日はご参加いただきありがとうございます。来期も進捗状況をご報告できることを楽しみにしています。

ここから先は

34字

¥ 400

期間限定 PayPay支払いすると抽選でお得に!

この記事が気に入ったらサポートをしてみませんか?