(和訳) $NVDA Q2 2025 Transcript カンファレンスコール
オペレーター
こんにちは。 本日の電話会議のオペレーターを務めますアビーと申します。 エヌビディアの第2四半期決算説明会にようこそお越しくださいました。 バックグラウンド・ノイズを防ぐため、すべての回線をミュートにしています。 スピーカーの発言の後、質疑応答があります。 [ありがとうございます。
スチュワート・ステッカーさん、会議を始めてください。
スチュワート・ステッカー
ありがとうございます。 2025年度第2四半期に関するエヌビディアの電話会議にようこそお越しくださいました。
本日はエヌビディアより、社長兼最高経営責任者のジェンセン・フアン、取締役副社長兼最高財務責任者のコレット・クレスが出席いたします。
この電話会議は、エヌビディアのインベスター・リレーションズ・ウェブサイトでライブ・ウェブキャストされています。 このウェブキャストは、2025 年度第 3 四半期の財務結果についての電話会議まで再生可能です。 本日の電話会議の内容はエヌビディアの財産です。 事前の書面による同意なしに複製または転記することはできません。 本通話中、当社は現在の予想に基づく将来の見通しに関する記述を行う場合があります。 これらは多くのリスク、重大なリスク、不確実性を内包しており、当社の実際の業績はこれらと大きく異なる可能性があります。
当社の将来の業績および事業に影響を与えうる要因については、本日の決算発表、当社の最新のForm 10-KおよびForm 10-Q、ならびに当社が米国証券取引委員会にForm 8-Kで提出する可能性のある報告書の開示をご参照ください。 当社の声明はすべて、本日2024年8月28日現在、当社が現在入手可能な情報に基づいて作成されています。 法律で義務付けられている場合を除き、当社はそのような記述を更新する義務を負いません。
本通話では、非GAAPベースの財務指標について説明します。 これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整は、当社のウェブサイトに掲載されているCFOコメンタリーでご覧いただけます。
金融業界向けの今後のイベントをご紹介しましょう。 9月11日にサンフランシスコで開催されるGoldman Sachs Communacopia and Technology Conferenceに出席し、ジェンセンが基調講演のファイヤーサイドチャットに参加します。 2025年度第3四半期の業績に関する電話会議は、2024年11月20日(水)に予定しています。
それでは、コレットに電話を回します。
コレット・クレス
ありがとう、スチュワート。 第2四半期も記録的な四半期となりました。 売上高は 300 億ドルで、前四半期比 15%増、前年同期比 122%増となり、見通しの 280 億ドルを大きく上回った。 データセンターの売上高は 263 億ドルで、前四半期比 16%増、前年同期比 154%増となり、過去最高を記録しました。
コンピュート収益は前年比2.5倍以上、ネットワーク収益は2倍以上の伸びとなりました。 クラウドサービスプロバイダーはデータセンター収益の約45%を占め、50%以上はコンシューマー、インターネット、エンタープライズ企業によるものです。
顧客は引き続きHopperアーキテクチャの購入を加速しており、同時にBlackwellの採用に向けて準備を進めている。 当社のデータセンターの成長を牽引する主なワークロードには、ジェネレーティブAI、モデルトレーニング、推論などがあります。 CUDAとAIワークロードによるビデオ、画像、テキストデータの前処理と後処理、合成データ生成、AIを活用した推奨システム、SQL、ベクトルデータベース処理も含まれます。
次世代モデルは、大幅に多いデータで学習するために、10倍から20倍の計算能力を必要とする。 この傾向は今後も続くと予想される。 直近の4四半期では、推論が当社のデータセンター収益の40%以上を牽引したと推定しています。 CSP、消費者インターネット企業、そして企業は、エヌビディアの推論プラットフォームが持つ驚異的なスループットと効率の恩恵を受けています。
NVIDIAに対する需要は、フロンティア・モデル・メーカー、消費者向けインターネット・サービス、そして消費者、広告、教育、企業、ヘルスケア、ロボット工学向けのジェネレーティブAIアプリケーションを構築する何万もの企業や新興企業から寄せられています。 開発者は、NVIDIAの豊富なエコシステムとあらゆるクラウドでの可用性を望んでいます。 CSPは、NVIDIAの広範な採用を高く評価しており、高い需要を背景にNVIDIAのキャパシティを拡大しています。
NVIDIA H200プラットフォームは、第2四半期に稼働を開始し、大手CSP、コンシューマー・インターネット、およびエンタープライズ企業に出荷されています。 NVIDIA H200は、当社のHopperアーキテクチャの強みを基盤としており、H100と比較してメモリ帯域幅が40%以上向上しています。
中国のデータセンター収入は第 2 四半期に前四半期比で増加し、当社のデータセンター収入に大きく貢献し ている。 データセンター総売上高に占める割合は、輸出規制発動前の水準を下回っている。 中国市場は今後も非常に競争が激しくなると予想しています。 MLPerf推論ベンチマークの最新ラウンドでは、NVIDIA、Hopper、Blackwellの両プラットフォームがすべてのタスクで金メダルを獲得し、NVIDIAの推論におけるリーダーシップが浮き彫りになりました。
Computexで、NVIDIAは、トップクラスのコンピュータメーカーとともに、Blackwellアーキテクチャを搭載したシステムの数々と、AI工場やデータセンターを構築するためのNVIDIAネットワーキングを発表しました。 NVIDIA MGXモジュラーリファレンスアーキテクチャにより、当社のOEMおよびODMパートナーは、迅速かつコスト効率よく設計された100以上のBlackwellベースのシステムを構築しています。
NVIDIA Blackwellプラットフォームは、複数のGPU、CPU、DPU、NVLink、NVLinkスイッチ、ネットワーキングチップシステム、およびNVIDIA CUDAソフトウェアを統合し、ケース、産業、国を超えて次世代のAIを強化します。 第5世代のNVLinkを搭載したNVIDIA GB 200 NVL72システムは、72個のGPUすべてが単一のGPUとして機能し、LLMやワークロードの推論を最大30倍高速化し、兆単位のパラメータモデルをリアルタイムで実行する能力を解き放ちます。
Hopperの需要は旺盛で、Blackwellは広くサンプリングされています。 生産歩留まりを向上させるため、Blackwell の GPU 質量を変更した。 Blackwellの増産は第4四半期に開始され、'26会計年度まで続く予定である。
第4四半期には、数十億ドルのBlackwellの出荷を見込んでいる。 2025年度下期にはホッパーの出荷が増加する見込み。 ホッパーの供給と稼働率は改善している。 ブラックウェル・プラットフォームの需要は供給を大きく上回っており、この状況は来年も続くと予想される。 ネットワーキングの収益は前四半期比16%増加した。
当社のエンド・ツー・エンドのイーサネット・プラットフォームであるSpectrum-Xを含むAI向けイーサネットの売上高は、数百社の顧客が当社のイーサネット製品を採用したことにより、前四半期比で倍増した。 Spectrum-XはOEMおよびODMパートナーから幅広い市場支持を得ており、CSP、GPUクラウドプロバイダー、X-AIが世界最大のGPUコンピュートクラスタを接続するなど、企業で採用されている。
Spectrum-Xは、AI処理向けにイーサネットをスーパーチャージし、従来のイーサネットの1.6倍の性能を実現します。 私たちは、現在の数万DPUから近い将来には数百万GPUへとコンピュートクラスタを拡張する需要をサポートするため、毎年新しいSpectrum-X製品を発表する予定です。 Spectrum-Xは、1年以内に数十億ドル規模の製品ラインを開始する予定です。 各国がAIの専門知識とインフラを自国の社会と産業にとって必要不可欠なものと認識しているため、当社のソブリンAIの機会は拡大し続けています。
日本の産業技術総合研究所は、エヌビディアとAIブリッジングクラウドインフラ3.0スーパーコンピュータを構築しています。 我々は、ソブリンAIの売上高は今年2桁億円台前半に達すると見ている。 エンタープライズAIの波は始まった。 当四半期も企業が前四半期比増収を牽引しました。 当社は、フォーチュン100社のほとんどと、業界や地域を超えたAIイニシアティブで協業しています。 AIを搭載したチャットボット、ジェネレーティブAIコピロット、収益化可能な新しいビジネス・アプリケーションを構築し、従業員の生産性を高めるエージェントなど、さまざまなアプリケーションが当社の成長を後押ししています。
Amdocsは、スマートエージェントにNVIDIAのジェネレーティブAIを採用し、顧客体験を変革し、顧客サービスのコストを30%削減しています。 ServiceNowは、Now Assist製品にNVIDIAを使用しており、同社史上最も急成長している新製品です。 SAPは、デュアルCo-pilotsを構築するためにNVIDIAを使用しています。 Cohesityは、NVIDIAを使用してジェネレーティブAIエージェントを構築し、ジェネレーティブAIの開発コストを削減しています。 Snowflakeは、10,000社以上の企業顧客に1日30億以上のクエリを提供しており、NVIDIAと協力してCopilotsを構築しています。 最後に、WistronはNVIDIA AI Omniverseを使用して、工場のエンドツーエンドのサイクルタイムを50%短縮しています。
自律走行車技術を開発するすべての自動車メーカーがデータセンターでエヌビディアを使用しているため、自動車は当四半期の主要な成長ドライバーでした。 オートモーティブは、オンプレミスとクラウドの両方で数十億ドルの売上を牽引し、次世代AVモデルが大幅に多くのコンピュート(計算能力)を必要とするようになるにつれて成長するだろう。 ヘルスケアもまた、AIが医療画像、手術ロボット、患者ケア、電子カルテ処理、創薬に革命を起こすにつれて、数十億ドル規模のビジネスになりつつあります。
当四半期中、我々は、MetaのLlama 3.1、モデルのコレクションで世界の企業のためのジェネレーティブAIを超強化するための新しいNVIDIA AIファウンドリサービスを発表した。 これはエンタープライズAIにとって画期的な出来事です。 企業は初めて、オープンソースのフロンティア・レベル・モデルの能力を活用し、カスタマイズされたAIアプリケーションを開発することで、自社の制度知識をAIフライホイールにエンコードし、ビジネスを自動化・加速することができる。
アクセンチュアは、この新サービスを採用した最初の企業であり、自社での使用と、ジェネレーティブAIアプリケーションの導入を目指すクライアントを支援するために、カスタムLlama 3.1モデルを構築します。 Nvidia NIMはモデル展開を加速し、簡素化します。 アラムコ、ロウズ、ウーバーなど、ヘルスケア、エネルギー、金融サービス、小売、運輸、通信などの企業がNIMを採用している。 AT&Tは、生成AI、通話トランスクリプション、分類のためにNIMに移行した後、70%のコスト削減と8倍のレイテンシ削減を実現した。
150社以上のパートナーがAIエコシステムのあらゆるレイヤーにNIMを組み込んでいます。 私たちは、企業のジェネレーティブAIアプリケーションを構築・展開するためのソフトウェア一式を含む、カスタマイズ可能なリファレンス・アプリケーションのカタログであるNIM agent Blueprintsを発表しました。 NIMエージェント・ブループリントを利用することで、企業はAIアプリケーションを改良し、データ駆動型のAIフライホイールを構築することができます。 最初のNIMエージェント・ブループリントには、顧客サービス、コンピュータ支援創薬、企業検索拡張世代などのワークロードが含まれています。
当社のシステム・インテグレーター、テクノロジー・ソリューション・プロバイダー、システム・ビルダーは、NVIDIA NIMエージェント・ブループリントを企業に提供しています。 NVIDIA NIMとNIMエージェントのブループリントは、勢いのあるNVIDIA AIエンタープライズ・ソフトウェア・プラットフォームを通じて利用できます。 当社のソフトウェア、SaaS、およびサポートの収益は、今年を最後に年間20億ドルに近づくと予想しており、NVIDIA AI Enterpriseは特に成長に貢献しています。
ゲーミングとAI PCに移ります。 ゲーミング事業の売上高は28.8億ドルで、前四半期比9%増、前年同期比16%増となった。 コンソール、ノートブック、デスクトップの売上は前四半期比で増加し、需要は堅調に伸びており、チャネル在庫は健全な状態を維持している。 RTX搭載PCはすべてAIPCです。 RTX PCは最大1,300のAIトップを提供することができ、現在、主要PCメーカーから200を超えるRTX AIノートPCが設計されています。
600のAI搭載アプリケーションとゲーム、そして1億台のデバイスのインストールベースにより、RTXはジェネレーティブAIによる消費者体験に革命をもたらすでしょう。 NVIDIA ACEは、ジェネレーティブAI技術のスイートであり、RTX、AI PCで利用可能です。 メカBREAKは、NVIDIA ACEを使用した最初のゲームであり、当社のスモール・ラージ・スモール言語モデル、デバイス推論に最適化されたMinitron-4Bを含みます。
NVIDIAのゲーム・エコシステムは成長を続けており、最近では、インディ・ジョーンズとグレート・サークル、デューン覚醒、ドラゴンエイジ:ヴェールガードを含むRTXおよびDLSSタイトルが追加されました。 GeForce NOWライブラリは、クラウド・ゲーミング・サービスの中で最多のコンテンツである2,000タイトルを超える総カタログ・サイズで拡大を続けています。
Proビジュアライゼーションへ移行。 売上高は4億5,400万ドルで、前四半期比6%増、前年同期比20%増となった。 モデル微調整やオムニバース関連のワークロードなど、AIやグラフィックのユースケースが需要を牽引している。 自動車と製造業は、今四半期の成長を牽引した主要な業種のひとつである。 企業は、業務全体の効率化を推進するために、ワークフローのデジタル化を競っています。
世界最大の電子機器メーカーであるFoxconnは、NVIDIA Omniverseを使用して、NVIDIA Blackwellシステムを生産する物理的な工場のデジタルツインを構築しています。 また、メルセデス・ベンツを含むいくつかのグローバル大企業は、工場の産業用デジタルツインを構築するために、NVIDIA Omniverse Cloudの複数年契約を結びました。 新しいNVIDIA USD NIMとコネクタを発表し、Omniverseを新しい業界に開放するとともに、開発者がジェネレーティブAIコピロットとエージェントをUSDワークフローに組み込むことを可能にし、高精度の仮想世界を構築する能力を加速します。 WPPは、コカ・コーラ社などの顧客向けに、ジェネレーティブAI対応のコンテンツ作成パイプラインにUSD NIMマイクロサービスを実装している。
自動車およびロボティクスの売上高は3億4,600万ドルで、前四半期比5%増、前年同期比37%増となった。 前年同期比の成長は、自動運転プラットフォームにおける新規顧客開拓とAIコックピット・ソリューションの需要増加が牽引した。 コンシューマー向けでは、Computer Vision and Pattern Recognitionカンファレンスで、エヌビディアはAutonomous Brand Challengeのエンド・ツー・エンド・ドライビング・アットスケール部門で、世界400以上のエントリーを抑えて優勝した。 Austin Dynamics、BYD Electronics、Figure、Intrinsic、Siemens、Skilled ADI、Teradyne Roboticsは、NVIDIA Isaac Roboticsプラットフォームを自律型ロボットアーム、ヒューマノイド、モバイルロボットに使用しています。
さて、損益計算書の残りの部分に移ります。 GAAPベースの売上総利益率は75.1%、非GAAPベースの売上総利益率は75.7%でしたが、データセンターにおける新製品の構成比が高まったことと、低歩留まりのブラックウェル材の在庫引当金の計上により、前四半期比で低下しました。 GAAP基準および非GAAP基準の営業費用は、主に報酬関連費用の増加を反映し、前四半期比で12%増加した。 営業キャッシュフローは 145 億ドルであった。
第2四半期には、1株当たり配当金の増額を反映し、74億ドルの現金を自社株買いおよび現金配当の形で株主還元に充当した。 取締役会は先ごろ、500億ドルの自社株買戻し枠を承認し、第2四半期末時点の残り枠75億ドルに追加しました。
第3四半期の見通しについてご説明します。 総収益は、プラスマイナス2%で、325億ドルとなる見込みです。 第3四半期の売上高見通しには、Hopperアーキテクチャの継続的な成長とBlackwell製品のサンプリングが織り込まれている。 Blackwellの生産は第4四半期に立ち上がる見込みである。 GAAPベースの売上総利益率は74.4%、非GAAPベースの売上総利益率は75%、プラスマイナス50bpを見込んでいる。
データセンターの構成は引き続き新製品にシフトしており、この傾向は2025年度第4四半期も続くと予想しています。 通期の売上総利益率は70%台半ばを見込んでいます。 GAAP基準の営業費用は約43億ドル、非GAAP基準の営業費用は約30億ドルとなる見込みです。
次世代製品の開発に取り組むため、通期の営業費用は40%台半ばから後半の伸びが見込まれます。 GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資および公開株式からの損益を含め、約3億5,000万ドルを見込んでいます。
GAAPおよび非GAAPベースの税率は、個別項目を除き、プラスマイナス1%の17%となる見込みです。 財務の詳細については、CFOのコメントおよびIRウェブサイトでご覧いただけるその他の情報に記載しています。 ただいまよりご質問を受け付けます。
オペレーターの方、質問の投票をお願いします。
質疑応答
オペレーター
ありがとうございます。 [最初のご質問は、バンク・オブ・アメリカ証券のヴィヴェック・アリヤさんからです。 どうぞよろしくお願いいたします。
ヴィヴェク・アーリャ
私の質問に答えてくれてありがとう。 ジェンセン、あなたは準備されたコメントの中で、ブラックウェルのGPUマスクに変更があると言っていましたね。 バックエンドのパッケージングやその他の変更点はありますか? それに関連して、あなたは設計変更にもかかわらず、第4四半期に数十億ドルのブラックウェルを出荷できると示唆したと思います。 それまでにこれらの問題がすべて解決されるからでしょうか? Blackwellのタイミングが変更された場合、全体的にどのような影響があるのでしょうか? また、それに対する顧客の反応はどうですか?
ジェンセン・ファン
ああ、ありがとう、ビベック。 マスクの変更は完了しました。 機能的な変更は必要なかった。 それで、私たちは今、Blackwell--Grace Blackwell--の機能サンプルを、さまざまなシステム構成でサンプリングしています。 Computexで展示されたBlackwellベースのシステムは、100種類ほどあります。 そして私たちは、エコシステムがそれらのサンプリングを開始できるようにしています。 Blackwellの機能はそのままで、第4四半期には生産を開始する予定です。
オペレーター
次のご質問はゴールドマン・サックスの針俊哉さんからです。 お待たせしました。
針 俊哉
こんにちは、質問を受けてくださってありがとうございます。 ジェンセン、私は比較的長期的な質問をしました。 ご存じかもしれませんが、市場では御社の顧客や顧客の投資利益率、そしてそれが今後の設備投資の持続可能性にどのような意味を持つかについて、かなり激しい議論が交わされています。 エヌビディアの社内では、皆さんはどのようなことに注目していますか? ダッシュボードに何が表示されているのでしょうか。
それから、コレットにフォローアップをお願いします。 通期のソブリンAIの数字が数十億ドル上がったと思います。 この見通しの改善の要因は何でしょうか? また、26年度についてどのように考えるべきでしょうか? ありがとうございました。
ジェンセン・ファン
トシヤ、ありがとう。 まず、私が第4四半期に生産を出荷すると言ったのは、出荷するという意味です。 生産開始という意味ではなく、出荷という意味です。 もっと長期的な質問ですが、一歩引いて考えてみてください。 1つ目は、アクセラレーテッド・コンピューティングから......汎用コンピューティングからアクセラレーテッド・コンピューティングへの移行です。 その理由は、CPUのスケーリングが遅くなっていることが以前から知られていたからだ。 しかも、そのスピードは遅々として進まない。 それにもかかわらず、コンピューティングの需要量は大幅に増え続けている。 もしかしたら毎年倍増しているかもしれません。
ですから、新しいアプローチがなければ、コンピューティングのインフレはすべての企業のコストを押し上げ、世界中のデータセンターのエネルギー消費を押し上げることになるでしょう。 実際、あなたもそれを目の当たりにしているでしょう。 そして、その答えがアクセラレーテッド・コンピューティングなのです。 もちろん、アクセラレーテッド・コンピューティングがアプリケーションを高速化することは承知している。 また、科学シミュレーションやデータベース処理など、より大規模なコンピューティングが可能になります。 しかし、それがそのままコストや消費エネルギーの削減につながるのです。
実際、今週発表されたブログには、私たちが提供する新しいライブラリの数々が紹介されています。 これは、汎用コンピューティングからアクセラレーテッド・コンピューティングへの最初のプラットフォーム移行の中核をなすものです。 計算コストを90%削減することも珍しくありません。 その理由は、もちろん、アプリケーションを50倍に高速化すれば、コンピューティング・コストは大幅に低下するはずだからだ。
もうひとつは、高速化されたコンピューティングによって、大規模な言語モデルのトレーニングやディープラーニングのトレーニングのコストが驚くほど下がったことです。巨大なスケールのモデル、数兆のパラメーターを持つモデルを持つことが可能になり、それを世界中の知識コーパスで事前にトレーニングし、モデルに人間の表現方法を理解させることができるようになりました。
今、ジェネレーティブAIは、なぜ私たちがこれほど深入りしたのかを一歩引いて考えてみると、それは単なる機能ではなく、単なる能力でもなく、ソフトウェアを行うための根本的な新しい方法だからです。 人間が設計したアルゴリズムの代わりに、私たちは今データを持っています。 私たちはAIに、モデルに、コンピューターに、何が......予想される答えは何か、過去の観察結果は何かを伝えます。 そしてAIがアルゴリズムや関数を理解する。 AIは普遍的な...AIは普遍的な関数近似器のようなもので、その関数を学習します。
だから、ほとんどあらゆるものの機能を学習することができるんだ。 予測可能なもの、構造を持っているもの、過去の事例があるものなら何でもです。 そして今、私たちはジェネレーティブAIを手に入れた。 これはコンピューターサイエンスの基本的な新しい形だ。 CPUからGPUまで、人間が設計したアルゴリズムから機械学習されたアルゴリズムまで、コンピューティングのあらゆるレイヤーがどのように行われるかに影響を及ぼしている。 そして、開発・生産できるアプリケーションの種類は、根本的に驚くべきものとなっている。
ジェネレーティブAIでは、いくつかのことが起こっています。 まず第一に、フロンティア・モデルの規模がかなり大きくなってきている。 そして今もなお、スケーリングのメリットを実感している。 モデルのサイズを2倍にすると、それを訓練するためのデータセットのサイズも2倍以上になります。 そのため、モデルを作成するために必要なフロップ数は二次関数的に増加する。 ですから、次世代モデルが前世代モデルの20倍、10倍、20倍、40倍の計算を必要とすることは珍しいことではありません。
ですから、私たちは世代を超えたパフォーマンスを大幅に向上させ続けなければなりませんし、そのために消費されるエネルギーを削減し、必要なコストを削減することができるのです。 第一に、より多くのモダリティでトレーニングされたより大きなフロンティア・モデルが存在し、驚くことに、昨年よりも多くのフロンティア・モデル・メーカーが存在します。 つまり、より多く、より多く、より多く、ということです。 これが生成AIのダイナミクスのひとつです。 もうひとつは、氷山の一角にすぎないということです。 私たちが目にするのは、ChatGPTや画像ジェネレーター、そしてコーディングです。 NVIDIAでは現在、コーディングにジェネレーティブAIをかなり広範囲に使用しています。
もちろん、デジタル・デザイナーもたくさんいます。 しかし、それは氷山の一角です。 氷山の一角の下にあるのは、世界最大のシステムであり、今日の世界最大のコンピューティング・システムである。 つまり、レコメンド・システム、広告生成、非常に大規模な広告をターゲットにしたカスタム広告生成、検索やユーザー生成コンテンツをターゲットにした超大規模な広告生成などです。 これらはすべて非常に大規模なアプリケーションであり、現在ではジェネレーティブAIへと進化している。
もちろん、ジェネレーティブAIの新興企業の数は、クラウドパートナーやソブリンAIに数百億ドルのクラウドレンタルの機会を生み出している。 各国は今、データが自国の天然資源であり国家資源であることを認識し、AIを利用しなければならない、AIインフラを構築し、自国のデジタル・インテリジェンスを手に入れなければならないと考えています。
先ほどコレットが言ったように、エンタープライズAIが始まっています。世界の主要なIT企業が、エヌビディアのAIエンタープライズ・プラットフォームを世界の企業に提供するために私たちに参加するという発表をご覧になったかもしれません。 私たちが話をしている企業。 彼らの多くは、自社の生産性を向上させることに非常に興奮しています。
それからジェネラル・ロボティクス。 昨年の大きな変革は、ビデオや人間の実演を見て物理的なAIを学習したり、オムニバースのようなシステムによる強化学習から合成データを生成できるようになったことです。 私たちは現在、一般的なロボット工学の構築について考え始めるために、あらゆるロボット工学企業と協力することができるようになりました。 このように、ジェネレーティブAIの方向性は実にさまざまです。 そして実際に、ジェネレーティブAIの勢いが加速しているのを目の当たりにしています。
コレット・クレス
そしてトシヤ、ソブリンAIと私たちの成長目標、収益目標についてのご質問にお答えしますと、それは確かにユニークで成長する機会です。ジェネレイティブAIと世界中の国々が、その国の言語、文化、データを取り入れることができる独自のジェネレイティブAIを持ちたいという願望から表面化したものです。 そのため、このようなモデルや、そのような国々に特化したモデルについて、ますます盛り上がりを見せている。 ですから、私たちの目の前には成長のチャンスが広がっているのです。
オペレーター
次のご質問はモルガン・スタンレーのジョー・ムーアです。 お待たせしました。
ジョー・ムーア
素晴らしい。 ありがとうございます。 ジェンセン プレスリリースの中で、あなたはBlackwellの見込みがすごいとおっしゃっていましたが、Hopperの需要も本当に強いようです。 つまり、あなたは10月のBlackwell抜きで非常に好調な四半期をガイダンスしています。 では、両方の旺盛な需要が共存するのはいつまでと見ていますか? また、ブラックウェルへの移行についてお聞かせください。 クラスター間の混在は見られますか? ブラックウェルの活動のほとんどは新しいクラスターだと思いますか? その変遷はどのようなものなのでしょうか?
ジェンセン・ファン
ありがとう、ジョー。 ホッパーの需要は本当に強いし、その通りだ。 ブラックウェルの需要はすごい。 それにはいくつかの理由があります。 1つ目の理由は、世界のクラウドサービス・プロバイダーが利用可能なGPU容量を調べてみると、基本的に皆無に等しいということです。 その理由は、GPUが自社のワークロード(データ処理など)を高速化するために社内で導入されているからです。
データ処理については、私たちはほとんど話題にしません。 しかし、世界中のほとんどすべての企業が、バックグラウンドでデータを処理しています。 そしてNVIDIAのGPUは、データを処理し加速する地球上で唯一のアクセラレータなのです。 SQLデータ、Pandasデータサイエンス、Pandasや新しいPolarsのようなツールキット、これらは世界で最も人気のあるデータ処理プラットフォームです。
そして、CPUは別として、前にも述べたように、CPUは本当に息切れしており、Nvidiaのアクセラレーテッド・コンピューティングは、そのパフォーマンスを向上させる唯一の方法です。 ジェネレーティブAIが登場するずっと前から、アプリケーションを次々とアクセラレーテッド・コンピューティングに移行させることが、第一の主要なユースケースでした。
2つ目は、もちろんレンタルだ。 ジェネレーティブAI企業は、投資した資本の大半をインフラに費やし、AIを使って製品作りを支援できるようにしている。 そのため、これらの企業は今、AIを必要としている。 ただ単に余裕がないだけなんだ......資金を集めただけなのに......彼らはそれを今すぐ使ってほしいと思っている。 やらなければならないことがある。 来年にはできない。 それが1つの理由です。
今ホッパーが求められている2つ目の理由は、次のプラトーへの競争です。 つまり、次のプラトーに最初に到達した人は、革命的なレベルのAIを導入することになる。 そのため、次のプラトーに到達した2番目の人物は、少しずつ良くなっていくか、同じ程度になります。 ですから、体系的かつ一貫して次のプラトーまで競争し、そこで一番になる能力が、リーダーシップを確立する方法なのです。 エヌビディアは常にそれを実践しており、GPUやAI工場、ネットワーキング・システム、SOCの開発を通じて、それを世界に示しています。
つまり、私たちはペースを作りたいのです。 常に世界一でありたい。 それが、私たちが自らを厳しく駆り立てる理由だ。 そしてもちろん、私たちは夢が実現するのを見たいし、将来想像するすべての能力、社会にもたらすことができる利益を見たい。 私たちは、そのすべてが実現するのを見たいのです。 モデルメーカーたちも同じだ。 彼らは......もちろん、世界一になりたいと思っているし、世界一になりたいと思っている。 Blackwellは今年末に数十億ドル規模の出荷を開始する予定ですが、能力の立ち上がりはまだ数週間から1カ月ほど先でしょう。 そのため、今とその間のジェネレーティブAI市場には多くの動きがあります。
そのため、誰もが本当に急いでいる。 運用上の理由で必要なのか、加速コンピューティングが必要なのか。 これ以上、汎用コンピューティング・インフラを構築したくないのです。Hopperでさえ、もちろんH200は最先端です。 ホッパーは、ビジネス用のCPUインフラを今すぐ構築するか、ビジネス用のホッパー・インフラを今すぐ構築するかの選択を迫られれば、その決断は比較的明確です。 そのため、人々は1兆ドル規模の設置済みインフラを、Hopperの最新鋭のインフラに移行させようと躍起になっているのだと思います。
オペレーター
次の質問はTDコーウェンのマット・ラムジーです。 お待たせしました。
マット・ラムジー
ありがとうございます。 皆さん、こんにちは。 投資家がこの設備投資のROI(投資利益率)について議論していることについて、以前の質問に戻りたいと思います。 しかし、私が議論しているのは、このような資金を費やし、AGIの収束に向けてフロンティアを押し広げようとしている人々の割合についてです。
そして、そのようなレベルに到達するためには、業界や企業にとって非常に多くのドアが開かれるため、関係なくお金を使うでしょう。 この区別が意味を持つかどうかはわかりません。 ただ、この新しいテクノロジーに資金を投入する人たちの優先順位と、その投資の優先順位と時間枠をどのように見ているのか、感覚的に知りたいのです。 ありがとうございます。
ジェンセン・ファン
ありがとう、マット。 NVIDIAのインフラに投資している人たちは、すぐにリターンを得ています。 NVIDIAのインフラは、今日できる投資の中で最高のROI(投資収益率)です。 このことを考える1つの方法として、おそらく最も簡単な方法は、最初の原則に立ち返ることです。 兆ドル相当の汎用コンピューティング・インフラがあるわけですが、問題は、それをさらに構築したいのか、したくないのかということです。 そして、10億ドル相当の汎用CPUベースのインフラを構築するごとに、おそらく10億ドル以下でレンタルすることになるでしょう。 つまり、コモディティ化しているのです。 すでに1兆ドルの資金がある。 これ以上増やしてどうするんだ?
ホッパー・ベースのインフラを構築し、やがてブラックウェル・ベースのインフラを構築すると、彼らはお金を節約し始める。 これは投資に対する大きなリターンだ。 そして、なぜ彼らがお金を節約し始めるかというと、データ処理がお金を節約し、データ処理が価格を決めるからです。 だから、推奨されるシステムは節約になる。 そうすれば、お金を節約することができます。
もうひとつは、ジェネレーティブAIを開発するために多くの企業が設立されているので、あなたが立ち上げたものはすべてレンタルされるということです。 そのため、あなたの能力はすぐにレンタルされ、その投資対効果は実に高い。 そして3つ目の理由は、あなた自身のビジネスです。 次世代広告システムや次世代レコメンド・システム、次世代検索システムによって、次のフロンティアを自分で作りたい、あるいは自社のインターネット・サービスが恩恵を受けたいとお考えですか?
自社サービス、自社店舗、自社ユーザー生成コンテンツ、自社サービスのソーシャルメディア・プラットフォームにとって、ジェネレーティブAIはROIも速い。 このように、さまざまな方法が考えられます。 しかし、核心にあるのは、それが今日地上に設置できる最高のコンピューティング・インフラだからです。 汎用コンピューティングの世界は、アクセラレーテッド・コンピューティングに移行しつつある。 人間が設計したソフトウェアの世界は、ジェネレーティブAIソフトウェアへと移行しつつある。 クラウドやデータセンターを近代化するためのインフラを構築するのであれば、NVIDIAのアクセラレーテッド・コンピューティングを利用してください。 それが最善の方法です。
オペレーター
次の質問はUBSのティモシー・アルクリです。 お待たせしました。
ティモシー・アルクリ
ありがとうございます。 近い将来と長期的な収益の伸びについて質問があります。 コレットさん、あなたは今年度の営業経費を増やしましたよね。 また、購入コミットメントや供給義務の増加を見ると、かなり強気です。 一方で、液冷に対応できる顧客はそれほど多くないという意見もありますし、これらのラックの一部は空冷が可能だと認識しています。 しかし、ジェンセン、ブラックウェルがどのように成長していくのか、それを検討する必要があるのでしょうか?
そして、来年以降を見据えたとき、それは明らかに素晴らしい年になると思いますが、26年を見据えたとき、例えば電力やサプライチェーン、あるいはある時点でモデルが小型化し始めるといったような、他のゲート要因について心配することはありますか? それについて話していただけますか? ありがとう。
ジェンセン・ファン
逆算してみます。 質問には本当に感謝しているよ、ティム。 世界は汎用コンピューティングからアクセラレーテッド・コンピューティングへと移行しつつあります。 そして、世界は約1兆ドル相当のデータセンターを建設しており、数年後には1兆ドル相当のデータセンターがすべてアクセラレーテッド・コンピューティングになるだろう。 これまでのデータセンターにはGPUはなく、CPUだけだった。 将来的には、すべてのデータセンターにGPUが導入されるでしょう。 その理由は明確で、ワークロードを高速化することで、持続可能性を維持し、コンピューティングのコストを下げ続けることができるからです。
第二に、ジェネレーティブAIと呼ばれる新しいコンピューティング・モデルのためにGPUが必要です。 つまり、逆算して考えるならば、世界のインフラにおける次の1兆ドルは、過去1兆ドルとは明らかに異なり、大幅に加速されることになるでしょう。
タラップの形状に関して、私たちはBlackwellの複数のコンフィギュレーションを提供しています。 Blackwellには、我々がVoltaで開拓したHGXフォームファクターを使用するBlackwell classicと、Voltaだったと思いますが、HGXフォームファクターを使用するBlackwell classicがあります。 HGXフォームファクターは以前から出荷しています。 これは空冷式です。 グレース・ブラックウェルは液冷だ。 しかし、液冷化を望むデータセンターの数は非常に多い。
その理由は、液冷データセンターであれば、電力制限のあるデータセンターでも、どのような規模のデータセンターでも、従来に比べて3倍から5倍のAIスループットを導入・展開できるからです。 液冷の方が安価で、液冷の方がTCOが優れています。液冷では、NVLinkと呼んでいる機能の恩恵を受けることができ、グレース・ブラックウェルの72パッケージまで拡張することができます。
NVLinkで接続された144個のGPUを想像してみてください。 そして次のクリックは、非常に低レイテンシーで、非常に高いスループットの大規模言語モデル推論です。 ラージドメインはその点で画期的です。 ですから、皆さんは両方を導入することに抵抗はないと思います。 ですから、私たちがお付き合いしているほとんどのCSPは、両方を導入しています。 ですから、私たちはうまく立ち上げることができると確信しています。
つ目のご質問は、来年は素晴らしい年になるということです。 来年はデータセンター・ビジネスが大きく成長すると期待しています。 Blackwellは業界にとって完全にゲームチェンジャーになるだろう。 そしてBlackwellは翌年も続くだろう。 そして、先ほど申し上げたように、第一原理から逆算することです。
それは、汎用コンピューティングがアクセラレーテッド・コンピューティングに移行し、人間が設計したソフトウェアがジェネレーティブAIや人工知能が学習したソフトウェアに移行するということです。
オペレーター
次の質問はバーンスタイン・リサーチのステイシー・ラスゴンです。 お待たせしました。
ステイシー・ラスゴン
やあ、みんな。 私の質問に答えてくれてありがとう。 コレットに2つ短い質問があります。 1つ目は、第4四半期のブラックウェルの収益は数十億ドルでした。 これは追加的なものでしょうか? ホッパーの需要は下半期に強化されると予想していると言ったね。 それは、ブラックウェルが数十億ドルを追加するのに加えて、ホッパーも第3四半期から第4四半期にかけて強化されるということですか?
粗利率に関する2つ目の質問ですが、もし通期で70%台半ばとした場合、どのあたりまで引き下げたいかを説明してください。 通期で75%だとすると、第4四半期は71%から72%といったところでしょうか。 売上総利益率の出口レートはそのようなものでしょうか? また、Blackwellが立ち上がる来年に向けて、売上総利益率を押し上げる要因についてどのように考えるべきでしょうか? 歩留まりや在庫引当金、その他もろもろが上がってくればいいのですが。
コレット・クレス
ステイシーさん、まずホッパーとブラックウェルについてお聞きします。 ホッパーは下半期も成長し続けると思います。 ホッパーには多くの新製品があり、ホッパーの既存製品も、第3四半期を含む次の四半期に立ち上がり、それらの新製品は第4四半期に移行すると考えています。 そのため、対上半期のHopperは成長のチャンスと言えるでしょう。 さらに、その上にBlackwellがあり、Blackwellは第4四半期に立ち上がり始めます。 ですから、この2つについてはお役に立てると思います。
2つ目は売上総利益率についてです。 第3四半期の売上総利益率は約75%でした。 Non-GAAPベースの粗利益率は約75%でした。 第3四半期には75%を達成できると考えています。 通期でも70%台半ば、あるいは75%程度を維持できると考えています。 そのため、第4四半期には若干の差異が生じる可能性があります。
繰り返しになりますが、新製品の導入に伴う移行とコスト構造の違いによるものです。 しかし、私は貴社と同じような数字にはなっていません。 正確なガイダンスがあるわけではありませんが、私たちがいるところよりも低い数字だと思います。
オペレーター
次のご質問はメリウスのベン・ライツです。 回線をお開けします。
ベン・ライツェス
ジェンセン、コレット、質問ありがとう。 地域についてお聞きしたいのですが。 10-Qが発表され、米国は前四半期比で減少しましたが、アジアのいくつかの地域は前四半期比で大幅に増加しました。 そこではどのような力関係があるのでしょうか? 中国が非常に好調なのは明らかです。 あなたの発言にもありましたが、プットとテイクは何ですか?
それから、ステイシーの質問からはっきりさせたいのですが、第4四半期に会社全体の前期の収益成長率が加速するということですか? ありがとうございます。
コレット・クレス
10-Qでの情報開示について少しお話ししましょう。 適切な情報開示を行うには、ある重要なピースを用意する必要があり、非常に難しいことです。 その1つとは、誰に販売するのか、あるいは誰に請求書を発行するのかという点です。 つまり、あなたが見ているのは、私たちが請求書を発行する相手です。 その製品が最終的にエンド・カスタマーに行き渡るのは必ずしもそこではありません。 OEMやODM、システム・インテグレーターに移行しているのです。
そのため、データセンターやノートPCに導入される前の完全なコンフィギュレーションを完了させるために、OEMやシステム・インテグレーターが迅速にシフトしているのです。 そのようなシフトは時々起こります。 しかし、そうです。当社の中国での数字は、ゲーム、データセンター、自動車の両方を取り込んでいることを念頭に置いています。
売上総利益率について、またホッパーとブラックウェルの収益についてお聞かせください。 ホッパーは下半期も成長を続けるでしょう。 現在見ているところから成長を続けるでしょう。 第3四半期と第4四半期における正確なミックスを決定することはできません。 第4四半期については、まだご案内できる段階ではありません。 しかし、今現在は需要に対する期待を見ている。 第4四半期には成長のチャンスとなることが見えています。 それに加えて、ブラックウェル・アーキテクチャーがあります。
オペレーター
次の質問は、キャントル・フィッツジェラルドのC.J.ミューズです。 お待たせしました。
C.J.ミューズ
はい、こんにちは。 質問にお答えいただきありがとうございます。 複雑さが増し、先進的なパッケージの世界では根本的な制約があるため、課題はますます大きくなると思われます。 このような背景から、垂直統合やサプライチェーン・パートナーシップの拡大、そして利益率への影響についてどのようにお考えですか? ありがとうございました。
ジェンセン・ファン
ああ、ありがとう。 それでは。 最初の質問に対する答えは......私たちのベロシティがこれほど高い理由は、同時にモデルの複雑さが増しているからで、私たちはそのコストを下げ続けたいと考えています。 成長しているからこそ、その規模を拡大し続けたいのです。 そして、AIモデルの規模を拡大し続けることで、並外れた有用性のレベルに達し、それが次の産業革命をもたらすと信じています。 私たちはそう信じています。
だから私たちは、その規模を拡大し続けるために、本当に懸命に自分たちを駆り立てていくつもりだ。 われわれには、AI工場を設計する独自の能力がある。 すべての部品を持っていない限り、毎年新しいAI工場を考え出すことは不可能です。 来年は、当社の歴史上かつてないほど多くのCPU、もちろんGPUを出荷する予定です。さらに、NVLinkスイッチ、CX DPU、東西向けConnectX EPU、南北向けBluefield DPU、データ・ストレージ処理、スーパーコンピューティング・センター向けInfiniBand、イーサネット、これは当社にとってまったく新しい製品ですが、AIをイーサネットに導入する数十億ドル規模のビジネスに成長する途上にあります。
このように、私たちはこれらすべてにアクセスできるのです。 ご存知のように、我々は1つのアーキテクチャ・スタックを持っています。 そのおかげで、完成させながら新しい機能を市場に投入することができる。 そうでなければ、部品を出荷し、それを販売する顧客を見つけ、そして誰かがAI工場を建設しなければならない。 そしてAI工場には山のようなソフトウェアがある。
だから、誰がそれを統合するかは問題ではない。 私たちは、クアンタ、フォックスコン、HP、デル、レノボ、スーパーマイクロにサービスを提供できるという意味で、サプライ・チェーンが分解されているという事実を高く評価しています。 以前はZTにもサービスを提供していました。 彼らは最近買収されました。 ギガバイトやASUSなど、エコシステム・パートナーの数によって、世界中のクラウド・サービス・プロバイダーや企業のデータセンターに、すべて機能する当社のアーキテクチャをオーダーメイドで統合することができるのです。
ODMやインテグレーターのサプライチェーンから必要とされるスケールとリーチは広大で巨大です。 そのため、私たちはそのようなことはしたくないし、苦手なのです。 しかし、私たちはAIインフラを設計する方法を知っており、顧客が望む方法を提供し、エコシステムにそれを統合させることができます。 そうですね。 とにかく、そういうわけです。
オペレーター
最後のご質問はウェルズ・ファーゴのアーロン・レイカーズです。 お待たせしました。
アーロン・レイカーズ
はい、質問を受けてくださってありがとうございます。 Blackwellの製品サイクルに戻りたいと思います。 よく聞かれる質問のひとつに、NVLinkの活用を考える上で、Rack Scaleシステムの構成比をどう見ているかというものがあります。 GB、NVL72、そしてBlackwellの製品サイクルに関して、市場投入のダイナミズムをどのように見ていますか? Blackwellのサイクルについて考え始めたとき、ラック・スケール・システムのミックスはどのようになるとお考えですか?
ジェンセン・ファン
アーロン、ありがとう。 Blackwell Rackシステムは、ラックとして設計・デザインされていますが、システムコンポーネントを分割して販売しています。 ラック全体を販売しているわけではありません。 その理由は、意外にもラックが皆少しずつ違うからです。 OCP規格のラックもあれば、そうでないラックもありますし、エンタープライズラックもあります。 CDUの選択、電源バスバーの選択、構成、データセンターへの統合など、すべてが異なります。
そのため、私たちはラック全体を設計しました。 ソフトウェアはラック全体で完璧に動作します。 そして、システムコンポーネントを提供します。例えば、CPUとGPUコンピュートボードはMGXに統合され、モジュラーシステムアーキテクチャになります。 MGXは完全に独創的です。 工場内にはMGXのODMやインテグレーター、OEMがあります。
そのため、3,000ポンドのラックの納入を希望される場合、どのような構成でも可能です。 かなり重いので、データセンターの近くで組み立てられなければなりません。 そのため、GPU、CPU、スイッチ、NICを出荷する時点から、サプライチェーンのすべてがデータセンターの近くで行われます。 その時点から、統合はCSPの所在地やデータセンターの所在地にかなり近いところで行われます。 ですから、世界中にどれだけのデータセンターがあり、どれだけのロジスティクス・ハブがあるか、ODMパートナーとともにスケールアウトしていることは想像に難くありません。
そのため、1つのラックとして表示し、常にそのようにレンダリングし、表示しているため、我々が統合を行っているという印象を与えてしまっているのかもしれません。 私たちの顧客は、私たちが統合を行うことを嫌っています。 サプライチェーンは私たちが統合を行うことを嫌っている。 彼らは統合を望んでいる。 それが彼らの付加価値だ。 言ってみれば、最終的な設計がある。 データセンターにシムミーを入れるような単純なものではありませんが、デザイン・フィット・インは実に複雑です。
そのため、設置......設計の適合、設置、立ち上げ、修理、交換といったサイクル全体が世界中で行われています。 また、ODMやOEMパートナーのネットワークも充実しています。 だから、統合はラックを作る理由ではない。 統合を行うのは、統合を行うことの反理由なのだ。 私たちはインテグレーターにはなりたくない。 私たちはテクノロジー・プロバイダーになりたいのです。
オペレーター
それでは、ジェンセン・ファンの閉会のご挨拶に代えさせていただきます。
ジェンセン・ファン
ありがとうございます。 もう2、3......先ほど申し上げたコメントをもう一度させてください。 世界中のデータセンターは、アクセラレーテッド・コンピューティングとジェネレーティブAIによって、コンピューティング・スタック全体を近代化しようとフル回転している。 ホッパーの需要は依然として強く、Blackwellへの期待は信じられないほどです。 当社のトップ5を紹介しよう。 アクセラレーテッド・コンピューティングは転換点を迎えており、CPUのスケーリングは鈍化している。 アクセラレーテッド・コンピューティングは、CUDA-Xライブラリから始まります。 新しいライブラリはNVIDIAに新しい市場を開きます。
データサイエンスとデータ処理ライブラリの代表格であるPolar、Pandas、Sparkのアクセラレーション、ベクトル積ベクトルデータベース用のQVSなど、多くの新しいライブラリをリリースしました。 これは今、非常にホットです。 5Gワイヤレス基地局向けのAerialとSionna。 遺伝子配列決定のためのParabricksや、タンパク質構造予測のためのAlpha-fold 2は、現在CUDAアクセラレーションを採用しています。
私たちは、1兆ドル相当のデータセンターを汎用コンピューティングからアクセラレーテッド・コンピューティングへと近代化する旅の始まりにいます。 それが第一だ。 2つ目は、BlackwellはHopperを一段階機能的に飛躍させたということです。 BlackwellはAIインフラ・プラットフォームであり、単なるGPUではありません。 当社のGPUの名前にも偶然入っていますが、AIインフラ・プラットフォームなのです。
Blackwellの詳細やサンプルシステムをパートナーや顧客に公開するにつれ、Blackwellのリードの大きさが明らかになります。 Blackwell Visionの実現には、約5年の歳月と7つのオンリーワンチップが必要でした。 Grace CPU、BlackwellデュアルGPU、coVSパッケージ、東西トラフィック用ConnectX DPU、南北およびストレージトラフィック用BlueField DPU、全GPU間通信用NVLinkスイッチ、InfiniBandとイーサネットの両方に対応するQuantumとSpectrum-Xは、AIの大規模なバーストトラフィックをサポートできる。 BlackwellのAI工場は、建物サイズのコンピューターである。
エヌビディアは、顧客がAI工場を素早く構築できるように、チップ、システム、ネットワーキング、さらには構造化ケーブル、電源、冷却、ソフトウェアのマウントに至るまで、Blackwellプラットフォームのフルスタックをエンドツーエンドで設計し、最適化した。 これらは非常に資本集約的なインフラです。 顧客は、機器を手に入れたらすぐに導入し、最高のパフォーマンスとTCOを実現したいと考えています。 Blackwellは、電力制限のあるデータセンターにおいて、Hopperの3倍から5倍のAIスループットを提供します。
3つ目はNVLinkです。 これは非常に大きな問題で、その全対全GPUスイッチはゲームチェンジャーです。 Blackwellシステムによって、72GB 200パッケージの144個のGPUを1つのNVLinkドメインに接続することができ、NVLinkの総帯域幅は1ラックで毎秒259テラバイトになります。 これはHopperの約10倍で、1秒あたり259テラバイトです。何兆ものトークンに対して何兆ものパラメータ・モデルのトレーニングを行う必要があるので、これは理にかなっています。 そのため、GPUからGPUへと自然な量のデータを移動させる必要があります。
推論では、低レイテンシー、高スループット、大規模言語モデル、トークン生成にNVLinkが不可欠です。 GPUスケールアップ用のNVLink、スーパーコンピューティングやAI専用工場用のQuantum InfiniBand、イーサネット上のAI用のSpectrum-Xです。 NVIDIAのネットワーキングのフットプリントは、以前よりもはるかに大きくなっています。
ジェネレーティブAIの勢いは加速している。 ジェネレーティブAIのフロンティアモデルメーカーは、モデルの安全性とIQを高めるため、次のAIプラトーへのスケールを競っている。 また、テキスト、画像、ビデオから3D、物理学、化学、生物学に至るまで、より多くのモダリティを理解するために規模を拡大している。 チャットボット、コーディングAI、画像ジェネレーターは急速に成長しているが、それは氷山の一角に過ぎない。
インターネット・サービスは、大規模なレコメンダー、広告ターゲティング、検索システムにジェネレーティブAIを導入している。 AIスタートアップ企業は、CSPのクラウド容量を年間数百億ドル消費しており、各国はAIの重要性を認識し、AIインフラに投資している。 そして、NVIDIA AIとNVIDIA Omniverseは、AI一般ロボティクスの次の時代を切り開こうとしています。
そして今、エンタープライズAIの波が始まり、企業のビジネス変革を支援する態勢が整いました。 NVIDIA AI Enterpriseプラットフォームは、NeMo、NIMS、NIMエージェント・ブループリント、AI Foundryで構成され、当社のエコシステム・パートナーである世界有数のIT企業が、AIモデルのカスタマイズや特注AIアプリケーションの構築を支援するために使用しました。
そして、企業はNVIDIA AI Enterpriseランタイムにデプロイすることができ、GPU1個あたり年間4,500ドルというNVIDIA AI Enterpriseは、AIをどこにでもデプロイするための特別な価値を持っています。 また、NVIDIAのソフトウェアTAMは、CUDA互換GPUのインストールベースが数百万から数千万に増加するにつれて、大きなものになります。 コレットが言ったように、NVIDIAのソフトウェアは20億ドルのランレートで今年を終えるでしょう。 本日はありがとうございました。
オペレーター
皆様、本日の電話会議を終了いたします。 これより通話をお切りください。
この記事が気に入ったらサポートをしてみませんか?