参考和訳NVIDIA (NVDA) 21 Feb 242024 Q4 Earnings call transcript

オペレーター
こんにちは。オペレーターを務めますロブと申します。エヌビディアの第4四半期決算説明会にようこそお越しくださいました。[オペレーターの指示に従ってください。シモナ・ヤンコフスキーさん、会議を始めてください。

シモナ・ステファン・ヤンコフスキー
ありがとうございます。皆さん、こんにちは。エヌビディアの第 4 四半期および 2024 年度のカンファレンス・コールへようこそ。本日はエヌビディアから、社長兼最高経営責任者のジェンセン・フアン、取締役副社長兼最高財務責任者のコレット・クレスが出席しています。この電話会議は、エヌビディアの投資家向けウェブサイトにてライブ中継されます。このウェブキャストは、2025会計年度第1四半期の財務結果についての電話会議まで再生可能です。本日の電話会議の内容はエヌビディアの財産です。当社の事前の書面による同意なしに複製または転写することはできません。

本通話の中で、当社は現在の予想に基づく将来の見通しに関する記述を行うことがあります。これらは多くの重大なリスクと不確実性の影響を受け、当社の実際の結果は大きく異なる可能性があります。

当社の将来の業績および事業に影響を与えうる要因については、本日の決算発表資料、当社の最新のForm 10-KおよびForm 10-Q、ならびに当社が証券取引委員会にForm 8-Kで提出する可能性のある報告書の開示をご参照ください。当社のすべての記述は、本日2024年2月21日現在、当社が現在入手可能な情報に基づいて作成されています。法律で義務付けられている場合を除き、当社はかかる記述を更新する義務を負いません。

本通話では、非GAAPベースの財務指標について説明します。

これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整は、当社のウェブサイトに掲載されているCFOのコメントに記載されています。それでは、コレットに電話を回します。

コレット・クレス
ありがとう、シモーナ。第4四半期も記録的な四半期でした。売上高は221億ドルで、前四半期比22%増、前年同期比265%増となり、見通しの200億ドルを大きく上回りました。

2024年度の売上高は609億ドルで、前年比126%増です。まずデータセンターから。2024年度のデータセンターの売上高は475億ドルで、前年度から3倍以上に増加した。世界は新たなコンピューティング時代の転換点を迎えている。兆ドル規模のデータセンター・インフラは、汎用コンピューティングから高速コンピューティングへと急速に移行している。

ムーアの法則が減速する一方で、コンピューティング需要は急増を続けているため、企業はパフォーマンス、TCO、エネルギー効率の将来的な改善を推進するため、あらゆるワークロードを高速化する可能性がある。同時に、企業は次世代の最新データセンター、いわゆるAIファクトリーの建設に着手しており、生データを精製し、生成的AIの時代に価値あるインテリジェンスを生み出すことを目的としている。第4四半期のデータセンターの売上高は184億ドルで、エヌビディア・ホッパーGPUコンピューティング・プラットフォームとインフィニバンド・エンド・ツー・エンド・ネットワーキングが牽引し、前四半期比27%増、前年同期比409%増と過去最高を記録した。コンピューティングの売上高は前年比5倍以上、ネットワーキングの売上高は3倍に増加しました。

Hopperアーキテクチャ製品の供給が改善していることを喜ばしく思います。Hopperに対する需要は依然として非常に強い。

需要が供給をはるかに上回っているため、当社の次世代製品は供給制約を受けると予想しています。第4四半期のデータセンターの成長は、幅広い産業、ユースケース、地域にわたる生成AIと大規模言語モデルの訓練と推論の両方によってもたらされました。当社のデータセンター・プラットフォームの汎用性とトップクラスの性能は、AIのトレーニングや推論、データ処理、幅広いCUDAアクセラレーション・ワークロードなど、多くのユースケースで高い投資対効果を実現します。過去1年間のデータセンター収益の約40%はAI推論向けだったと推定しています。AIソリューションの構築と導入は、事実上すべての業界に及んでいます。業界を問わず、多くの企業がAIモデルやサービスを大規模にトレーニングし、運用しています。ハイパースケール、GPU特化型、プライベートクラウド、またはオンプレミスを含むクラウドプロバイダーを通じて、NVIDIAのAIインフラを利用する企業があります。エヌビディアのコンピューティングスタックは、クラウドとオンプレミス環境をシームレスに拡張するため、顧客はマルチクラウドやハイブリッドクラウド戦略で展開することができます。第4四半期には、大規模なクラウドプロバイダーがデータセンター収益の半分以上を占め、社内のワークロードと社外のパブリッククラウド顧客の両方をサポートしました。マイクロソフトは最近、5万を超える組織がギットハブ・コパイロット・ビジネスを利用して開発者の生産性を高めており、ギットハブの収益成長が前年同期比40%増に加速していることを明らかにした。また、Copilot for Microsoft 365の導入は最初の2カ月で、過去2回のMicrosoft 365エンタープライズスイートの主要リリースを上回るペースで伸びた。コンシューマー・インターネット企業はAIを早くから採用しており、当社の最大の顧客カテゴリーの1つとなっています。検索からeコマース、ソーシャルメディア、ニュース、ビデオサービス、エンターテインメントに至るまで、さまざまな企業がディープラーニングベースの推薦システムにAIを利用しています。これらのAI投資は、顧客エンゲージメント、広告会話、クリックスルー率を向上させることで、強力なリターンを生み出している。Metaの最新四半期では、より正確な予測と広告主のパフォーマンス向上が収益の大幅な加速に寄与しているとしている。

さらに、消費者向けインターネット企業は、コンテンツや広告作成の自動化ツール、オンライン商品説明、AIショッピング支援を通じて、コンテンツ作成者、広告主、顧客をサポートするためにジェネレーティブAIに投資している。エンタープライズ・ソフトウェア企業は、顧客の生産性向上を実現するためにジェネレーティブAIを適用している。ジェネレーティブAIの学習と推論の両面で提携した顧客はすべて、すでに顕著な商業的成功を収めている。ServiceNowの最新四半期におけるジェネレーティブAI製品は、あらゆる新製品ファミリーのリリースの中で、過去最大の純新規年間契約額貢献を牽引しました。

私たちは、Adobe、Databricks、Getty Images、SAP、Snowflakeなど、他の多くの主要なAIおよびエンタープライズ・ソフトウェア・プラットフォームとも連携しています。Anthropic、Google、Inflection、Microsoft、OpenAI、xAIは、生成AIにおける驚異的なブレークスルーを続けています。Adept、AI21、Character.AI、Cohere、Mistral、Perplexity、Runwayといったエキサイティングな企業が、企業やクリエイターにサービスを提供するプラットフォームを構築している。

新しいスタートアップ企業は、世界の多くの地域特有の言語、文化、習慣に対応するLLMを開発している。また、リカージョン、製薬、生物学のためのジェネレーティブ・バイオメディシンなど、まったく異なる業界に対応する基盤モデルを構築している企業もあります。これらの企業は、ハイパースケールやGPUに特化したクラウドプロバイダーを通じて、NVIDIA AIインフラストラクチャの需要を促進しています。

ちょうど今朝、我々はGoogleと協業し、その最先端の新しいGemma言語モデルを最適化することで、クラウド、データセンター、PCのNVIDIA GPU上での推論性能を加速させたと発表したばかりです。

この1年で最も注目すべきトレンドの1つは、自動車、ヘルスケア、金融サービスなどの業界を横断する企業によるAIの大幅な採用です。エヌビディアは、フルスタックのアクセラレーテッド・コンピューティング・プラットフォームを活用し、自律走行、創薬、不正検知やロボット工学のための低遅延機械学習などの垂直領域で企業がAIを採用するのを支援する複数のアプリケーションフレームワークを提供しています。クラウドまたはオンプレミスを通じた自動車産業のデータセンター収益貢献は、昨年10億ドルを超えたと推定しています。NVIDIA DRIVEインフラストラクチャ・ソリューションには、データの取り込み、キュレーション、ラベリング、AIトレーニング、さらにシミュレーションによる検証を含む、自律走行開発のためのシステムとソフトウェアが含まれます。世界的なOEM、新エネルギー車、トラック輸送、ロボットタクシー、ティア1サプライヤーを網羅するほぼ80の自動車メーカーが、自動運転やAIコックピットアプリケーション用のLLMやその他のAIモデルを訓練するために、エヌビディアのAIインフラストラクチャを使用している。事実上、AIに取り組むほぼすべての自動車関連企業がエヌビディアと連携している。

AVアルゴリズムがビデオトランスフォーマーに移行し、より多くの自動車にカメラが搭載されるにつれて、エヌビディアの車載データセンターの処理需要は大幅に伸びると予想しています。ヘルスケアでは、デジタル生物学とジェネレーティブAIが、創薬、手術、医療用画像処理、ウェアラブルデバイスの改革に貢献しています。

当社は過去10年間にわたり、ヘルスケア分野における深い専門知識を構築し、NVIDIA Claraヘルスケアプラットフォームや、コンピュータ支援創薬のためのAI基盤モデルを開発、カスタマイズ、展開するためのジェネレーティブAIサービスであるNVIDIA BioNeMoを生み出してきました。BioNeMoは、エンドツーエンドの創薬プロセスに適用できる、事前訓練された生体分子AIモデルのコレクションを増やしているのが特徴です。リカーシオンは、BioNeMoを通じて、創薬エコシステム向けに独自のAIモデルを提供することを発表しました。金融サービスでは、顧客は取引やリスク管理から顧客サービスや不正検出に至るまで、拡大するユースケースにAIを使用している。

例えば、アメリカン・エキスプレスは、エヌビディアのAIを使用して、不正行為の検出精度を6%向上させました。データセンターの地域別売上高に話を移します。10月に発動された米国政府の輸出管理規制を受けてデータセンターの収益が大幅に減少した中国を除き、全地域で力強い成長を遂げました。

米国政府から中国向け輸出規制対象製品の出荷許可を得ていないものの、中国市場向けに輸出許可を必要としない代替製品の出荷を開始しています。第4四半期のデータセンター事業の売上に占める中国の比率は1桁台半ばでしたが、第1四半期も同程度になると予想しています。米国と中国以外の地域では、ソブリンAIが新たな需要ドライバーとなっている。世界各国は、国内データから自国語で大規模な言語モデルを構築し、現地の研究や企業のエコシステムをサポートするために、AIインフラに投資している。製品の観点からは、収益の大部分は当社のHopperアーキテクチャとInfiniBandネットワーキングによってもたらされました。この2つを合わせて、アクセラレーション・コンピューティングとAIインフラストラクチャのデファクトスタンダードとなりました。

H200は第2四半期に初期出荷を開始し、順調に立ち上がりつつあります。H200の推論性能はH100のほぼ2倍であり、需要は旺盛です。ネットワーキングは年間売上高130億ドルを突破しました。

当社のエンドツーエンド・ネットワーキング・ソリューションは、最新のAIデータセンターを定義するものです。

当社のQuantum InfiniBandソリューションは前年比5倍以上の成長を遂げました。NVIDIA Quantum InfiniBandは、最高性能のAI専用インフラの標準となっています。

当社は現在、データセンター向けのAIに最適化されたネットワーキングのために設計された新しいSpectrum-Xエンド・ツー・エンドの提供を開始し、イーサネット・ネットワーキング分野に参入しています。Spectrum-Xは、AIに特化したイーサネット上の新技術を導入します。当社のSpectrumスイッチ、BlueField DPU、ソフトウェアスタックに搭載されたテクノロジーは、従来のイーサネットと比較して、AI処理向けに1.6倍のネットワーキング性能を実現します。Dell、HPE、Lenovo、Supermicroなどの大手OEMとそのグローバルな販売チャネルは、当社のAIソリューションを世界中の企業に拡大するために提携しています。

今四半期にはSpectrum-Xを出荷する予定です。

また、ソフトウェアとサービスの提供でも大きな進展があり、第4四半期には年間売上高が10億ドルに達しました。当社は、NVIDIA DGX Cloudが、Microsoft Azure、Google Cloud、Oracle Cloudに加え、AmazonのAWSを含むパートナーリストに拡大することを発表しました。DGX Cloudは、NVIDIAの開発者だけでなく、NVIDIA自身のAI研究開発やカスタムモデル開発にも利用される。これにより、CUDAエコシステムがNVIDIA CSPパートナーにもたらされる。

さて、ゲーミングに移ります。ゲーミング部門の売上高は28億7,000万ドルで、前四半期比横ばい、前年同期比56%増となり、休暇中のNVIDIA GeForce RTX GPUに対する堅調な消費者需要により、当社の見通しを上回りました。会計年度の売上高は104億5,000万ドルで、15%増となりました。CESでは、GPUのGeForce RTX 40スーパーシリーズファミリーを発表しました。599ドルからスタートし、驚異的なゲーム性能とジェネレーティブAI機能を提供します。販売は好調なスタートを切っています。NVIDIA AIテンソルコアとGPUは、最大836のAI TOPSを提供し、ゲーム、創作、日常的な生産性のためのAIのパワーアップに最適です。私たちがRTX DPUとともに提供する豊富なソフトウェア・スタックは、AIをさらに加速させます。当社のDLSSテクノロジーにより、8ピクセルのうち7ピクセルをAIで生成することができ、その結果、レイトレーシングが最大4倍高速化し、画質が向上します。また、最新の大規模言語モデルの推論性能を高速化するオープンソースライブラリであるTensorRT LLM for Windowsにより、RTX AI PC上で生成AIを最大5倍高速に実行することができます。またCESでは、各主要OEMから新しいRTX 40シリーズAIノートPCが相次いで発表されました。これらは、14インチや薄型軽量のノートPCなど、幅広いフォームファクターに高性能なゲームとAI機能をもたらします。最大686TOPSのAI性能を持つこれらの次世代AI PCは、ジェネレーティブAIの性能を最大60倍向上させ、最高の性能を持つAI PCプラットフォームとなります。CESでは、開発者が最先端のジェネレーティブAIモデルをデジタルアバターに統合できるNVIDIA Avatar Cloud Engineマイクロサービスを発表しました。ACEは、Best of CES 2024を複数受賞しました。NVIDIAは、RTX PCやワークステーション向けにジェネレーティブAIアプリケーションを構築・展開するためのエンドツーエンドのプラットフォームを提供しています。これには、開発者がジェネレーティブAIワークロードに組み込むことができるライブラリ、SDK、ツール、サービスが含まれます。NVIDIAは、PCに登場するジェネレーティブAIアプリケーションの次の波を後押ししています。1億台以上のRTX PCがインストールされ、500以上のAI対応PCアプリケーションやゲームが登場しており、私たちはその道を歩んでいます。

プロビジュアライゼーションへの移行 売上高は4億6,300万ドルで、前四半期比11%増、前年同期比105%増。通期の売上高は15億5,000万ドルで、1%増となった。RTX Ada アーキテクチャー GPU の豊富なミックスにより、当四半期のシーケンシャルな成長は継続しました。企業は、データ準備、LLM微調整、検索拡張世代などのジェネレーティブAI関連ワークロードをサポートするためにワークステーションをリフレッシュしている。これらの需要を牽引する主要産業分野には、製造業、自動車産業、ロボット産業が含まれる。自動車業界では、設計から工場や自動車の建設、シミュレーション、操作、体験までのワークフローをデジタル化しようとしているため、NVIDIA Omniverseを早くから採用してきました。CESでは、Brickland、WPP、ZeroLightなどのクリエイティブ・パートナーやデベロッパーが、Omniverseを搭載したカー・コンフィギュレーターを構築していることを発表しました。ロータスのような大手自動車メーカーは、自動車購入体験に新たなレベルのパーソナライゼーション、リアリズム、インタラクティブ性をもたらすために、この技術を採用しています。

自動車業界へ 売上高は2億8100万ドルで、前四半期比8%増、前年同期比4%減。自動車メーカーによるNVIDIA DRIVEプラットフォームの継続的な採用により、会計年度の売上高は10億9,000万ドルで、21%増となり、初めて10億ドルの大台を超えた。NVIDIA DRIVE Orinは、ソフトウェア定義のAVフリート向けに選ばれたAIカーコンピュータである。ビジョントランスフォーマー向けに設計された後継のNVIDIA DRIVE Thorは、より高いAI性能を提供し、自律走行と駐車、ドライバーと乗客のモニタリング、AIコックピット機能など、幅広いインテリジェント機能を単一のAIコンピュートプラットフォームに統合しており、来年発売される予定です。今四半期は、いくつかの自動車関連顧客の発表があった。李汽車、長城汽車、吉利汽車のプレミアムEV子会社であるZEEKR、シャオミEVはすべて、エヌビディアを搭載した新車を発表した。

その他の損益に移ります。GAAPベースの売上総利益率は76%に、非GAAPベースの売上総利益率は76.7%に前四半期比で拡大しました。

第4四半期の売上総利益率は、部品コストの好影響を受けました。前四半期比でGAAPベースの営業費用は6%増、非GAAPベースの営業費用は9%増となったが、これは主にコンピュートおよびインフラ投資の増加と従業員の増加を反映したものである。第4四半期には、自社株買いおよび現金配当の形で28億ドルを株主に還元しました。

24会計年度には、95億ドルの自社株買いを含め、99億ドルの現金を株主還元に充当しました。

第1四半期の見通しについてご説明します。総収益は240億ドル、プラスマイナス2%を見込んでいます。

データセンターとProVizの前四半期比の伸びを見込んでいますが、ゲーミングの季節的な落ち込みにより一部相殺されます。GAAPベースの売上総利益率は76.3%、非GAAPベースの売上総利益率は77%(プラスマイナス50bp)を見込んでいます。第 4 四半期同様、第 1 四半期の売上総利益率は有利なコンポーネント・コストの恩恵を受けている。

第1四半期以降、通年では粗利益率は70%台半ばに戻ると予想している。GAAPベースの営業費用は約35億ドル、非GAAPベースの営業費用は約25億ドルとなる見込みです。2025年度のGAAPベースおよび非GAAPベースの営業費用は、今後の大きな事業機会への投資を継続するため、30%台半ばの伸びを見込んでいます。GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資からの損益を除き、約2億5,000万ドルの利益を見込んでいます。GAAPおよびnon-GAAPベースの税率は、個別項目を除き、プラスマイナス1%の17%を見込んでいます。財務の詳細については、CFOのコメントおよびIRウェブサイトでご覧いただけるその他の情報をご参照ください。最後に、金融業界向けの今後のイベントをいくつかご紹介します。

私たちは3月4日にサンフランシスコで開催されるモルガン・スタンレー・テクノロジー・メディア・テレコム会議と、5日にボストンで開催されるTDコーウェンの第44回年次ヘルスケア会議に出席します。そしてもちろん、3月18日(月)からカリフォルニア州サンノゼで開催される恒例のGTCカンファレンスにもご参加ください。GTCはジェンセンの基調講演で幕を開け、翌19日には金融アナリスト向けの質疑応答セッションを開催する予定です。ただいまより質問を受け付けます。オペレーター、質問をお願いします。

オペレーター
[最初のご質問は、ゴールドマン・サックスの針俊哉さんからお願いします。

針 俊哉
本当に好調な決算おめでとうございます。データセンター事業についてジェンセンさんに質問です。この事業が非常に好調であることは明らかです。この90日間で、24年暦年と25年暦年の業績予想がどのように変化したのか興味があります。また、質問にお答えいただくにあたり、データセンター事業における新しいバケット、例えばソフトウェアのようなものについても触れていただければと思います。

ソブリンAIについては、中長期的にどのように考えていくべきかについて、かなり発言されていると思います。最近、エヌビディアがASIC市場に参入する可能性があるという記事がありました。その信憑性はあるのでしょうか?もしそうなら、今後数年間、あなた方がその市場でプレーすることについて、私たちはどのように考えるべきでしょうか?

ジェンセン・ファン
ありがとう、トシヤ。

それでは。質問は3つありました。もう1回?最初の質問は...

コレット・クレス
OpenAIです。

針 俊也
データセンターへの期待、どのように進化してきたか。

ジェンセン・ファン
はい、そうです。私たちは1四半期1四半期を目安にしています。しかし基本的には、24年暦から25年暦、そしてそれ以降も成長を続けるには絶好の条件が揃っています。私たちは今、業界全体で2つの転換期を迎えています。

ひとつは、汎用コンピューティングからアクセラレーテッド・コンピューティングへの移行です。ご存知のように、汎用コンピューティングは息切れし始めています。CSPの延長や、我々の汎用コンピューティングを含む多くのデータセンターが、減価償却を4年から6年に延長していることからもわかるでしょう。以前のように根本的にスループットを劇的に向上させることができないのに、GPUを増やして更新する理由はありません。

そのため、すべてを高速化する必要があります。これは、エヌビディアが以前から先駆的に取り組んできたことです。そして、加速されたコンピューティングによって、エネルギー効率を劇的に改善することができます。

データ処理にかかるコストを20:1という非常に大きな数字で劇的に改善することができます。そしてもちろん、スピードです。このスピードは非常に驚異的で、私たちはジェネレーティブAIと呼ばれる第二の業界全体の移行を可能にしました。ジェネレーティブAIについては、通話中にたくさんお話しすることになると思います。しかし、ジェネレーティブAIは新しいアプリケーションであることを忘れないでください。ジェネレイティブAIは、ソフトウェアの新しいやり方、新しいタイプのソフトウェアを生み出すことを可能にします。新しいコンピューティングの方法なのだ。

従来の汎用コンピューティングではジェネレーティブAIはできません。

加速させる必要があるのです。そして3つ目は、まったく新しい産業を可能にするということです。そしてこれは、一歩下がって見てみる価値があることで、ソブリンAIについての最後の質問にもつながります。全く新しい産業というのは、データセンターが初めて、単にデータを計算し、データを保存し、会社の従業員にサービスを提供するだけのものではなくなったということです。私たちは今、AIを生成する新しいタイプのデータセンターを手に入れました。基本的には、データという原材料を使用します。それをエヌビディアが構築したAIスーパーコンピューターで変換し、非常に価値のあるトークンに変えます。これらのトークンは、人々が素晴らしいChatGPTやMidjourneyで体験するものであり、最近の検索はそれによって強化されています。

レコメンダー・システムはすべて、超パーソナライゼーションによって拡張されています。

タンパク質を生成し、化学物質を生成するデジタル生物学の素晴らしいスタートアップ企業など、数え上げればきりがない。

これらのトークンはすべて、非常に特殊なデータセンターで生成されます。このデータセンターは、AIスーパーコンピューターやAI生成工場と呼ばれています。私たちは多様性を目の当たりにしている。

もうひとつの理由は、その基盤があることです。それが新しい市場に現れる方法は、私たちが見ている多様性のすべてです。ひとつは、私たちが行っている推論の量が桁外れに多いことです。ChatGPTを使うたびに、私たちが推論していることがわかります。Midjourneyを使うたびに、私たちは推論しています。SoraのビデオやRunwayの編集ビデオ、Fireflyなど、NVIDIAは推論を行っています。NVIDIAのビジネスの中で、インファレンシングの占める割合は非常に大きくなっています。モデルの規模がどんどん大きくなっているため、トレーニングの量も増え続けていますし、推論の量も増えています。しかし、私たちは新しい業界への多角化も進めています。大手のCSPは、現在も拡張を続けています。

彼らの設備投資や議論を見ればわかるでしょう。しかし、GPU特化型CSPという全く新しいカテゴリーもあります。GPU特化型CSPは、エヌビディアのAIインフラに特化しています。

エンタープライズ・ソフトウェア・プラットフォームはAIを導入しています。ServiceNowは本当に素晴らしい例です。

アドビやSAPなどもそうです。

コンシューマー・インターネット・サービスは、ジェネレイティブAIを導入することで、これまでのサービスを強化し、よりパーソナライズされたコンテンツを作成できるようになりました。

私たちが産業用ジェネレーティブAIについて話しているのを見ただろう。

自動車、医療、金融サービスなど、私たちの産業は数十億ドル規模のビジネスとなっています。そしてもちろん、ソブリンAIです。ソブリンAIが必要な理由は、各地域の言語、知識、歴史、文化が異なるという事実と関係があります。彼らは自分たちのデータを使い、それを訓練して自分たち独自のデジタル・インテリジェンスを作り、それを提供して自分たちでその原材料を活用したいと考えている。それは彼らのものなのだ。世界中のそれぞれの地域のデータは、彼らのものだ。データは彼らの社会にとって最も有用なものだ。

そのため、彼らはデータを保護し、自らデータを変換し、付加価値をAIに変換し、自らサービスを提供したいと考えている。

そのため、日本、カナダ、フランス、その他多くの地域で、主権を持つAIインフラが構築されつつある。

私が期待しているのは、ここアメリカや欧米で経験されていることが、必ず世界中で再現されるということです。そして、こうしたAI世代の工場は、あらゆる産業、あらゆる企業、あらゆる地域に存在することになるだろう。

この1年で、ジェネレーティブAIがまったく新しいアプリケーション空間となり、まったく新しいコンピューティングの方法となり、まったく新しい産業が形成され、それが私たちの成長の原動力になっていると思います。

オペレーター
次の質問は、モルガン・スタンレーのジョー・ムーアさんからです。

ジョセフ・ムーア
収益の40%が推論によるものであることについて、フォローアップしたいと思います。予想以上に大きな数字です。この数字が一昨年はどの程度だったのか、また推論によるLLMがどの程度伸びているのか、お聞かせください。また、それをどのように測定しているのですか?場合によっては、同じGPUがトレーニングと推論に使われることもあると思います。その測定はどの程度確かなものなのでしょうか?

ジェンセン・ファン
逆に考えます。見積もりはおそらく控えめで......しかし、私たちはそれを見積もったのです。年前、1年前、人々が利用しているレコメンダー・システムは、インターネット、ニュース、ビデオ、音楽、あなたに勧められる商品など、ご存知のように、インターネットには何兆もの--何兆かわかりませんが、何兆ものものがありますが、あなたの携帯電話は3インチ四方です。

そして、そのような小さな領域にすべての情報を収めることができるのは、レコメンダー・システムと呼ばれる驚くべきシステムによるものだ。このレコメンダー・システムは、以前はすべてCPUのアプローチに基づいていた。しかし、最近のディープラーニングやジェネレーティブAIへの移行により、これらのレコメンダーシステムはGPUアクセラレーションに直接移行するようになった。埋め込みにはGPUアクセラレーションが必要だ。最近傍探索にはGPUアクセラレーションが必要だ。再ランク付けにはGPUアクセラレーションが必要だ。そして、あなたのために拡張された情報を生成するためにGPUアクセラレーションが必要なのです。

つまり、GPUは現在、レコメンダー・システムのあらゆるステップで使われているのです。ご存知のように、レコメンダー・システムは地球上で唯一最大のソフトウェア・エンジンです。世界中のほとんどの大企業が、このような大規模なレコメンダー・システムを稼動させています。ChatGPTを使うときはいつも、推論されているのです。Midjourneyのことを耳にするたびに、彼らが消費者のために生成しているものの数を思い浮かべるでしょう。ゲッティ(Getty)やアドビ(Adobe)のファイアフライ(Firefly)を見ても、これらはすべて生成モデルです。数え上げればきりがありません。今申し上げたように、どれも1年前には存在しなかったもので、100%新しいものです。

オペレーター
次の質問は、バーンスタイン・リサーチのステイシー・ラスゴンさんからです。

ステイシー・ラスゴン
コレット、次世代製品、つまりブラックウェルが供給制約を受けると予想しているというコメントについて触れたいと思います。少し掘り下げていただけますか?その要因は何ですか?ホッパーが緩和されつつある中で、なぜ供給が制約されるのでしょうか?また、いつまで供給不足が続くと予想していますか?次世代は25年までずっと制約を受けると予想していますか?いつから緩和されるのでしょうか?

ジェンセン・ファン
そうですね。

まず第一に、全体的に供給は改善しています。全体的にサプライチェーンは素晴らしい仕事をしてくれています。ウェハー、パッケージング、メモリ、パワーレギュレータ、トランシーバ、ネットワーク、ケーブルなど、私たちが出荷するコンポーネントのリストはすべてそうです。

ご存知のように、NVIDIA GPUはチップのようなものだと思われていますが、NVIDIA Hopper GPUには35,000もの部品があります。重さは70ポンドもあります。これらは本当に複雑なものです。AIスーパーコンピューターと呼ばれるのには理由があります。

データセンターの裏側を見てみると、システム、配線システムは気の遠くなるようなものです。世界が見たこともないような高密度で複雑な配線システムです。

当社のInfiniBand事業は前年比5倍の成長を遂げました。サプライチェーンは本当に素晴らしいサポートをしてくれています。

そのため、全体的に供給は改善しています。

今後も需要は供給を上回ると予想しています。サイクルタイムも改善しており、今後もベストを尽くしていくつもりです。

しかし、新商品が出るたびに、ご存知のように、0から非常に大きな数字になる。一朝一夕にはできません。一朝一夕にはできません。

そのため、新世代の製品が登場するたびに、そして今はH200の立ち上げを行っていますが、立ち上げに伴う短期的な需要に合理的に追いつくことは不可能です。我々はSpectrum-Xを増産している。Spectrum-Xは非常に好調です。これは、イーサネットの世界における当社の新製品です。InfiniBandはAI専用システムの標準です。Spectrum-Xを搭載したイーサネットは、スケールアウトシステムとしてはあまり優れていません。しかし、Spectrum-Xでは、Ethernetの上に、アダプティブ・ルーティング、輻輳制御、ノイズ・アイソレーション、トラフィック・アイソレーションといった基本的な新機能を追加し、AI向けにEthernetを最適化できるようにしました。

InfiniBandはAI専用のインフラとなり、Spectrum-XはAIに最適化されたネットワーキングとなります。

すべての新製品は、需要が供給を上回っています。これは新製品の性質であり、需要に追いつくためにできる限り迅速に取り組んでいます。しかし、全体的に見れば、ネット・ネットで見れば、供給は非常に順調に増加しています。

オペレーター
次のご質問は、TDコーウェンのマット・ラムジーさんからお願いします。

マシュー・ラムジー
決算おめでとうございます。ステイシーが言っていた、供給が改善しているにもかかわらず、需要が供給を大きく上回っているという点についてです。まず、コレットに質問したいのですが、顧客に対する配備の準備状況や、まだ配備されていない製品が蓄積されていないかどうかの監視という点で、製品の配分をどのように考えているのでしょうか?それからジェンセンさん。あなたやあなたの会社が、業界を超えた顧客(その多くは互いに競合しています)、小規模な新興企業、ヘルスケア分野、政府機関などへの製品の割り当てについて、どのような考えをお持ちなのか、少しお聞かせいただければと思います。あなたが実現しようとしているのは、非常にユニークな技術です。あなたの会社のためであり、業界のためでもある「公平な配分」について、どのようにお考えなのか、少しお聞かせいただければと思います。

コレット・クレス
まず、GPUインスタンスをどのように構築していくかを検討する際に、私たちがどのように顧客と協力しているか、そして私たちの割り当てプロセスについて、ご質問から始めさせてください。私たちが協業しているお客様とは、クラウドでのセットアップと社内でのセットアップの両方を支援してきた長年のパートナーです。これらのプロバイダーの多くは、エンド・カスタマーだけでなく、社内で必要とされるさまざまなニーズに対応するために、複数の製品を同時に提供しています。

そのため、彼らはもちろん、必要となる新しいクラスタについて前もって考えている。彼らとの話し合いは、我々のHopperアーキテクチャについてだけでなく、彼らが次の波を理解するのを助け、彼らの興味を引き、彼らが望む需要の見通しを得るために続いています。

そのため、彼らが購入するもの、まだ建設中のもの、エンド・カスタマーのために使用されているものなど、常に流動的なプロセスとなっている。しかし、私たちが築き上げた関係や、製造の高度さに対する彼らの理解は、その配分に大いに役立っていますし、彼らとのコミュニケーションにも役立っています。

ジェンセン・ファン
第一に、CSPは当社の製品ロードマップと移行について非常に明確な見解を持っています。そして、CSPはその透明性によって、どの製品をいつ、どこに配置すればいいのかという確信を持つことができます。

そのため、CSPは私たちができる限りのタイミングを把握し、数量やもちろん配分も把握しています。私たちは公平に配分します。私たちは公平に配分を行い、できる限り......公平に配分を行い、不必要な配分を避けるようにします。

先ほどおっしゃったように、データセンターの準備が整っていないのに、なぜ何かを割り当てるのでしょうか?何もかもが手つかずになってしまうことほど難しいことはありません。

ですから、公平に配分し、不必要な配分は避けるようにします。また、エンドマーケットについてのご質問ですが、私たちはOEM、ODM、CSP、そして非常に重要なエンドマーケットと優れたエコシステムを持っています。エヌビディアが本当にユニークなのは、私たちが顧客、パートナー、CSP、OEMを引き合わせ、彼らを顧客にすることです。生物学企業、ヘルスケア企業、金融サービス企業、AI開発者、大規模な言語モデル開発者、自律走行車企業、ロボット企業など、巨大なロボット企業が出現しています。倉庫用ロボット、手術用ロボット、人型ロボット、あらゆる種類の実に興味深いロボット企業、農業用ロボット企業などがある。

これらの新興企業、医療、金融サービス、自動車などの大企業はすべて、エヌビディアのプラットフォームで仕事をしています。私たちは彼らを直接サポートしています。また、CSPに割り当てると同時に、顧客をCSPに引き合わせることで、一挙両得になることもあります。

このエコシステムが活気に満ちているのはその通りです。しかし、その根底にあるのは、無駄を省き、パートナーとエンドユーザーをつなぐ機会を探しながら公平に割り当てたいということです。そのような機会を常に探しています。

オペレーター
次のご質問はUBSのティモシー・アルクリさんからです。

ティモシー・アルクリ
バックログをどのように収益に変えているのか、お聞きしたいと思います。明らかに、御社の製品のリードタイムはかなり短縮されています。コレット、あなたは在庫の購入コミットメントについて話しませんでしたが、在庫と購入コミットメント、前払いの供給量を合計すると、実際には少し減少しています。これをどう読むべきでしょうか?リードタイムが短くなったので、サプライヤーにそれほど資金的なコミットメントをする必要がなくなったということでしょうか?それとも、ある種の定常状態に到達し、注文書や受注残が埋まりつつあるということでしょうか?

コレット・クレス
そうです。

では、私たちがサプライヤーをどのように見ているか、その3つの異なる分野について強調させてください。

その通りです。

手元にある在庫は、現在の割り当てを考えると、在庫が入ったらすぐにお客様に出荷するようにしています。

私たちの顧客は、私たちが求めたスケジュールに対応する能力を高く評価してくれていると思います。

もうひとつは、パーチェス・コミットメントです。

パーチェス・コミットメントにはさまざまな要素が含まれており、製造に必要な部品だけでなく、必要な生産能力を調達することもあります。必要なキャパシティの長さやコンポーネントの長さはすべて異なります。

2四半期先までのものもあれば、複数年にわたるものもあります。プリペイドに関しても同じことが言える。

私たちの予備在庫は、私たちが将来を見据えて、いくつかの製造サプライヤーが必要とする予備能力を確保するためにあらかじめ設計されています。

ですから、私たちが供給を増やしているのとほぼ同じ数字については、何も読み取れないでしょう。

リードタイムが長いものや、製造能力が必要なものを買わなければならないことがあるためです。

オペレーター
次のご質問は、メリウス・リサーチのベン・ライツです。

ベンジャミン・ライツ
おめでとうございます。コレット、総利益率に関するあなたのコメントについてお話ししたいのですが、もし差し支えなければ、70%台半ばに戻るはずだとおっしゃいましたね。また、これは新製品にHBMが含まれているためでしょうか?また、そのコメントの要因は何だとお考えですか?

コレット・クレス
はい、ご質問ありがとうございます。私たちは冒頭の挨拶で、第4四半期の業績と第1四半期の見通しについて強調しました。どちらもユニークな四半期です。この2四半期は、コンピュートとネットワーキングの両方にまたがるサプライチェーンにおける有利なコンポーネント・コストの恩恵が含まれており、また製造プロセスのいくつかの異なる段階においても恩恵を受けているため、売上総利益率においてユニークな四半期となっています。

そのため、今期の売上総利益率は70%台半ばとなり、第4四半期と第1四半期にピークを迎える前の水準に戻る見通しです。

そのため、ミックスのバランスに注目しています。ミックスは常に、今年度残りの出荷の最大の原動力となるものです。

オペレーター
次のご質問は、カンター・フィッツジェラルドのC.J.ミューズさんからです。

クリストファー・ミューズ
ジェンセン、より大きな視点から質問します。過去10年間におけるGPUコンピューティングの100万倍以上の向上と、次の10年間における同様の向上への期待について考えるとき、御社の顧客は、現在行っているNVIDIAへの投資の長期的な有用性についてどのように考えていますか?今日のトレーニングクラスタは、明日の推論クラスタになるのでしょうか?これをどう見ていますか?

ジェンセン・フアン
C.J.、ご質問ありがとうございます。そうですね、そこが本当にクールなところです。

なぜ私たちがこれほどまでにパフォーマンスを向上させることができるかというと、私たちのプラットフォームには2つの特徴があるからです。ひとつは高速化、もうひとつはプログラマブルであることです。脆くはありません。NVIDIAは、CNNやAlex Krizhevsky、Ilya Sutskever、Geoff Hintonが初めてAlexNetを発表した、文字通りごく初期の段階から、RNN、LSTM、あらゆるRL、ディープRL、トランスフォーマー、ビジョン・トランスフォーマー、マルチモダリティ・トランスフォーマー、そして今ではタイムシーケンスに至るまで、あらゆるバージョン、あらゆる種類のトランスフォーマーを開発してきた唯一のアーキテクチャです。そして、登場したAIのすべてのバリエーション、すべての種をサポートし、スタックを最適化し、インストールベースに導入することができました。これが本当に素晴らしいところです。

一方では、テンソルコアやテンソルコア用トランスフォーマー・エンジンのような新しいアーキテクチャや新技術を発明し、テンソルコアのさまざまな世代で行ってきたように、新しい数値フォーマットや処理構造を改善し、同時にインストールベースをサポートすることができます。

その結果、私たちは新しいソフトウェア・アルゴリズムの発明、業界のモデルの発明、新しい発明をすべて取り入れ、一方では私たちのインストールベース上で実行します。

一方では、トランスフォーマーのような革命的なものを見るたびに、ホッパートランスフォーマーエンジンのような全く新しいものを作り、それを未来に実装することができる。

私たちは同時に、インストール・ベースにソフトウェアを提供し、それをより良いものにしていく能力も持っています。

そのため、私たちの顧客のインストールベースは、私たちの新しいソフトウェアによって時間とともに充実していきます。

その一方で、新しいテクノロジーについては、革命的な能力を生み出す。私たちの将来の世代で、突然、大規模な言語モデルにおける驚くべきブレークスルーが可能になったとしても驚かないでください。そして、そのようなブレークスルーは、CUDAを実行するため、ソフトウェアで実現されるものもあり、インストールベースで利用できるようになるでしょう。

そうして、私たちは一方では皆を乗せ、他方では巨大なブレークスルーを実現するのです。

オペレーター
次の質問は、ウェルズ・ファーゴのアーロン・レイカーズさんからです。

アーロン・レイカーズ
中国事業についてお聞きしたいと思います。準備されたコメントの中で、あなたは中国にいくつかの代替ソリューションを出荷し始めたと言いましたね。

また、データセンター事業全体に対する中国事業の貢献は、今後も一桁台半ばで推移するとの見通しも示されました。

そこで質問ですが、現在中国市場に出荷している製品はどの程度なのでしょうか?また、他の代替ソリューションが市場に投入され、貴社のビジネスチャンスが再び拡大することを期待すべきではないでしょうか?

ジェンセン・ファン
核心は、米国政府がエヌビディアのアクセラレーテッド・コンピューティングとAIの最新機能を中国市場に限定することを望んでいるということです。そして米国政府は、私たちが中国でできるだけ成功することを望んでいます。この2つの制約の中に、言ってみればこの2本の柱の中に、制約があるのです。

ですから、新たな規制が発表されたとき、私たちは立ち止まらざるを得ませんでした。すぐに一時停止し、規制の内容を理解し、ソフトウェアがハッキングされないように製品を再設定しました。それには時間がかかった。

そして、中国への製品提供をリセットし、現在は中国の顧客にサンプリングしている。そして、その市場で競争し、制限の仕様内で成功するためにベストを尽くすつもりだ。

以上です。前四半期は、市場での販売を一時停止したため、ビジネスが大幅に落ち込みました。市場での出荷を停止しました。

今期もほぼ同じになると予想しています。しかしその後は、願わくばビジネスのために競争し、ベストを尽くしたいと思っています。

オペレーター
次のご質問は、パイパー・サンドラーのハーシュ・クマールさんからです。

ハーシュ・クマール
ジェンセン、コレット、そしてエヌビディアの皆さん、まずは素晴らしい四半期とガイドおめでとうございます。ソフトウェア事業について少しお話ししたいと思いますが、10億ドルを超えたというのは喜ばしいことです。しかし、ジェンセンさん、あるいはコレットさん、ソフトウェア事業のさまざまな部分や断片を理解する手助けをしていただけないでしょうか。言い換えれば、その成長がどこから来ているのか、私たちがよりよく理解できるように、少し紐解いていただけないでしょうか。

ジェンセン・ファン
一歩下がって、エヌビディアがソフトウェアで大成功する根本的な理由を説明させてください。

まず、ご存知のように、アクセラレーテッド・コンピューティングはクラウドで成長しました。クラウドでは、クラウド・サービス・プロバイダーが非常に大規模なエンジニアリング・チームを持っています。そして、何か問題が発生するたびに、大規模なチームが割り当てられ、彼らのエンジニアリング・チームが私たちのエンジニアリング・チームと直接協力し、アクセラレーション・コンピューティングに関わる複雑なソフトウェアのスタックを強化し、修正し、保守し、パッチを当てるのです。

ご存知のように、アクセラレーション・コンピューティングは汎用コンピューティングとは大きく異なります。

C++のようなプログラムから始めるのではありません。

コンパイルすれば、すべてのCPUで動作する。データ処理、SQL対SQL構造化データ対非構造化データである画像やテキスト、PDF、古典的な機械学習、コンピュータ・ビジョン、音声、大規模言語モデル、レコメンダー・システムなど、あらゆる領域に必要なソフトウェアのスタックがある。

これらはすべて、異なるソフトウェア・スタックを必要とする。エヌビディアが何百ものライブラリを持っているのはそのためです。

ソフトウェアがなければ、新しい市場を開拓することはできません。

ソフトウェアがなければ、新しいアプリケーションを開発することはできません。

アクセラレーテッド・コンピューティングには、ソフトウェアが基本的に必要なのです。これは、アクセラレーテッド・コンピューティングと汎用コンピューティングの根本的な違いであり、多くの人々が理解するのに長い時間を要した。そして今では、ソフトウェアが本当に重要であることを理解している。私たちがCSPと取り組む方法は、実に簡単です。

私たちには大規模なチームがあり、彼らの大規模なチームと協力しています。

しかし、ジェネレーティブAIによってあらゆる企業やあらゆるエンタープライズ・ソフトウェア企業がアクセラレーテッド・コンピューティングを採用できるようになり、アクセラレーテッド・コンピューティングを採用することが不可欠となった今、汎用コンピューティングだけでスループットの向上を維持することはもはや不可能であるため、これらのエンタープライズ・ソフトウェア企業やエンタープライズ企業はすべて、世界中のクラウドやプライベート・クラウド、オンプレミスで動作するソフトウェア・スタックを維持・最適化できる大規模なエンジニアリング・チームを持っていません。

そこで私たちは、ソフトウェア・スタックの管理、最適化、パッチ適用、チューニング、インストール・ベースの最適化を行います。そして、それらをNVIDIA AI Enterpriseと呼ばれる我々のスタックにコンテナ化します。NVIDIA AI Enterpriseは、オペレーティングシステムのようなランタイムだと考えてください。人工知能のためのオペレーティング・システムです。GPU1基あたり年間4,500ドルです。私の推測では、世界中のあらゆる企業、あらゆるクラウドやプライベートクラウド、オンプレミスにソフトウェアを展開しているソフトウェア企業は、NVIDIA AI Enterprise、特に当社のGPUで実行することになるでしょう。

そのため、これは長期的に非常に重要なビジネスになると思われます。素晴らしいスタートを切ることができました。コレットも言っていましたが、すでに10億ドルのランレートに達しており、本当に始まったばかりです。

オペレーター
それでは、お電話をCEOのジェンセン・ファンにお返しして、閉会のご挨拶とさせていただきます。

ジェンセン・フアン
コンピュータ業界は、2つのプラットフォームシフトを同時に進めています。兆ドル規模のデータセンターの設置ベースは、汎用コンピューティングからアクセラレーテッド・コンピューティングへと移行しつつあります。あらゆるデータセンターが高速化されることで、世界はコストとエネルギーを管理しながら、スループットを高めてコンピューティング需要に対応できるようになります。エヌビディアの驚異的な高速化は、人間の言語から生物学や3D世界の構造まで、あらゆる情報をソフトウェアが学習し、理解し、生成することができる、まったく新しいコンピューティングパラダイム、ジェネレーティブAIを可能にした。

私たちは今、AI専用のデータセンターが膨大な生データを処理し、デジタル・インテリジェンスに磨き上げる新しい産業の幕開けを迎えている。前回の産業革命における交流発電所のように、エヌビディアのAIスーパーコンピューターは本質的に、この産業革命におけるAI生成工場なのだ。あらゆる企業、あらゆる産業は、基本的に独自のビジネス・インテリジェンス、そして将来的には独自のジェネレーティブAIの上に成り立っている。ジェネレーティブAIは、AI生成工場の次の1兆ドル規模のインフラを構築するための全く新しい投資サイクルを開始した。私たちは、この2つのトレンドが、今後5年間で世界のデータセンター・インフラの設置台数を倍増させ、年間数千億ドル規模の市場機会をもたらすと考えている。この新しいAIインフラは、現在では不可能な全く新しいアプリケーションの世界を切り開くだろう。私たちは、ハイパースケール・クラウド・プロバイダーとコンシューマー・インターネット企業とともにAIの旅を始めました。そして今、自動車から医療、金融サービス、産業、通信、メディア、エンターテインメントに至るまで、あらゆる業界が乗り出しています。NVIDIAのフルスタック・コンピューティング・プラットフォームは、各業界に特化したアプリケーション・フレームワークと巨大な開発者・パートナー・エコシステムを備え、あらゆる企業を支援し、あらゆる業界の企業がAI企業になれるよう、スピード、スケール、リーチを提供します。

来月サンノゼで開催されるGTCでは、皆様にお伝えしたいことがたくさんあります。来期の進捗状況をご報告できることを楽しみにしています。

オペレーター
以上で本日の電話会議を終了いたします。

以上で本日の電話会議を終了いたします。

ここから先は

0字

¥ 400

この記事が気に入ったらサポートをしてみませんか?