見出し画像

エヌディビア(NVDA) 2024年1Q 決算&CCまとめ

決算

⭕️EPS:実際$1.09 予想$0.92
⭕️売上高:実際$7.19B 予想$6.52B
前年同期比売上高成長率:-13.3%
ガイダンス:
⭕️来四半期売上高:実際$11B(±2%) 予想$7.11B

Memo:

データセンターの売上高が42.8億ドルで過去最高。
2024年度第1四半期に、NVIDIAは9900万ドルの現金配当を株主に還元。
2023年6月30日に、2023年6月8日の株主名簿に登録されているすべての株主に対し、1株当たり0.04ドルの次回四半期現金配当を支払う予定。

第2四半期の見通し:
GAAP基準の売上総利益率は68.6%、非GAAP基準の売上総利益率は70.0%(プラスマイナス50bp)を見込む。
営業費用は、GAAP方式で約27億1,000万ドル、非GAAP方式で約19億ドルとなる見込み。
GAAP方式及びNon-GAAP方式のその他の収入及び支出は、非関連投資からの損益を除き、約9,000万ドルの収入となる見込み。
GAAP方式及びNon-GAAP方式の税率は、個別項目を除き、14.0%(プラスマイナス1%)となる見込み。


CC(カンファレンスコール)

ハイライト

第1四半期の売上高は71億9000万ドルで、前四半期比19%増、前年同期比13%減。
前四半期の強い成長は、データセンターの記録的な収益により、同社のゲームおよびプロフェッショナル・ビジュアライゼーション・プラットフォームがチャネル在庫の補正から浮上した。

データセンターについては、全世界のアクセラレーション・コンピューティング・プラットフォームによる力強い成長により、記録的な収益となる42億8000万ドルは、前四半期比18%増、前年同期比14%増。
ジェネレーティブAIは、コンピュート要件の指数関数的な伸びを促進し、AIを訓練し展開するための最も汎用性が高く、最もエネルギー効率が高く、最もTCOの低いアプローチであるNVIDIAアクセラレーテッドコンピューティングへの移行を急速に進めている。
ジェネレーティブAIは、同社製品に対する需要の大幅な上昇を促し、市場全体で機会と広範なグローバル成長をもたらした。

同社3つの主要な顧客カテゴリー、クラウドサービスプロバイダー(CSP)、コンシューマー・インターネット企業、そして企業について、
まず、世界中のCSPが、企業や消費者のAIアプリケーションのトレーニングや推論への関心の高まりに応えるため、同社のフラッグシップGPUであるHopperおよびAmpereアーキテクチャの導入に向け、競っている。
複数のCSPが、Microsoft Azure、Google Cloud、Oracle Cloud Infrastructureでのプライベートプレビュー、AWSでの今後の提供、CoreWeaveやLambdaといった新興のGPU専門クラウドプロバイダーでの一般提供など、それぞれのプラットフォームでのH100の提供を発表した。
企業のAI導入に加え、これらのCSPは、Generative AIパイオニアからのH100に対する強い需要に応えている。

第二に、消費者向けインターネット企業も、Generative AIやディープラーニングベースの推薦システムの採用の最前線にあり、力強い成長を牽引している。
例えば、Meta社は、H100を搭載したGrand Teton AIスーパーコンピュータを同社のAI制作・研究チームに導入している。

第三に、AIとアクセラレーション・コンピューティングに対する企業の需要は旺盛で、自動車、金融サービス、ヘルスケア、テレコムなどの垂直分野で、AIとアクセラレーテッド・コンピューティングが顧客のイノベーション・ロードマップと競争力のあるポジショニングに不可欠なものに急速になりつつあることを実感している。
例えば、ブルームバーグは、センチメント分析、名前付きエンティティ認識、ニュース分類、質問応答などの金融自然言語処理タスクを支援する500億パラメータモデル、BloombergGPTを導入したと発表した。

自動車保険会社のCCCインテリジェントソリューションズは、修理の見積もりにAIを活用している。
また、AT&Tは、現場技術者が顧客により良いサービスを提供できるように、艦隊の派遣を改善するためのAIについて、同社と共同で取り組んでいる。
NVIDIA AIを使用している他の企業顧客には、ロジスティクスとカスタマーサービスにDeloitte、創薬とタンパク質工学にAmgenがある。
今期は、Hopper世代のAIシステムであるDGX H100の出荷を開始し、お客様がオンプレミスで展開が可能になった。
また、Microsoft Azure、Google Cloud、Oracle Cloud InfrastructureとのパートナーシップによるDGX Cloudの発売により、NVIDIA DGXの約束をクラウドからお客様にお届けしている。

お客様がDGXをオンプレミスで導入しても、DGX Cloud経由で導入しても、NVIDIA Base Commandを含むNVIDIA AIソフトウェアやAIフレームワーク、事前学習済みモデルへのアクセスを得ることができる。
システム、アルゴリズム、データ処理、トレーニング方法などの専門知識にまたがり、AIを構築・運用するための青写真を提供している。

また、DGX Cloudで利用できるモデルファウンドリーサービスであるNVIDIA AI Foundationsを発表し、企業が独自のドメイン固有のタスクのために作成した、同社独自のデータで訓練したカスタム大規模言語モデルおよび生成AIモデルの構築、改良、運用を可能にしている。
大規模言語モデルのNVIDIA NeMo、画像・動画・3DのNVIDIA Picasso、ライフサイエンスのNVIDIA BioNeMoが含まれる。

各サービスは、事前訓練されたモデル、データ処理とキュレーションのためのフレームワーク、独自の知識ベースのセクターデータベース、微調整、整列、ガードレールのためのシステム、最適化された推論エンジン、および企業がカスタムユースケースに合わせてモデルを微調整するためのNVIDIAエキスパートによるサポートの6要素からなる。

大手企業向けサービスプラットフォームであるServiceNowは、DGX CloudとNeMoをいち早く採用した企業で、ServiceNowプラットフォーム専用のデータで訓練されたカスタム大規模言語モデルを開発している。
同社のコラボレーションにより、ServiceNowは、IT部門、カスタマーサービスチーム、従業員、開発者向けなど、ServiceNowプラットフォーム上で稼働する世界中の1,000以上の企業で、新しいエンタープライズグレードのジェネレーティブAIを提供することができる。

ジェネレーティブAIは、推論ワークロードのステップ関数的な増加も促している。
その規模と複雑性から、これらのワークロードは高速化を必要としている。
4月に発表された最新のMLPerf業界ベンチマークでは、NVIDIAの推論プラットフォームが、多様なワークロードに対して比類なき汎用性を持ちながら、業界を桁違いにリードする性能を発揮していることが示された。

お客様が生成AIアプリケーションを大規模に展開できるよう、GTCにおいて、NVIDIA AIソフトウェアスタックを活用した4つの主要な新しい推論プラットフォームを発表した。
これらは、AIビデオ用のL4 Tensor Core GPU、Omniverse、およびグラフィックスレンダリング用のL40、大規模言語モデル用のH100 NVL、LLM用のGrace Hopper Superchip、また、推薦システムおよびベクターデータベース。

Google Cloudは、CSPとして初めて当社のL4推論プラットフォームを採用し、生成AI推論用のG2仮想マシンや、Google Cloud Dataproc、Google AlphaFold、Google CloudのImmersive Streamといった3DやAR体験をレンダリングするワークロードを発表している。
また、Googleは、同社の推論サーバ「Triton」をGoogle KubernetesエンジンやクラウドベースのAIプラットフォーム「Vertex」と統合している。

ネットワーク分野では、CSPと企業顧客の双方で、NVIDIAのMellanoxネットワークプラットフォームのような高性能なネットワークを必要とするジェネレーティブAIやアクセラレーションコンピューティングに対する強い需要が見られた。
汎用CPUインフラに関連する需要は、依然として軟調です。ジェネレーティブAIアプリケーションの規模と複雑さが増すにつれ、あらゆるトレーニングや推論の膨大な需要に対応するため、データセンター規模で加速コンピューティングを実現するためには、高性能ネットワークが不可欠となる。

同社の400ギガQuantum-2 InfiniBandプラットフォームは、AI専用インフラのゴールドスタンダードであり、Microsoft Azureのような主要なクラウドや消費者向けインターネットプラットフォームで幅広く採用されている。
インネットワーク・コンピューティング技術と業界唯一のエンドツーエンドのデータセンター規模、最適化されたソフトウェアスタックの組み合わせにより、お客様は日常的に、多額のインフラ投資に対してスループットを20%向上させることが可能。

生成的なAIをサポートするために移行するマルチテナントクラウドでは、BlueField-3 DPUとSpectrum-4 Ethernetスイッチングを備えた高速イーサネットプラットフォームが、利用可能な最高のイーサネットネットワークパフォーマンスを提供している。
BlueField-3は、Microsoft Azure、Oracle Cloud、CoreWeave、Baiduなど、複数のハイパースケールおよびCSPのお客様に採用され、本番稼働中。
来週、台湾で開催されるCOMPUTEXカンファレンスで、同社の400ギガSpectrum-4アクセラレーションAIネットワーキング・プラットフォームについて詳しく紹介予定。

最後に、同社のデータセンター向けCPU「Grace」は、お客様とのサンプリングを行っている。
今週ドイツで開催された国際スーパーコンピューティング会議において、ブリストル大学は、NVIDIA Grace CPU Superchipを搭載した新しいスーパーコンピュータを発表し、従来のスーパーコンピュータよりも6倍エネルギー効率が良くなっている。
これにより、AIやクラウド、スーパーコンピューティングのアプリケーションにおいて、CPUのみとCPU/GPUの両方の機会を持つGraceの勢いが増している。
BlueField-3、Grace、Grace Hopperスーパーチップの来るべき波は、新世代の超エネルギー効率の高い加速データセンターを実現するだろう。

ゲーミングについて、ゲーム分野の売上高は22億4,000万ドルで、前四半期比22%増、前年同期比38%減となりました。
前期からにかけての強い伸びは、ノートブックとデスクトップの両方に向けた40シリーズGeForce RTX GPUの販売によるもの。
全体として、最終需要は堅調で、季節性とも一致しており、厳しい個人消費の背景に対する回復力を示している。
GeForce RTX 40シリーズGPUノートPCは、4つのNVIDIAの発明、RTX Path Tracing、DLSS 3 AIレンダリング、Reflex Ultra-Low Latencyレンダリング、Max-Q、エネルギー効率化技術を搭載し、素晴らしいスタートを切ることができた。
ゲーマーやクリエイターのために、工業デザイン、パフォーマンス、バッテリ寿命に大きな進歩をもたらしている。

また、デスクトップ製品同様、40シリーズノートPCもNVIDIA Studioプラットフォームやソフトウェア技術をサポートしており、クリエイティブなデータサイエンスやAIワークフローのためのアクセラレーションや、コンテンツクリエイターに比類ないツールと機能を提供するOmniverseなどがある。
デスクトップでは、先に発売されたRTX 4090、4080、4070 Ti GPUに加え、RTX 4070をランプ化した。
RTX 4070は、RTX 2070の約3倍高速で、当社の大規模なインストールベースに壮大なアップグレードを提供する。

先週は、60ファミリーのRTX 4060、4060 Tiを発表し、わずか299ドルから世界のコアゲーマーに同社の最新アーキテクチャを提供する。
これらのGPUは、メインストリームの価格帯で初めて、最新のゲーム機の2倍の性能を提供する。
4060 Tiは本日から、4060は7月に発売される予定。

ジェネレーティブAIは、開発からランタイムに至るまで、ゲームやコンテンツ制作に変革をもたらすでしょう。今週初めのMicrosoft Build Developer Conferenceでは、NVIDIA RTX GPUを搭載したWindows PCやワークステーションが、その中核でどのようにAIを搭載していくかを紹介した。
NVIDIAとMicrosoftは、WindowsオペレーティングシステムからNVIDIAグラフィックスドライバ、そしてNeMoのLLMフレームワークに及ぶエンドツーエンドのソフトウェアエンジニアリングで協力し、NVIDIA RTX Tensor Core GPUs搭載Windowsを、生成的AIのための超高速プラットフォームとすることを支援している。

前四半期、同社はマイクロソフトとのパートナーシップを発表し、Xbox PCゲームをGeForce NOWに提供することを発表した。
このパートナーシップによる最初のゲームであるGears 5は現在利用可能で、今後数ヶ月の間にさらに多くのゲームがリリースされる予定。
現在、GeForce NOWには1,600以上のゲームがあり、どのクラウドゲームサービスよりも豊富なコンテンツが提供されている。

プロビジュアライゼーションに関して、売上高は 2 億 9500 万ドルで、前四半期比 31%増、前年同期比 53%減。
前四半期の成長は、モバイルとデスクトップの両方のフォームファクターにおけるワークステーション需要の強化に牽引され、公共部門、ヘルスケア、自動車などの主要な垂直分野で強さを発揮している。
同社は、チャネル在庫の調整は終わったと考えており、ワークステーションにおける当社のAda Lovelace GPUアーキテクチャの立ち上がりは、主要な製品サイクルのキックオフとなった。

GTCでは、ノートパソコンやデスクトップワークステーション向けに6つの新しいRTX GPUを発表し、今後四半期にさらなる展開が予定されている。
生成AIは、NVIDIAを搭載したワークステーションにとって、主要な新しいワークロードで、マイクロソフトとのコラボレーションにより、ウィンドウズはクリエイターやデザイナーにとって理想的なプラットフォームに生まれ変わり、ジェネレーティブAIを活用して彼らの創造性と生産性を高めることができた。

GTCでは、Microsoft Azureで稼働するNVIDIAのフルマネージドサービスであるNVIDIA Omniverse Cloudを発表し、OmniverseアプリケーションのフルセットとNVIDIA OVXインフラを搭載した。
このフルスタックのクラウド環境を使用することで、顧客は産業用メタバースアプリケーションの設計、開発、デプロイ、および管理を行うことができる。
NVIDIA Omniverse Cloudは、今年の後半から利用可能になる予定。

また、Microsoft NVIDIAは、Office 365アプリケーションをOmniverseに接続する予定。
Omniverse Cloudは、設計やエンジニアリングからスマートファクトリー、マーケティング用の3Dコンテンツ生成まで、企業のワークフローをデジタル化するために利用されている。
自動車業界は、BMWグループ、Geely Lotus、General Motors、Jaguar Land Roverといった企業をはじめ、Omniverseの早期導入の代表的な企業となっています。

オートモーティブに関して、売上高は2億9600万ドルで、前四半期比1%増、前年同期比114%増。
前年同期比で大きく伸びたのは、多くの新エネルギー車におけるNVIDIA DRIVE Orinの立ち上がりによるもの。
3月に発表したとおり、今後6年間の自動車用設計の受注パイプラインは140億ドルとなり、前年の110億ドルから増加し、今後数年間の継続的な成長の見通しがついた。

中国の一部のNEVメーカーが、想定を上回る需要の伸びを反映して生産スケジュールを調整していることから、前四半期比では成長が緩やかになった。
このような状況は今年度中も続くと予想しており、当四半期において、同社は世界有数のNEVメーカーであるBYD社とのパートナーシップを拡大した。
BYDの次世代量産車であるDynastyとOceanシリーズにDRIVE Orinを採用し、2024年に生産を開始する予定。

ポートフォリオについて、GAAPベースの売上総利益率は64.6%、非GAAPベースの売上総利益率は66.8%。
売上総利益率はほぼピーク時の水準に回復しており、コスト上昇を吸収し、より価値の高い製品、より多くのソフトウエアを搭載した製品を革新的に提供することで相殺した。

GAAP基準の営業費用は3%減少、非GAAP基準の営業費用は1%減少し、過去4四半期において営業費用は ほぼ同水準に維持されている。
ゲームとプロフェッショナル・ビジュアライゼーションの在庫調整には取り組んでおり、今後、事業への投資を増やすと同時に、営業レバレッジを効かせることができると考えている。

株主には9900万ドルを現金配当として還元し、当四半期末現在、2023年12月までの自社株買い取り枠は約70億ドル残っている。

見通し

2024年度第2四半期の見通しについて、総売上高は、プラスマイナス2%で、110億ドルとなる見込み。
この前期の伸びは、生成AIや大規模言語モデルに関連する需要の急増を反映し、主にデータセンターが牽引すると予想している。
この需要により、同社のデータセンターの視認性は数四半期先まで延長され、下半期に向けて大幅に高い供給量を調達している。

GAAPベースの粗利益率は68.6%、非GAAPベースの粗利益率は70%で、プラスマイナス50bpとなる見込み。
営業費用は、GAAP方式及びNon-GAAP方式でそれぞれ約27億1,000万ドル及び19億ドルとなる見込み。
GAAP方式及びNon-GAAP方式のその他の収益及び費用は、非関連会社に対する投資損益を除き、約9,000万ドルの利益となる見込み。

GAAP方式及びNon-GAAP方式の税率は、個別項目を除き、14%(プラスマイナス1%)となる見込み。
資本的支出は約3億ドルから3億5,000万ドルとなる見込み。

最後に、今後のイベントについて、現地時間の5月29日、アメリカでは日曜日の夕方になる台北でCOMPUTEXの基調講演を直接行う。
また、6月6日にはサンフランシスコで行われるBofA Global Technology Conferenceに参加する予定。
そして、6月7日にはRosenblatt Virtual Technology Summit on The Age of AI、6月12日にはNew Street Future of Transportation Virtual Conferenceに参加予定。
2024年度第2四半期決算を説明する決算説明会は、8月23日(水)に予定している。

Q&A

1.
Q.

データセンターについて、今四半期の前四半期比の増収の大部分はデータセンターによるものだと言っていたが、4月から7月にかけて、また下半期の見通しの主要なドライバーは何で、どのような構成になっているのか?
現時点では供給面での問題が大きいと思うが、7月期以降の連続的な成長について、サプライチェーンは現時点でどのように対応できるのか?

A.
第1四半期から第2四半期にかけての連続的な成長について、需要の急増を牽引しているのは同社のジェネレーティブAI大規模言語モデルであり、それは当社の消費者向けインターネット企業、CSP、企業、AIスタートアップのいずれにも広く及んでいる。

また、Hopperの最新アーキテクチャとAmpereのアーキテクチャの両方が注目されており、これは、同社が通常、両アーキテクチャを同時に販売することが多いため、驚くことではない。
また、この分野は、ディープレコメンデーターが成長を牽引する重要な分野でもある。
コンピューティングとネットワーキングの両事業の成長も期待できる。

当四半期の供給については現在取り組んでいるところだが、下半期についても相当量の供給を確保している。
これは、様々なお客様からの需要に対応するためのもので、サプライチェーンに大きな流れがある。

大企業のプラットフォーム構築はもちろん、CSPや大手コンシューマー・インターネット企業のセットアップも行っている。
そのため、データセンターの需要はおそらく数四半期先まで続くと見ており、下期に向けて相当量の供給を迅速に調達することにしている。


2.
Q.

データセンターについて、AIをサポートするためにサーバーを加速させるという点で、どのような状況にあるのか?
また、その一環として、TSMCやその他のパートナーとの間で、より長いサイクルタイムに対応するために、今後数年間のリードタイムを管理し、需要と供給を最適に一致させるために、彼らのコミットメントをどのように考えているのか?

A.
2つ目の質問から回答すると、ChatGPTのリリースが訪れたとき、AmpereとHopperの両方がフル生産されていた。
そして、大規模な言語モデルの技術から、チャットボットをベースにした製品やサービスへと移行する方法を、結晶化させることができた。

強化学習によるガードレールや調整システムの統合、独自の知識のためのナレッジベクターデータベース、検索への接続、これらすべてが本当に素晴らしい形で統合された。
そして、同社はすでにフル生産体制に入っており、NVIDIAのサプライチェーンは、非常に重要。

そして、スーパーコンピューターは巨大なシステムであり、それを大量に作っている。
GPUも含まれるが、同社のGPUでは、システムボードに3万5千もの他の部品が搭載されている。
ネットワーク、光ファイバー、トランシーバー、NIC、スマートNIC、スイッチなど、データセンターを立ち上げるためには、これらすべてが揃わなければならない。
そのため、すでにフル稼働していて、下期は調達量を大幅に増やさなければならなかった。

なぜ世界中のデータセンターがアクセラレーション・コンピューティングに移行しているのか、その全体像について、アクセラレーション・コンピューティングはフルスタックの問題であることは以前から知られていた。

もし、データセンターの主要なアプリケーションのほとんどを高速化することができれば、データセンターのエネルギー消費量とコストを1桁減らすことができる。
そのためには、ソフトウェアやシステムをすべて構築しなければならず、多額の費用がかかるが、同社は15年間、それを続けてきた。

そして今、私たちは2つの同時進行している転換期を迎えている。
世界の1兆ドル規模のデータセンターは、現在ほぼCPUで占められており、この4年間で、1兆ドル相当のインフラが導入された。
そして、それはすべてCPUとダムNICに完全に基づいていて、基本的に加速していない。

今後、世界のほとんどのデータセンターで情報を生成する主要なワークロードがジェネレーティブAIになることは明らかで、アクセラレーション・コンピューティングが非常にエネルギー効率が高いことから、データセンターの予算はアクセラレーション・コンピューティングに劇的にシフトすることが予想される。
同社は今、まさにその瞬間を迎えており、世界のデータセンターの設備投資予算は限られているが、同時に、世界のデータセンターの再編成を求めるすごい注文が来ている。

つまり、世界のデータセンターを基本的にリサイクルまたは再生し、アクセラレイテッド・コンピューティングとして構築する、10年単位の移行が始まっている。
データセンターは、従来のコンピューティングから、スマートNICやスマートスイッチ、もちろんGPUを搭載したアクセラレーテッド・コンピューティングへと劇的に変化し、そのワークロードは主にジェネレーティブAIになると思われる。


3.
Q.

データセンターの売上が第3四半期、第4四半期と順次伸びていくのか、それとも第2四半期の水準が維持されるのか?
この非常に強い需要環境を考えると、競争環境はどうなるのか?
カスタムASICの競争は激化するのか?
また、他のGPUソリューションや他の種類のソリューションの競争も激化するのか?
今後2~3年の間に、競争環境はどのように変化していくと考えているのか?

同社は、下半期の供給量は上半期よりも大幅に多くなると考えている。
この前四半期に見たばかりの需要や、第2四半期の予測にある需要だけでなく、下半期に何かを見ることを計画している。
ただ、ここで注意しなければならないことは、後半についてガイドするためにここにいるのではない。
しかし、下半期は上半期に比べ大幅に増加する予定。

競争については、あらゆる方向から競争がある。
本当に資金力のある革新的なスタートアップは、世界中に数え切れないほどある。
また、既存の半導体メーカーとの競争もあり、社内プロジェクトを持つCSPとの競争もある。
同社は常に競争を意識しており、常に競争を受けている。
しかし、NVIDIAの核となる価値提案は、「最も低コストなソリューションである」ということ。
TCOが最も低いソリューション。

アクセラレイテッド・コンピューティングは、フルスタックが課題。
ソフトウェア、ライブラリ、アルゴリズムをすべて設計し、それらを統合してフレームワークを最適化し、1つだけでなくデータセンター全体のアーキテクチャに最適化しなければならない。
また、エンジニアリングや分散コンピューティング、基礎的なコンピュータサイエンスの仕事は、実に並大抵のものでない。
同社が知る限り、最も困難なコンピューティング。

まず第一に、フルスタックでの挑戦となり、全体にわたって最適化しなければならず、気の遠くなるような数のスタックにわたって最適化しなければならない。
同社には400ものアクセラレーション・ライブラリがあり、同社がアクセラレーションを行うライブラリやフレームワークの量は、気の遠くなるような量。

これは、コンピュータがデータセンターであるとか、データセンターがコンピュータであるとか、チップではなくデータセンターであるといった考え方で、これまでこのようなことはなかった。
この特殊な環境では、ネットワーク・オペレーティング・システム、分散コンピューティング・エンジン、ネットワーク機器、スイッチ、コンピューティング・システム、コンピューティング・ファブリックのアーキテクチャに対する理解、これらシステム全体がコンピュータであり、それを運用しようとしている。
最高のパフォーマンスを得るためには、フルスタックを理解し、データセンターの規模を理解する必要があり、それがアクセラレーション・コンピューティング。

2つ目は、「利用率」。
これは、高速化できるアプリケーションの種類の多さを示すもので、同社のアーキテクチャの多様性がこの利用率を高く保っている。
もし、1つのことしかできず、信じられないほど高速に処理できるのであれば、データセンターはほとんど利用されておらず、その規模を拡大することは困難である。
つまり、ユニバーサルGPUは多くのスタックを高速化するため、利用率が非常に高くなる。
そのため、1つ目はスループットで、これはソフトウェア集約型の問題であり、データセンターのアーキテクチャの問題。
2つ目は利用効率の問題で、3つ目はデータセンターに関する専門知識。
同社は、自社で5つのデータセンターを建設し、世界中の企業のデータセンター建設を支援してきた。
また、同社のアーキテクチャを世界中のクラウドに統合している。

製品の納品から導入時の立ち上げまで、データセンターの運用にかかる時間は、下手すると数ヶ月かかることもある。
スーパーコンピュータの立ち上げでは、世界最大級のスーパーコンピュータが1年半ほど前に設置され、現在オンラインになりつつある。

同社の場合、運用開始までの期間は数週間単位。
データセンターやスーパーコンピューターを製品化したが、その際のチームの専門知識は素晴らしいものだった。
同社の価値提案は、最終的には、これらの技術をすべてインフラに反映させ、可能な限り低いコストで最高のスループットを実現すること。
同社の市場は、もちろん非常に競争が激しく、規模も大きいが、その挑戦は本当に素晴らしいもの。


4.
Q.
データセンター事業のさまざまな成長ドライバーについて今後考えていく中で、コレット、クラウドサービス契約の拡大が続いていることを考えると、ソフトウェアのマネタイズ効果についてどう考えるべきかと思うのだが、AIエンタープライズソフトウェアスイートやその他のソフトウェアのみの収益のドライバーについて、そのアプローチについて、どのような状況にあると考えているのか?

A.
ソフトウェアは、同社の加速度的なプラットフォームにとって本当に重要。
同社の最も近いアーキテクチャや基本的に同社が持っているすべての製品に含まれているソフトウェアのかなりの量を持っているだけではない。
同社は現在、お客様がジェネレーティブAIやアクセラレーテッド・コンピューティングの仕事を始めるのに役立つさまざまなモデルを持っている。
DGXクラウドやサービスの提供、モデル構築の支援、あるいはNVIDIA AIエンタープライズの重要性を説明したが、基本的にAIのためのオペレーティングシステム。
このように、アーキテクチャとインフラの両方、そしてこのサービスの可用性、さらに[無分別]を収益化する能力など、あらゆるものが今後も成長し続けるはず。

モデルのトレーニング、モデルの改良、そしてモデルのデプロイの両方において、ジェネレーティブAIとCSPの成長をリアルタイムで確認することができる。
推論は今やアクセラレーション・コンピューティングの主要な推進力となっている。

新しいソフトウェアのスタックを必要とするセグメントは2つあり、エンタープライズとインダストリーの2つ。
エンタープライズでは、新しいソフトウェアのスタックが必要。
なぜなら、多くの企業は、大規模な言語モデルであれ、これまで述べてきたようなすべての機能、適応能力、独自のユースケースや独自のデータに対して、独自の原則や運用ドメインに合わせる能力を持つ必要があるから。

それをハイパフォーマンス・コンピューティングのサンドボックスで行えるようにするのが、DGX Cloudであり、モデルを作成している。
そして、チャットボットやAIをどのクラウドにも導入したいと思うだろう。

企業向けには、カスタムモデルの作成を支援するNVIDIA AI FoundationとNVIDIA AI Enterpriseがあり、NVIDIA AI Enterpriseは、世界で唯一のアクセラレーションスタック、GPUアクセラレーションスタックで、エンタープライズセーフで、エンタープライズサポートされている。
常にパッチを当てる必要があり、NVIDIA AI Enterpriseを構築する4,000種類のパッケージがあり、AIワークフロー全体のオペレーティングエンジン、エンドツーエンドのオペレーティングエンジンに相当する。

データの取り込みからデータ処理まで、この種のものとしては唯一のもの。
明らかに、AIモデルを訓練するためには、大量のデータを処理し、パッケージ化し、キュレーションし、整列させる必要がある。
このような大量のデータを処理することは、計算時間の40%、50%、60%を消費する可能性があり、データ処理は非常に大きな問題。

そして、2つ目の側面は、モデルのトレーニング、モデルの改良、3つ目は、推論のためのモデルのデプロイメント。
NVIDIA AI Enterpriseは、これら4,000のソフトウェアパッケージのすべてをサポートし、パッチやセキュリティパッチを継続的に適用している。
エンジンを導入したい企業にとって、Red Hat Linuxを導入したいのと同じように、これは信じられないほど複雑なソフトウェアで、あらゆるクラウドやオンプレミスに導入するためには、安全である必要があり、サポートされていなければならない。

3つ目は「Omniverse」。
AIを倫理に合わせる必要があることに人々が気づき始めたように、ロボット工学も同じで、AIを物理に合わせる必要がある。
そして、倫理にAIを合わせるには、強化学習ヒューマンフィードバックという技術がある。
産業応用やロボティクスの場合は、強化学習Omniverseのフィードバック。
そしてOmniverseは、ロボットアプリケーションや産業におけるソフトウェア定義に欠かせないエンジンで、Omniverseはクラウドサービスプラットフォームである必要もある。

同社のソフトウェアスタック、AI Foundation、AI Enterprise、Omniverseの3つのソフトウェアスタックは、DGX Cloudとパートナーシップを結んでいる世界中のすべてのクラウドで動作する。
Azureは、AIとOmniverseの両方でパートナーシップを結んでおり、GTPとオラクルとは、DGX CloudでAIに関する素晴らしいパートナーシップを結んでおり、AI Enterpriseはこれら3社すべてに統合されている。
クラウドを越えて世界の企業や産業にAIの範囲を広げるためには、2種類の新しいソフトウェアスタックが必要であり、それを実現するためにクラウドに置き、世界のCSPクラウドに統合することによって、すべてのクラウドベンダーのセールス、マーケティングチーム、リーダーシップチームと提携できる素晴らしい方法だと思う。


5.
Q.
InfiniBandとEthernetの比較についての議論と今後の展開について、AIにはInfiniBandの低遅延が必要だと思うが、コアコンピュートサイドで出荷しているInfiniBandソリューションの接続率や、コンピュートサイドのようにイーサネットを駆逐しているのかどうかについての質問。
また、株式の買い戻しについて、まだ約70億ドルの株式買い戻し枠があるにもかかわらず、買い戻しが行われなかったは、これは単なるタイミングだったのか?

A.
買い戻しに関してはその通りで、70億ドルの自社株買いのためのリカレント・オーソライズを用意している。
前四半期は買い戻しを行わなかったが、同社は臨機応変に買い戻しを行っており、今後とも検討していきたいと思う。

InfiniBandとEthernetは データセンターでの用途が違い、どちらも居場所がある。
InfiniBandは、四半期で記録的な成果をあげた。
今年も記録的な大台に乗せるつもり。
NVIDIAのQuantum InfiniBandは、非常に優れたロードマップを持っている。
しかし、この2つのネットワークは非常に異なっている。
InfiniBandは、言ってみればAI工場向けに設計されている。

InfiniBandとEthernetの違いは、全体のスループットで15%から20%になる可能性があると言うこと。
もし5億ドルをインフラに費やしたとして、その差が10%から20%で、それが1億ドルであれば、InfiniBandは基本的に無料になる。
それが、人々がそれを使う理由。
InfiniBandは事実上無料。
データセンターのスループットの差は、無視できないほど大きく、その1つのアプリケーションのために使っている。
データセンターは小さなジョブの集まりで、何百万人もの人々が共有している。

クラウドが生成的なAIクラウドになりつつあり、新しいセグメントがある。
それ自体はAI工場だけではない。
しかし、マルチテナントクラウドであることに変わりはなく、生成的なAIワークロードを実行したい。
この新しいセグメントは素晴らしい機会であり、COMPUTEXでは、このセグメントのための主要な製品ラインを発表する予定。
それは、イーサネットにフォーカスしたジェネレーティブAIアプリケーションタイプのクラウド。
しかし、InfiniBandは素晴らしい業績を上げており、前期比前年比では記録的な数字を出している。


お読みいただきありがとうございました!
良いね
と思ったら、好きまたはフォロー、をしていただけると凄く励みになります☺️


この記事が気に入ったらサポートをしてみませんか?