AI関連株が低迷しているように見えるのは、NVIDIAのハイエンドGPU H100の生産が需要に追い付かないから
5月下旬、半導体大手のエヌビディアが発表した5-7月期売上高見通しが市場予想を大幅に上回り、株価が急騰した。
何故こんなにNVIDIAの売上高見通しが上がったかというとハイエンドGPUのNVIDIA H100がLLMの推論とトレーニングの両方において既存の製品の中で最高のパフォーマンスを発揮するからです。
多言語のテキストや音声を翻訳するAIによる顧客サービスや、ChatGPTやStable DiffusionなどのジェネレーティブAIによる顧客サービスを大手クラウドサービスが強化しており、そのためにより高速で効率よくAIを駆動できるGPUとしてH100が最適。
NVIDIA H100はコストパフォーマンスも高く、AIモデルのトレーニングにかかる時間を短縮することにもつながる。
ただ、あまりにもH100が優秀すぎて需要に供給が追い付かないのだ。
Open AIのサム・アルトマンCEOは、2023年5月に開催された公聴会の中で「GPUが非常に不足しているため、当社の製品を使用する人が少ないほど良いです」「GPUが不足しているため、当社の製品の使用量が減ってくれると嬉しいです」と語り、GPUの供給不足が同社に与える影響を明かした。
8月の決算でスーパーマイクロが期待された売り上げを出せなかったのも主要コンポーネントであるH100が足りなかったから。
NVIDIA H100を8つ搭載したNVIDIA DGX H100の場合、販売価格は46万ドル(約6670万円)。
このうち10万ドルはサポート費用で、スタートアップは約5万ドルの割引を受けることが可能。
Open AIのLLMであるGPT-4の場合、約1万~2万5000台のNVIDIA A100でトレーニングされたと考えられています。
Metaは約2万1000台、テスラは約7000台、Stability AIは約5000台のNVIDIA A100を保有しているとされています。
また、InflectionはGPT-3.5と同等のAIモデルをトレーニングするのに3500台のNVIDIA H100を使用したことが明らかになっています。
MicrosoftのAzureの場合、約1万~4万台のNVIDIA H100を使用しており、Oracleも同等のNVIDIA H100を保有していると考えられています。
それでもOpenAIは5万台、Metaは2万5000台、AzureやGoogle Cloud、AWSといった大規模なクラウドサービスはそれぞれ約3万台ほどのNVIDIA H100を必要としていると考えられています。
1台あたりのNVIDIA H100の価格を約3万5000ドルと推定すると、企業側がNVIDIA H100を導入しようとすればとんでもない設備投資が必要となることがよくわかるはずです。
現在アメリカでAI関連が停滞しているように見えるのはこのH100の供給不足によるもの。
需要にこたえるためにTSMCは、2023年の期間中、Nvidiaのために10,000枚のCoWoSウェハー(1枚のウェハーに約60個のA100/H100 GPUを搭載、つまり60万個のトップエンドデータセンターGPUを搭載)を追加で加工することを約束した。
TSMCの月間のCoWoS生産量は8,000~9,000枚の間で推移しており、Nvidiaに月1,000~2,000枚を追加供給すれば、TSMCのハイエンドパッケージ設備の稼働率が大幅に向上する。
GPT-5には3万~5万のH100が必要らしい。
ライバルのAMDはハイエンドGPU MI300Xの大量生産が早くても2024年になってから。
私たちはまだ本気のAIを見ていない。
ハイエンドGPUが行きわたった2025年はどんな世界になっているのだろうか。
AI関連のブームは終わったわけではなく、まだまだこれからなのだ。
そうじゃないと困るのよ!
465.96で買ったのよ!
どんどん上がって500超えてくれよ!
ついでにスーパーマイクロの株価も上げてくれーーー(魂の叫び)
この記事が気に入ったらサポートをしてみませんか?