見出し画像

競合AI半導体がタダでも負けないNVIDIA

今までNVIDIAのAI半導体の優位さをお話しする記事をいくつも書いてきました。NVIDIAのCEO Jensen HuangがStanford大学の基調講演で自社の無敵さを語っている動画を見つけました。内容は過去記事と重複しますが、衝撃の内容なのでお話しします。

競合半導体が無料でも負けない

Jensen HuangはNVIDIAほど競争にさらされている会社はないと言っています。その中でも、圧倒的なオペレーションコストの低さによって、競合半導体が無料でも負けないと言っています。たとえチップが無料でも持参金を付けなければ顧客は買わないというわけです。

競合半導体が無料でも負けない理由

1個のGPUだと思ってプログラムできる

無料でも負けない理由は生成AIに特化したBlackwellアーキテクチャとそれを活かすCUDAというライブラリにあります。
Blackwellの一世代前のHopperでも144TBのメモリをひとつのメモリとしてプログラムすることができました。Blackwellではさらにそれが強化されているはずです。GTC2024の基調講演では32000個のGPUをひとつのGPUとしてプログラム可能と言っていました。それに対応するメモリにもアクセスできるはずです。
NVIDIAのGPUを使わなければ、データをメモリに分割してそれを個別にアクセスして、というのをプログラムで書かなければなりません。バグも多く安定性にも欠けます。プログラマでそんな実行環境を使いたいと思う人はいないでしょう。

ライブラリが安定して使える

Pythonの深層学習のプログラムをしていると下記のような全く訳のわからないエラーが出たりします。昨日まで動いていたプログラムが1行も変えていないのにエラーになることもあります。

ValueError: numpy.ufunc has the wrong size, try recompiling. Expected 192, got 216

fast.aiで出たnumpyのエラーの例

これは利用しているオープンソースのライブラリのバージョンアップによる不具合です。
CUDAは世界中で使われているので、このようなバージョン依存のエラーもすぐに検出され、修正されます。この安心感は深層学習で長年使われているCUDAならではのものです。

ネットワーキングの設置及び運用コストが安い

生成AIの学習は大量のデータによる大量の計算を必要とします。NVIDIAのGPUはクラスタ内は最新のNVLinkで結合され、さらにクラスタ同士はInfinibandで高速結合されています。高速な上にアルゴリズム的変更にも柔軟に対応できます。同じことを別の半導体でやろうとすると、ケーブルをひきまわし、ソフトウェアを改造し、それに起因するさまざまなソフトウェアバグに対応しなければなりません。このオペレーションコストの損失は計り知れません。

むすび

NVIDIAのCEO Jensen HuangはAIはソフトウェアであり、GPUはあくまでもソフトウェアを活かすための基盤環境だということを強く意識しています。ソフトウェアのエコシステムを強く支援し、ソフトウェア開発経験からのフィードバックを、チップ内のTransformerエンジン、チップ間の高速接続、CUDAによる柔軟な学習環境設計に生かせているのがNVIDIAの強みです。この強みは過去10年間の深層学習の縁の下の力持ちで培われたものです。代替するのは相当困難だと思います。NVIDIAはその強みによってさらにソフトウェアエンジニアを自社およびエコシステムに引き付けます。NVIDIA一強は当分続くと思います。

参考文献

この記事が気に入ったらサポートをしてみませんか?