見出し画像

経済産業省のデジタル産業戦略が面白い(その3)


沢山GPUあるけど実際動かすのにどれだけ電力がいるの?

 またまた前回からの続きです。

 前回はデジタル貿易赤字の拡大を防ぎ、GPUサーバによるAIデータセンターを日本でもどんどん建てて、AIに必要な計算力を自国インフラで賄い、AIの計算資源使用料で貿易赤字が拡大するのを防ぎましょうという戦略と、その反面AI必要にな計算力が急速に増加し続けている事についてについて説明しました。今回はこれを、AI開発・利用に必要な電力の面から見てみようと思います。

(表1-前回記事掲載)2023年各社H100見込み調達数と通販DGX価格・計算力を掛けあわせてみた

 上の表1は前回掛け算を行った2023年にAI用最新GPUを調達した主要企業一覧となりますが、彼らが調達したGPUをAI用のスパコンとして動かす為には実際どれぐらいの電力が必要になるかを雑に計算してみようと思います。

(表2) 表1のH100を使ったスパコンの電力を雑に推定してみた

 まず、H100を動かすためにサーバに入れる必要がありますので、NVIDIA純正H100を8台搭載するGPUサーバ、DGX H100を基準に計算してみます。
(H100 調達数) ÷ 8 × 10,200 = GPUサーバ消費電力合計
こんな感じですね。
 当然AIスパコンとして利用する為には、GPUサーバ以外にも様々な機器が必要になります。ネットワーク、ストレージ及び管理用システム等にスパコン全体の冷却に必要な電力を合わせ、雑にGPUサーバの2倍ぐらいをGPUスパコン全体の消費電力としてみます。かなり雑ですので正しい数字を知りたい方は色々調べてみる事をお勧めします。

最先端の生成AI開発はギガワットで殴り合い?

 こんな感じで雑計算をすると、上の表に出てくるMetaやMicrosoftは、去年調達した最新GPUを使ったスパコンの為に、400MW級のデータセンターをそれぞれ用意して、必死に最先端生成AI開発競争を行っている事になります。ちなみにこの400MW級データセンターというモノのサイズ感が自分でもイマイチわからなかったので少し記事を漁ってみたところ、どうやら日本国内の事業者データセンターの年間電力キャパシティ合計増加分よりも大きい規模のデータセンターになってしまう様です。

 既に2024年も夏が終わり、これから年末に向かう時期です。前回の記事の通り生成AI開発に必要な計算力が3-4ヶ月で倍増している状況を踏まえると、生成AI開発の最先端では既に2回ぐらい倍額プッシュしてるかもしれない程度の時間が経っています。こんな状況を裏付ける様に、AWSがGW級の原子力発電所を購入したニュース等もさらっと流れてたりもします。ギガワットまで来ると、そういえばデロリアンでタイムトラベルするのに必要な電力が1.21ギガワットだっけ、とか頭が現実逃避の方向に流れて行きますね。

 経産省のデジタル産業戦略では、その辺も十分踏まえた上でより省電力な半導体の開発にも力をいれていますが、半導体開発はどうしても長期的視点での戦略となってしまいます。直近で世界のAI開発競争に出遅れないだけの計算資源を確保しようとする場合、それこそ早いもん勝ちの世界になるのかなと感じます。出遅れるとサーバを置く場所も動かす電力も無い、みたいな。データセンターも発電所もきっと建てるまで時間かかりますよね。知らんけど。

(ご参考) (その1)でご案内したリンク
経済産業省 - ものづくり/情報/流通 - 情報化・情報産業 - 半導体・デジタル産業戦略検討会議
JIPDECレポート - 令和6年度 経済産業省デジタル関連施策について

▼人材募集中 
~モルゲンロットやGPU活用に興味のある方からのご応募待ってます~

▼Cloud Bouquet ~GPUを安価に使えます~

アンケートに答えてトライアルポイントGETしよう!