AzureのGPU搭載VMを安い順に並べる(2023年9月版)

あまりまとまった情報が見つからなかったので、自分用にまとめたメモです。

Microsoft Learnの情報から、GPUが使えるVMについて雑にまとめました。

Azureで使用できるGPU搭載VMについて

  • AzureではGPUが搭載されたVMの名称はNから始まりますが、NDIVIA社のグラフィックボードが搭載されているとは限りません。

  • なお、初期設定ではクォータが1つも割り当てられていないので、使用する前に必ずクォータ増加の要求を送信する必要があります。

  • Azure Machine Learningのコンピューティングでも同じVMが選択肢として表示されますが、クォータは別カウントなので、Azure MLで割り当てられていてもAzure VMで使用する場合は改めてリクエストを送信する必要があります。

以下は、時間あたりのコストが安い順に並べています(料金は9月21日時点のもの)。

NC4as_T4_v3 (¥91/時)

NC8as_T4_v3 (¥130/時)

NC16as_T4_v3 (¥208/時)

これらはNCasT4_v3 シリーズで、NVIDIA Tesla T4 GPUが搭載されています。T4といえば、Colabの無料プランで使用できるGPUですね。4、8、16はそれぞれvCPU(仮想CPU)のコア数を表しています。

GPU数は1枚なので、推論時に必要となるVRAM(GPUメモリ)はいずれも16GBです。

NC6s_v3 (¥537/時)

NCv3 シリーズの6vCPUモデルで、NVIDIA Tesla V100 GPUが搭載されています。ColabのプレミアムGPUのA100じゃないほうです。

こちらはvCPUが6コアで、GPUは1枚、VRAMは16GBです。

VRAMはNCasT4_v3シリーズと同じですが、Tensor Cores数が320→5,120、メモリ帯域幅が320GB/s→900GB/sと性能が大きく異なります。そのため、コストも跳ね上がります。

ファインチューニングのような学習用途では良い一方、LLMのシンプルな推論に使用するにはオーバースペックかもしれません。

NC24ads_A100_v4 (¥682/時)

NC_A100_v4 シリーズの24 vCPUモデルで、NVIDIA A100 PCIe GPUが搭載されています。A100はColabで使用できる最上位GPUです。

vCPUは24コア、VRAMは80GBです。

NC64as_T4_v3 (¥752/時)

NCasT4_v3 シリーズの最上位のVMサイズで、T4が4枚搭載されています。そのため、使用できるVRAMも64GiBと跳ね上がっています。

NC48ads_A100_v4(¥1,363/時)

A100が搭載されたNC_A100_v4 シリーズの48 vCPUモデルで、VRAMは160GBです。

NC24s_v3 (¥2,147/時)

NC24rs_v3 (¥2,362/時)

どちらもNCv3 シリーズの24vCPUモデルで、V100 GPUが搭載された最上位モデルです。24rsのほうはRDMA(リモート ダイレクト メモリ アクセス)に対応しています。

NC96ads_A100_v4 (¥2,727/時)

NC_A100_v4 シリーズの96 vCPUモデルで、A100が使えるVMサイズの最上位です。

A100を贅沢に4枚搭載し、そのVRAMは320GB。1ヶ月つけっぱなしにしとくと200万円も請求されます。ただ、A100は1枚で$11,000(約163万円)なので、電気代込みと考えるとコスパは悪くないかもしれません。電気はこまめに消しましょう。

参考記事


この記事が気に入ったらサポートをしてみませんか?