見出し画像

深層学習用の計算機

学生さんが深層学習用の計算機が欲しいというので手軽なのを物色してみたら,日本国内のは大分高いことに気づいた.

Youtubeでお奨めされたいたのはこれだ.Lambda Quadといって,RTX 2080 Tiを4つ積んでいる.

同スペックのを国内で探したら1.5倍くらいの値段がついていた.技術者が少ないのか,需要が少ないのか,そもそも部品が高いのか,他の理由があるのか分からないが,だいぶ高めに設定しているようだ.

深層学習には,GPUはメモリをそこそこ積んだものが必要だが,それほど高価なものは必要ない.国内のPCだとゲーム用のメモリがほとんどないGPUを積んだPCや,サーバー用の高価なものを推奨していることが多い.深層学習をやりたい人たちはどうせ自腹では買わないので,高くても売れるだろうと思っているのだろう.深層学習が日本で普及しない理由のひとつなのかもしれない.

AIバブルで予算が余っている日本の企業では,たくさんGPUを積んで学習速度(Imagenet)の世界記録を競争しているようだが,これも空しい.たしか最初はPFN(15分くらい)で,Sony(4分くらい)がそれを昨年破って,つい最近,富士通研究所がそれを30秒くらい縮めた(3分半くらい;笑)ようだ.

使ったGPUは2000個越えらしいが,Stanfordで行われたコンペだと100くらいのGPUで4分で計算できている.

精度については日本のニュースでは書いていない(Stanfordのは93%くらい)が,4分を3分にするのに20倍のGPUを使うようではダメだ.

fast.aiの記事だと,「誰でも」18分くらいで93%が出るようだ.かかるお金はAMAZON AWSで40$程度だそうで,こういった民主化運動がこれからの普及には重要になるだろう.

この記事が気に入ったらサポートをしてみませんか?