見出し画像

画像生成AIがはかどるパソコンはMacBook M4?

「画像生成AIがはかどるパソコン」をテーマに、今どきのパソコン選びを再考してみた。

私は生成AIブームに乗り遅れた。それでも、この1か月ほどで、AI美女を生み出したり大規模言語モデル(LLM)でAIさんと会話をしたりといった生成AIを、「クラウド型サービスではなく手もとのパソコン」で楽めるようになった。そして、これからそれらがもっとお気楽お手軽になると確信できる、そんな新しい時代にあって、自分もノートパソコン(AMD Ryzen 5 5625U搭載のDell Inspiron 16 5625)を買い替えるタイミングなのか考えてみたい。

生成AIを楽しむためには何が大切か

生成AIを楽しむ……具体的には「プロンプトにあれこれコトバをいれて、返ってくるあれこれに心躍らせたり楽しんだりする」ような生成AIの使い方では、画像と言語のどちらでも、とにかくVRAM(GPUのメモリ)容量が大切、次にGPUのメモリ帯域幅が大切とされている。

生成AI用のモデルデータがVRAMに収まらないと、そもそも動かせない。そして、高画質だったり精度が高い、高品質なモデルデータのサイズは10GB以上があたりまえで、30GBでも驚いてはいけない。VRAMが大きいことが最優先だ。生成AI時代は、VRAMが大きいと「できることが広がる」よりも「できないことがなくなっていく」がしっくりくる気がする。

次に、メモリ帯域幅に比例する「速さ」も、あるにこしたことはない。が、海外のサイトをひととおり巡ってみると、「私らは学習(トレーニング)やあれこれ最適化までいくつも領域展開しているけど、ユーザー目線で考えればさ、一般人はVRAMの大きさに全フリでいいんじゃね?」といったコメントでまとめられているスレッドが多かった。

そして、GPUの「性能」は、実は大切ではない。生成AIの速さのボトルネックは「GPU性能ではなくVRAMのメモリ帯域幅にある」ようだ。

Yahoo!知恵袋ほどではないにせよ、海外でも「AI美少女つくりてー!で即スマホポチポチして尋ねた一般人に、知識ダダ漏れスペシャリストが全力で回答する」ので話がかみ合わないことが多い。

ここでAIに文章の推敲をお願いすれば「生成AIパソコン選びでは、必要な性能と容量、そして価格とのバランスを考慮して、自分の使い方にあったスペックを決めましょう。それでは、すてきな生成AIライフを!」と、無味乾燥にまとめてくれるのだが、現実はそう簡単ではない。

なにより、NVIDIAのGPUボードの製品ラインナップでは「大容量のVRAMだけどGPU性能はそこそこなミッドレンジモデル」が存在しない。

VRAMがたくさん欲しかったら「大容量で超広帯域で超高性能、電源ユニットは箱で1000W」な、自分にやさしく地球に厳しい、デスクトップ用のハイエンドモデルを選ぶことになる。お値段はGPUが30万円、箱全体でざっくり60万円だ。

私が今夏まで使っていたNVIDIA GeForce RTX 3090はVRAM 24GB。つかの間の強さにすがりついた自分に我慢ならず、箱ごとまるっとフリマへ。ちなみに生成AIに使ったことはなかった。

そんな「うちのパソコンで生成AIを楽しむには、高価でも熱くてもNVIDIAのGPUを買って、一日中机にしがみつく、ってのが最適解なのかい?」 といった疑問、というか不満に、NVIDIAの競合になりたいAMDは、CPUとGPUを統合して低価格かつ低消費電力にまとめたAPUで応えている。

そして、かつてNVIDIAと喧嘩わかれして、いまも縁を切ったままのアップルも、AMD APUのコンセプトをもっとスマートに実装したApple Siliconで応えてくれようとしている。

ただ、AMD APUとアップルは、基本的にどちらも生成AIの処理能力は低い。ROCm(NVIDIA CUDAのAMD版)だMPS(同じくアップル版:Metal Perfomance Shaders)だとがんばってはいる。が、設計や半導体レベルからミドルウェアやライブラリの整備、そしてそれを使いこなせる開発エンジニアの育成など含めて、15年以上にわたり地道に取り組んできたNVIDIAとの差は大きい。

よって、生成AI関連のアプリは、そのほぼすべてが「圧倒的王者NVIDIAありき」で作られてきた。アプリが安定して動いても「使いたいモデルデータはサイズが大きくて、手もとのGPUのVRAMに収まらず動かないものばかり」はイヤだが、AMD APUやアップルのように、性能が低いばかりか、そもそも動かないアプリばかり、あるいはなんとか動かせても不安定だったり「あれ、この機能はNVIDIAだけ対応? あ、こっちも? うわぁ」なのもイヤだろう。

NVIDIA vs. AMD AI 300 vs. Apple M4

というわけで、どうやら生成AIを楽しむ用のパソコン選びには正解というのか、最強の選択肢はないようだ。

とはいえ、まあそうなんだろうけど、スペックはいくらか妥協できるし、正直なところアプリは画像生成AIでStable Diffusion XL(SDXL)を安定して使えて、LLMではOllamaが安定して動けばOKだよ? って思う、私のようなひとを想定して続ける。

世の中にはiNiverse Mix XLが使えさえすれば他のことは気にならないひともいる。きょうもプロンプトにはとりあえず「with ponytail」。

NVIDIAを想定しての妥協、だけだとなんというかあれなので、前向きに「ノートパソコンで生成AIを楽しみたい」を選ぶ条件に加えてみる。これから、もっとお手軽お気楽に生成AIを楽しめるようになるはずなのに、部屋で机にかじりつく姿は正しくない気がするし。

そこで、ノートパソコンを想定して、どんなNVIDIA GPUやAMD APU、あるいはApple Siliconを選べるのか、「なにより大切なVRAM容量」と「容量の次に大切なメモリ帯域幅」を軸にグラフにしてみる。

NVIDIAの緑、AMD APUの赤、Apple Siliconの銀でここまではっきり特徴が出た。

ざっくり説明すると、緑がNVIDIA RTX 4000 Laptopシリーズ、赤がAMD Ryzenシリーズ、銀がApple SiliconのM3と、最新世代のiPad Proとこれから発表のMacBook/Proに搭載される「M4の予想」でメモリ容量は適当だ。あとは、折れ線グラフではなく、散布図にトレンドラインを引いた。横軸のVRAM容量が8の倍数ではなくて気持ち悪いのは、私のグラフ作成力の限界によるものだが、MacBookのメモリ容量もアップルがどんなロジックで決めたのか理解できないサイズが混じっていたので、まあこれでいいかと。

さて、NVIDIAから。GeForce RTX 4000 Laptopシリーズは、RTX 4060がVRAM 8GBで帯域幅が256GB/s、RTX 4080が同じように12GBで384GB/s、ハイエンドとなるRTX 4090が16GBで576GB/sと、リニアで増えている。そして、とにかく VRAM 16GBが限界 だ。次世代のRTX 5000 Laptopシリーズも、4000シリーズのボトルネックだった帯域幅を根っこから拡大するもののVRAMは最大16GBにとどまるようだ。

AMD APUは「コスパ絶対正義」ゆえ、メモリ帯域幅を決めるメモリチャネル数が2チャネル固定だ。よって、VRAM容量とメモリ帯域幅(=AI処理性能)は比例しない。本当にフラットだ。Ryzen 5 5625Uで使うDDR4-3200であればメモリ容量に関係なく51.2GB/s、Ryzen 7 8840Uで使うDDR5-5600は89.6GB/s、AI 300シリーズでは現時点でこの構成しか市場にないLPDDR5X-7500で120GB/sといった具合だ。

AMD APUのVRAM容量は、私が使っている2年半前のRyzen 5でメモリを最大容量である64GB構成にすれば、その50%の32GBだ。今年の春頃のRyzen 7 8840Uでは、流通している最大容量のDDR5メモリで96GB構成にでき(48GBを2枚)、VRAMはその50%の48GBを使える。最新のRyzen AI 300シリーズは「メモリ128GBのパソコンが発売されれば」VRAMとしてその75%の96GBを使える。が、市場には存在しないのでグラフから省いた。なお、このシリーズから搭載メモリの75%をVRAMとして使えるように拡大されている。

Apple Siliconは、無印とPro、Maxそれぞれで構成できる最大メモリを使った。で、一部のメモリ容量がアップルの謎ロジックで決められているばかりか、メモリ帯域幅の設定もシンプルなようでいて正確な説明が難しい。

M3無印の最大メモリは24GBで帯域幅100GB/s、同じようにM3 Proは36GBと150GB/s、M3 Maxは96GBと300GB/s、あるいは128GBと400GB/sとなる。M3はM2、さらには無印を除くM1シリーズと同じメモリ規格ゆえ帯域幅が変わらない「はず」だが、M3 Proは、M1 ProとM2 Proが「200GB/s」だったのに対し「150GB/s」と、なんらかの理由でチャネル数を4本から3本に減らしてメモリ帯域幅をざくっと削った

「Youtuberでさえ理由を説明するのに苦労」したこの仕様は技術記事でも誤った内容が散見されるので、私レベルはだいたい無印とProとMaxで倍々になるくらいの理解で十分としたい。なお、MacBookシリーズでは選べない、Mac StudioとMac Pro用の「Ultra」になると、さらに倍の帯域幅だ。

ともかく、メモリ帯域幅をざくっと削ったにもかかわらず、GPUまわりについては MacBook ProのM1 ProとM3 Proは処理速度が同じ という測定結果がある。

この記事では触れられていないが、前述のとおりメモリ帯域幅を75%に削りつつ同じ性能を出せたのならすばらしいことで、単純な演算処理しかしない生成AIでも同じ傾向なのかが気になる。そして、Proは世代で帯域幅が変わるので性能を比較しづらく、単純には参考にすべきではないこともわかった。もちろん、無印はM1とPro/Maxとで使うメモリの規格が異なるので、やっぱり単純には参考にできない。

というわけで、比較に使うならMaxしかない。生成AI、特にLLMにおけるM1 MaxとM3 Maxの比較では、別のデータやまとめ記事が参考になった。結論として、ざっくり理解には「M1もM2もM3も、メモリ帯域幅が同じだから生成AIの速さも同じ」でよさそうだ。

もっとも、無印の4倍もの、そしてNVIDIA GPUにも匹敵するメモリ帯域幅をもつMaxは、内蔵GPUだけでその帯域を使いきるのは簡単ではなかったようだ。M1 MaxとM3 Maxとの比較でアップルは「GPUを使った処理は最大で2.5倍高速」とアピールするものの、コア性能依存の高い、とても複雑な処理であるレイトレーシングはともかく、単純な演算処理である生成AI(LLM)は「GPUのコア数が増えた分」だけの性能アップにとどまっている。逆に、M3 MaxのLLM処理性能は同じメモリ帯域幅をもつNVIDIA GPUに近く、3世代目でようやくその帯域を使いきったと考えてよさそうだ。

というわけで、より高速なメモリに刷新されたM4シリーズはM3シリーズの20%増し、あるいはそれ以上のメモリ帯域幅になるので、3年ぶりに価値ある性能アップが期待できる。期待を含むが、特にM4 Proにて、M3 Proで削られたメモリ帯域幅が復活して240GB/sの設定になったら大注目だ。

なお、Apple Siliconは技術的には搭載メモリのすべて、100%をGPU用に、つまり生成AIのモデルデータ用に使える。実用的にはその9割くらいが限界だろうが、そんなの誤差レベルの圧倒的なVRAM容量とNVIDIAに匹敵する広い帯域幅にはうっとりする。

こうしてみると、とにかくVRAMの容量が大切といわれるなか「生成AI? NVIDIAの一択」と秒で断じてきたひとでも、その自信が揺らいでくるかもしれない

まじめに比較してみる

まず、NVIDIAは……ノートパソコン用ではやっぱり選びにくい。NVIDIAはほぼすべての生成AIアプリが対応し、そのすべての機能が動く「絶対の安心感」がある一方、ゲーミングパソコンとしては十分なVRAM 16GB(RTX 4090 Laptop)も、生成AIを楽しむには心もとない。生成AI向けと思われる「VRAMが足りなくなったらメインメモリを使う」機能も追加されたが、これは悪手だろう。

あとNVIDIA GPUつきノートパソコンは派手派手、ド派手だ。

次に、AMD APU。リブランドをして新世代感をまとって登場したRyzen AI 9 HX 370などRyzen AI 300シリーズは、CPUとGPUの統合型として、いまもっとも高いGPU性能を誇る。

ただ、デルのAMD APU搭載ノートパソコンなどでは当たり前にできていた メモリ交換ができない。その高性能を発揮「させなければならない」ため、具体的には、マーケティング面でマイクロソフト Copilot+ PC の要件である「NPUで40TOPS以上」の処理性能を出せるメモリを採用して認証を通す必要があるために、「ボード固定」のLPDDR5X-7500構成しか見当たらない。そのうえ、市販されているモデルはメモリ32GBばかりで、AMDが「128GBのメモリ構成なら、その75%を割り当てたVRAM 96GBいけますよ」と宣伝しても、現実は32GBの75%であるVRAM 24GBが最大だ。そればかりか、自慢の高性能GPUも、ビデオゲームで使われる複雑なテクスチャ処理まわりの効率化で2倍の帯域幅と同じ処理ができるようになったのがポイントで、本当に単純な処理である生成AIはちっとも速くならない。

と、悪い面ばかり拾い上げてしまっているが、メモリを交換できるノートパソコンでも買ったひとの99.5%はそのままの容量で使い続けるし、「VRAM 24GBなら十分では?」でもある。

ついでに、Ryzen AIシリーズがアピールする「AI処理を専門とするNPU」についても触れる。NPU(Neural network Processing Unit)はiPhone 8/Xで実装され始めたAI処理専用プロセッサーで、私は「GPUからAIの推論(実行処理)に役立たないビデオゲーム向けの機能などをとっぱらって、モバイルでも常に動かせるくらいエコ性能に全フリした」くらいのざっくり理解をしている。

そんなNPUは画像や言語といった生成AIでも活躍しそうだが、実際は「無関係」だ。NPUの用途は「カメラで撮影しながらリアルタイムにAIで画像処理をする」や「マイクから音を拾いながらリアルタイムにAIで音声処理をする」であり、カメラであれば撮った写真をきれいに見せるのはもちろん、ZoomやTeamsなどのビデオ会議の背景をぼやかしたりして、マイクであればSiriなどの音声インターフェースに使われるのはもちろん、自分の声以外のまわりのノイズを消したり流れている音楽を楽器ごとに分離させたりといった処理を得意とする。どちらも、モバイルで連続1時間や2時間は当たり前で、半日くらいずーーーっと動かしたいので、エコ性能が高く、バッテリーにやさしいことが大切だ。

とまあ、NPUはカメラやマイクといったデバイス経由の「小さなサイズ」のバッファーデータをリアルタイムにAI処理するためにあり、これからのスマホやノートパソコンではさらなる進化が求められる。が、生成AIのような「10GBのサイズ」が当たり前のモデルデータを参照しまくって、リアルタイムではなく、精度優先かつできるだけ速く処理するような使われ方は想定していない。Apple Siliconは無印やPro、MaxでCPUやGPUの性能は大きくアップするが、NPUの性能はすべてのタイプで同じだ。MacBook 1台あたりひとつ(一組)のカメラやマイクをターゲットにしていることがわかる。生成AIの処理において、NPUとGPUは「やっぱり別物」と理解したい。

Ryzen AI 300シリーズ搭載モデルは、それまでのAMD APU搭載モデルと打って変わって強気なお値段ばかりなのも気になる。

それでは、前の世代ともいえるRyzen 7 8840や7840などはどうか。Ryzen AI 300シリーズと設計の根っこは同じゆえメモリも広帯域のLPDDR5X-7500を採用できるものの、ノートパソコンではより安価かつメモリ交換ができるDDR5-5600を採用しているモデルも多い。メモリ交換ができる代わりに帯域幅は25%ほど狭くなり、つまりAI処理も25%遅くなる。が、そもそもAPUのコンセプトは「コスパ絶対正義」なので問題ない。3万円でDDR5-5600 48GBのメモリを2枚買って合計96GB構成にすれば、VRAMはその50%の48GBだ。

最後に、アップルのMacBook。Apple Siliconの美しいアーキテクチャなどは別の記事にまとめるとして、そのApple Siliconの特徴であるユニファイドメモリによって、生成AIをもっとも楽しめる「設計」のノートパソコンとなっている。NVIDIAで100GBを超えるVRAMを使うには、データセンター向けの1000万円以上のGPUサーバーを構成し、高額な電気代の支払いも必要だ。MacBookであればそれを14型の小さなラップトップにおさめて、どこにでも持ち運べ、いつでも動かせるのだ。

GPUをNVIDIA、AMDと乗り換えて内製化に舵を切ったアップルが、新しい時代のスタンダードになるかも。

とはいえ、「設計」はいいとして、現実としては、Apple SiliconでAI処理をするためのライブラリであるMPSの完成度がもっと高まってから選ぶのがよさそうだ。そして、それは案外とすぐに訪れる気がしている。

LLMのOllamaはApple Silicon「発祥」であるし、同じアーキテクチャのプロセッサーを使うiPhoneでApple Intelligenceが広まることで、特にコンシューマー向けローカル生成AIの分野では、NVIDIAやAMDを圧倒するスピードでライブラリとアプリの成熟が進むと期待できる。画像生成AIのStable Diffusionをだれでも簡単に楽しめるアプリとして、AMDでWindows用に「Amuse」があるように、Macには「MochiDiffusion」がある。

あとはお値段。14型のMacBook Proは、M3 Proの36GBで45万8800円。M3 Maxの128GBで76万3800円。MacBookのリセールバリューの高さは知っているが、個人で買うにはちょっとお高い。それでも、M4のMacBookが出たら、生成AIを楽しむ用としてはもちろん、(ライブラリの品質に文句をつぶやきながらも)開発する用としても大いに注目されると思う。

おわりに

書き残したことがたくさんあるのでそれらは別の記事にするが、「生成AIを楽しむ」には、いまのDell Inspiron 16 5625を買い替えずとも十分だと分かった。メモリ交換も簡単で安かった。いま主流のDDR5より世代が古いDDR4のメモリなので、64GBを新品1万4000円で買えた。よりお金をかけることで速くなるが、できることは変わらないのだ。

ノートパソコンのメモリは、これまでも軽量薄型プレミアム志向ではボード固定で交換や増設ができないモデルが多かったが、これからはずんぐりしたコスパ志向モデルも含めてすべてがそうなっていくトレンドにある。アップルはM1からすでにプロセッサーと同じパッケージにメモリを統合し、インテルもそれにならってメモリをパッケージ内に統合し始めた。AMD APUも、今夏のRyzen AI 300シリーズからはボード固定で増設不可が標準だ。つまり、「生成AIのために大容量のVRAMを安く手に入れる」手段がなくなってきた。

ローカルな生成AIに、それも楽しむだけのために、どこまでスピードを求めるか。つかの間の最強にすがりつくことなく、そして大容量のVRAMで「できないことがなくなっていく」を目指すのであれば、AMD APUはよい選択になると思う。それも、メモリ交換ができるモデルがよい。いまは、NVIDIAの上限であるVRAM 16GBの2倍、3倍といった容量を安く手に入れられる、最後のタイミングにさしかかっているように思う。

アップルはそんな「メモリ交換できない」が弱点とはならない。大容量のメモリとあわせてCPUやGPUのコア数は増え、帯域幅も広くなり「大容量のメモリのためにM4 ProやMaxを選べば、生成AIの処理速度も2倍や3倍になる」と期待できる。お金を使った分だけ満足度もあがる設計を取り入れたことで、納得感のある価格提示ができるだろう。3年ぶりに、根っこからの生成AI処理性能アップを果たすMacBook M4は、生成AIをプライベートで楽しむにも、その開発やAIをより深く活用したクリエイティブワーク用にも最高のノートパソコンに見えそうだ。