見出し画像

COMPUTEX TAIPEI 2024~PCローカルのAI処理がもたらすものとは~

2024年6月4日~7日の期間、COMPUTEX TAIPEI 2024が開催された。COMPUTEXとは「台北国際コンピュータ見本市」のことで、毎年、世界最先端の技術が集結するアジア最大規模のICT見本市である。コロナ禍で一般観覧日がなくなっていたのだが、今年は久々に一般観覧日が復活し、会場は大混雑であったようだ。

1月に開催されたCES 2024(コンシューマー・エレクトロニクス・ショー)でも最先端技術を用いた製品が多く出展されていたが、当時はまだプロトタイプという状態であったものが、このCOMPUTEX 2024では製品化されたものが多く出展されているだけに、個人的にはCOMPUTEXの方を楽しみにしていた。5月にMicrosoftが発表したCopilot+ PCの一斉販売が6月18日ということもあり、多くのCopilot+ PCが出展されていた。同時に行われている基調講演でも、英Arm、Qualcomm、Intel、AMDなど各社がAI処理性能を向上させたSoCについての講演が多くみられた。世界中がAI処理をめぐって躍起になっているのだと思われる。

AMDは、リサ・スーCEOが登壇し、最新製品となるRyzen9000シリーズ、Ryzen AI 300シリーズなどを発表した。特に、Ryzen AI 300シリーズに関する講演が最も時間を使ったところから、AMDもCopilot+ PCを強く意識していることが窺える。従来製品であるRyzen 7040シリーズ、Ryzen 8040シリーズは優れた演算性能をもつCPUではあるが、NPU性能をみると10~16TOPSと低く、40TOPSというCopilot+ PCの要件を満たしていなかった。

AIをあまり使わない殆どのユーザーにとっては気にしなくてもいいレベルの話ではあるが、AMDとしては時流に乗るためにもCopilot+ PCの要件をクリアしたSoCを開発、販売する必要があり、後発ながらこのタイミングで製品化に漕ぎ着けた。Ryzen AI 300シリーズのNPU「XDNA2」の性能は50TOPSと高いものであり、意地を見せた感じがある。すでに製品化も進んでおり、Ryzen AI 300シリーズ搭載PCとして、HPのOmniBook、LenovoのYOGA、ASUSのProArtなどの発売が発表されている。

Intelは、パット・ゲルシンガーCEOが登壇し、最新製品である「Xeon6」「Lunar Lake」などを発表した。こちらもCopilot+ PCに向けてのSoC「Lunar Lake」に関する講演に多くの時間を割いていた。Lunar Lakeは次世代薄型ノートPC向けSoCということで、性能だけでなく消費電力にも重きを置いたSoCである。

「新しいアーキテクチャのCPU、GPU、NPUを採用し、それぞれのプロセッサレベルでの性能を引き上げており、SoC全体で消費電力を削減する設計がされており、SoC全体で120TOPSのAI性能、40%の電力削減を実現している。」という発表を聞いたときは、その内容を疑っていた。今までの感覚でいうと消費電力を下げるとなると「TDPを下げるため、処理性能も下がる」ことが当たり前だからである。

データシートをよく見ると既存の構造とかなり異なる構造を利用している点に気づく。これが消費電力を抑えつつ性能を向上させる方策なのだと基調講演の内容から読み取れた。先代のCore Ultra(Meteor Lake)では、コンピュートタイルとは別にSoCタイルという別のダイの中に低電力Eコア(Low Power E-Core)を用意しており、OSが動作していてアイドル時やあまり負荷が高くないときにはその低電圧Eコアに切り替えて、Pコアと通常版Eコアから構成されているコンピュートタイルをオフにして電力消費を防ぐという仕組みになっていた。

ところがLunar Lakeではその仕組みは継続されず、その代わりに新しいPコアとEコアがそれぞれ導入されて、特にEコア側の電力効率を改善することで、低消費電力でかつ高性能を実現している。新しいPコアはLion Coveの開発コードネームで知られる新しいCPUデザインになる。このLion Coveはほぼフルスクラッチで開発したような新しいCPUコアになり、2020年に導入されたSunny Cove以降その改良版が続いてきたIntelのCPUコアが大幅に更新されたことになる。Lion Coveではマイクロアーキテクチャ(内部構造のこと)に大きな改善が行なわれ、キャッシュ階層も改良が加えられており、48KBのL0キャッシュがキャッシュ階層に追加され、L1キャッシュの192KB、そしてL2キャッシュが2.5MBに増量されるなどしており、メモリレイテンシの削減が実現されていることで性能の向上を図っている。

もう1つ重要な点は、Lion CoveはHTT(Hyper Threading Technology)の機能が削られていることだ。HTTは、CPUのコア数がまだ少ない時代に、CPUコア利用率を上げる目的で1つの物理コアに対して2つの論理コアを設けるという技術として導入された。2つの物理コアがある場合には、OSから4論理コアがある形に見え、OSがそれぞれの論理コアに対してスレッドを割り当てて実行することで、CPU内部の演算器の利用効率を上げるという目的で導入されている。

現代のCPU設計は、トレンドとしてシングルスレッドの性能を高め、それをマルチコア化することで全体の性能を向上させるのが一般的であるが、HTTのような技術を使っていると、逆にシングルスレッド時の性能やデコーダなどにHTTのためのブロックが必要になるため電力効率が落ちるという矛盾が発生していた。そこで、今回IntelはHTTを使わないことを決断したというわけだ。その結果、IPC(Instruction Per Clock-cycle、1クロック周波数あたりに実行できる命令数のこと)が大きく改善されている。具体的にいえば、Meteor LakeのRedwood Coveに比較して14%という大きなIPCの改善が実現されている。同じ性能であれば電力が削減され、同じ電力であれば性能が向上する。

AI性能でも先発のSnapdragon X Eliteを追い越すためにSoC全体で進歩させている。Lunar LakeとSnapdragon X Elite のTOPSを比べてみると、

Snapdragon X Elite:(CPUとGPU合わせて)30TOPS+(NPU)45TOPS=75TOPS
Lunar Lake:(CPU)5TOPS+(GPU)67TOPS+(NPU)48TOPS=120TOPS

となり、Lunar LakeはGPUでのAI演算能力が高いといえる。現実問題として、現状多くのISVが提供しているAIアプリケーション(例えば、Adobe Creative CloudのPhotoshop、Lightroom、Premiere Proなど)は、GPUを利用してAIの処理を行なっている場合がほとんどであることを考えると、Lunar LakeとSnapdragon X EliteのAI PCとしての性能は、ISVのAIアプリケーションのようにGPUを主に利用する場合にはLunar Lakeが2倍以上の性能を発揮することを意味することになる。

AI処理の話になると、どうしてもNPU性能ばかりが表に出てしまうが、NPUだけでなく、CPUやGPUにも大きな手を入れたことで、全体的に大幅な性能向上を成し遂げたIntelのアイデアには頭が下がる思いである。Lunar Lakeは第3四半期に投入ということで、搭載PCが手元にくるにはまだ時間はあるが、すでにASUSからは「ExpertBook P5」がCOMPUTEXに出展され、AcerのチャンCEOからは開発中のLunar Lake搭載薄型ノートPCが公開されており、製品発表もそう遠くはないと思われる。Core Ultraのときは正直、気にも留めていなかったが、Lunar Lakeは非常に気になる製品に仕上がっているのではないだろうか。

個人的な意見になるが、Snapdragon X Eliteの発表のときも性能は申し分ないと感じたが、アプリの互換性のことが気になり、今も二の足を踏んでいる。そこにAMD、Intelが新しいSoCで追従する姿を見ると、これから製品化されるノートPCに期待が高まる。

モバイルユーザーとしては、「長時間バッテリー、高性能、薄型軽量」という相容れない要素を追い求めているだけに、何度も妥協をしてきた現実がある。Snapdragon X Eliteの登場でその妥協をどこまでなくせるかと思っているが、アプリの互換性はまだ完全に解決されてはいない。互換性に関しては、AMD、Intelに分があるのはわかるが、今までのようにTDPを下げた低消費電力版でお茶を濁されるのではないかと期待をしていなかった。

ところが今回の発表を聞き、期待が大きく高まったのも事実である。早く製品を手にして使ってみたいと久々に思える内容であった。COMPUTEXの盛り上がりを受けて、PC業界がどこまで活性化するか楽しみになってきている。

AIがあらゆるところに入り込み、いずれなくてはならないものになるのは明白である。スマホのカメラにも画像処理用にAIが組み込まれていることも多くなり、PCでも画像処理アプリや動画編集アプリにAIが一部活用されているもの目にする。
しかし、今の段階では、PCに搭載されているSoCのAI処理能力は低いため、簡単な処理でしか利用できていない。生成AIがクラウドサービスをメインとしているのは、現状を反映しているといえる。

ところが、今回発表された新しいSoCが普及すれば、生成AIをローカルPCで動かすことができる。2024年が、クラウドからローカルへAIサービスが移行する転換期になるのではないかと思えるほど、今年のCOMPUTEXは大きな波を感じられるものであった。これから先、AIサービスを取り巻く環境が、どのような進歩を遂げ、我々の手元に届くのかを楽しみに待つことにしよう。

この記事が気に入ったらサポートをしてみませんか?