見出し画像

AIチップメーカー(NVIDIA、Intel、AMD)の動向

 注目を集めるAIを市民の手元までに展開する要求が大きくなり、AIチップへのニーズは、益々高まってきています。これを受けて、AIチップを提供している大手半導体メーカーであるNVIDIA、Intel及びAMDの動向をまとめて見ました。


NVIDIA

 現在、AIデータセンター向けのサーバービジネスで、目覚ましい躍進を続けているNVIDIAは、主要製品であるGPU A100、H100に加え、エッジ端末のJetsonシリーズを中心に売り上げを拡大しています。データセンター向けAIチップ市場でトップシェアを獲得しており、AIチップという切り口でも90%程度のシェアを有していると言われています。

 得意分野であるGPUの設計力から、高い計算能力を強みに、また、GPUをサポートする広範なエコシステムとプラットフォームのサポート力を頼りに、市場で非常に高い地位を築いています。採用するプロセスは、TSMCの最先端である3nmルールであるN3プロセスノードです。また、パッケージング技術も、TSMCが提供しているCoWoS(Chip-on-Wafer-on-Substrate)技術を利用しています。このCoWoSは、2.5Dパッケージング技術で、複数のチップを一つのウェハ上に配置し、それを基板に統合することで高性能と高密度を実現する技術です。このCoWoS技術は、結構歴史があり、半導体の高性能化と高密度化を実現するために2012年にリリースされています。TSMCは、CoWoS技術を導入後、現在まで進化を続けて来ており、プロセッサと高帯域幅メモリ(HBM)を効率的に接続することで、デバイスとしての性能を大幅に向上させることが可能であることから、高性能コンピューティング(HPC)とAIへの応用が進み、益々、その必要性が増してきています。今後、その生産能力を拡大する計画を立てていると聞いています。具体的には、チップの樹脂台座に対して、その上のSiインターポーザー基板(Si基板に数十ミクロンの貫通穴を形成し、接続電極として、そこに銅を埋めこんだもの)を介して接続し、インターポーザーと複数のチップは、その上のRedistribution layer (RDL)と呼ばれる多層配線の支持回路を介して接続されます。これにより、GPUと高帯域幅メモリ(HBM)を効率的に接続することが可能となり、データ転送速度を大幅に向上させることを可能としています。

Intel

 一方、これまでCPUの覇者であったIntelは、エンタープライズ向けにAIアクセラレータであるGaudi 3、GPUであるXeon Scalableプロセッサ、Neural Network Processor(NNP)であるNervana NNP、VPUであるMovidiusを提供し、高いコストパフォーマンス、拡張性と柔軟性に加え、強力なソフトウェアを準備して、AI市場に切り込んできました。これらのデバイスは、Intelオリジナルで、Intel 3プロセス、Intel 20A、Intel 18A4を使用している様です。パッケージングも Foveros 2.5D&3D、EMIB(Embedded Multi-die Interconnect Bridge)を利用している様です。これらは、Intel独自の多層実装時術で、TSMCのものとは、少し異なっている様ですが、ガラス基板やSi配線基板とワイヤーボンディング技術を組み合わせたものの様です。
 実は、Intelは20nmプロセスの量産において、技術的な課題に直面した様です。20nmプロセスのトランジスタが、実際には予想以上に短命であり、性能向上が十分に達成できなかったため製品化が遅れ、その立場がAMDに取って代わられてしまった様です。Intelは、この20nmプロセスの失敗を受けて、18nmプロセスからチップレット技術を導入することを決定しました。この流れは、上で説明したAIデバイスでの影響も受けて、Intelが、1チップソリューション拘りからの脱却を決定付けました。
 さて、Intelが目指すエンタープライズ向けAIソリューション市場とは、企業がビジネスプロセスにAI技術を組み込むためのソリューションやサービスを提供する市場です。これには、オンプレミスのAIソリューション、データ分析、予測分析、ロボティック・プロセス・オートメーション(RPA)などが含まれている様です。即ち、データセンターAIというよりも、エッジでの個別に準備されたAIをリアルタイム状態で利用するものと想定されます。その為、直近、このエンタープライズAI市場は急速に成長しており、2023年の市場規模は約251億米ドルとされていますが、今後、年平均成長率は52.17%で、5年間で2,047億9,000万米ドルに達すると予測されています。起死回生のために、この市場を、Intelが狙っている分けです。

AMD

 さて、IntelからCPU市場の牙城を奪いつつあるAMDは、AI向けにGPUであるInstinct MI300シリーズ、EPYCプロセッサを提供し、優れたコストパフォーマンスに加え、オープンなソフトウェアエコシステムを力に製品展開を図っています。AMDは、TSMCの5nmプロセスノードをメインに使っており、その反面、高度な3.5Dパッケージング技術を利用している様です。これは、TSMCのCoWoS技術を利用しています。ここで取り上げた高性能コンピューティング(HPC)やAI向けの製品で適用しています。TSMCのCoWoS技術の供給能力の70%から80%をAMDとNVIDIAが占めているとされており、今年2024年に倍増される予定のCoWoSの生産能力もその大部分を、NVIDIAとAMDが使用見込みの様です。このちょっと緩いルールの半導体製造チップとCoWoSの積載の組み合わせにより実現される低コストを梃に、コスト効率の高いAIソリューションに対して、その存在感を増している様です。データセンター向けAIチップ市場ではNVIDIAが圧倒的な90%以上のシェアを持っていますが、AMDはこれに切り込み、約3%で、NVIDIAに次ぐ地位を確保している様です。
 このビジネス展開に加え、2024年8月には、巨大データセンター向けサーバーメーカー大手のZT Systems買収をすすめることを発表しました。この買収規模は、49億ドル(約7170億円)に達し、同社最大の買収となる予定だそうです。これは、ZT Systemsの広範なAIシステムに関する専門知識を活用し、AMDのAIビジネスを強化することが目的だとされています。データセンター市場での競争で、NVIDIAに対抗する体制の整備を目論んでいると考えられます。 買収完了後には、ZT Systemsのデータセンター・インフラ製造事業自体は、戦略的パートナーに売却するとされており、サーバー製品ビジネス自体は眼中に無く、AMDの長期AI戦略を強化することが目的の様です。

まとめ

 この様に、世界をリードするCPU、GPUメーカーからは、高性能なGPU、CPUに加え、HPM仕様のDRAMを、チップレットとして組み合わせて、AI用の半導体チップが提供されています。この様に、半導体デバイス業界は、AIの広がりに掛けていると言っても過言ではありません。皆が期待するAIの広がりはどこまで進むのでしょうか?

この記事が気に入ったらサポートをしてみませんか?