AVGO(Broadcom)がxPUとEthernetの分野で注目 6日は雇用統計

AVGO(Broadcom)がxPUとEthernetの分野で注目

$NVDA(NVIDIA)の競合としてよく$AMD(Advanced Micro Devices)が挙げられますが、最近では$AVGO(Broadcom)がxPUとEthernetの分野で注目されていますね。BroadcomはAIネットワーキングの領域で400G RoCE/RDMA Ethernet NICsを発表し、AIデータセンターの拡大に伴う接続のボトルネックを解消するための製品を提供しています。これにより、AIクラスターのパフォーマンスを最大化するためのスケーラブルな高帯域幅、低遅延の接続が可能になります。
また、BroadcomはNVIDIAに次ぐAI半導体サプライヤーとして位置づけられ、特にGoogleやMetaとのパートナーシップにより市場での地位を確立しています。一方で、AMDはNVIDIAとの競争ではなく、コストとAIパフォーマンスの面で優位性を主張しており、特に新しい「MI300シリーズ」を投入することで注目を集めています
またNVIDIA($NVDA)のような企業は、AIインフラストラクチャーに必要な半導体チップの供給者として、大きな需要を享受しています
AI市場は急速に成長しており、2030年までに世界経済にプラス13兆米ドルの効果をもたらす可能性があるとされていますが、この成長はインフラとエネルギーへの投資に大きく依存しています。データセンター用の半導体チップの需要は、2023年の5.1百万個から、今後数年間で46百万個へと9倍に急増すると予想されています
しかし、AIインフラへの投資が増加する一方で、収益の増加には時間がかかるという課題があります。AIシステムの運用コストに直接的な影響を与えるエネルギー消費量は、2030年までに米国の総電力消費量の最大7.5%を占める可能性があり、環境への影響も懸念されています
AIインフラ機器の不足問題に対する対策として、スマートグリッド、ソフトウェア最適化、エッジ・コンピューティングなどへの転換が進められており、これらの技術はエネルギー効率の向上に貢献すると同時に、レイテンシーやプライバシーの面での改善も期待されています

このように、AI業界はインフラとエネルギーへの投資を通じて、将来の成長を目指していますが、その過程で収益のギャップが拡大する可能性もあるという複雑な状況にあります。投資家にとっては、この動向を注視し、適切な戦略を立てることが重要です。
日本の株式市場においても、このような動向が浸透してきていると感じられるかもしれません。投資家や市場アナリストの間で、NVIDIAの真の競合としてBroadcomが認識され始めていることは、今後の投資戦略に影響を与える可能性があります。興味深い展開ですね。

補足)xPUは、特定のプロセッサアーキテクチャを指すために使用される用語です。CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などの従来のプロセッサに加えて、AIや機械学習に特化したNPU(Neural Processing Unit)、TPU(Tensor Processing Unit)など、多様なプロセッサが登場しています。これらはすべて異なる種類の処理ユニットであり、xPUはこれらを総称するための用語として使われます
xPUは、特定のワークロードやタスクに特化したアクセラレータとして機能し、CPUとは異なるアーキテクチャを持つことが多いです。例えば、TPUはGoogleが開発した機械学習専用のASIC(Application-Specific Integrated Circuit)であり、大量のデータブロックを効率的に処理するための並列構造を持っています。一方、NPUはニューラルネットワークの処理に特化したプロセッサで、AIアクセラレータとも呼ばれます
このように、xPUは「何か特定のPU」を指すために使われる言葉であり、その「X」はCPU、GPU、NPU、TPUなど、さまざまなプロセッサアーキテクチャを表すことができます。AIや機械学習の分野での進化と共に、これらの特化したプロセッサの重要性が高まっており、それぞれが特定の計算タスクに最適化されています。

補足2)ワークロードとは、コンピュータやシステムにかかる処理の負荷の大きさ、またはそれによって占有される処理能力の度合いを指します。ITの分野では、稼働中のコンピュータにかかっている負荷の大きさや、実行中のソフトウェアによるリソースの使用率などを表すために使われることが多いです
仮想化やクラウド化の文脈では、ワークロードは仮想マシン(VM)上で実行されているソフトウェアや、その中で展開されているデータなど、マシン上で実行状態にあるソフトウェア全体のメモリイメージを指すこともあります。これにはオペレーティングシステム(OS)、ミドルウェア、アプリケーションソフトなどが含まれます
また、クラウド時代においては、ワークロードはシステムにかかる負荷やコードの集まりを指し、クラウド基盤のスケーリングやコスト削減に関する考え方にも関連しています。クラウドサービスの提供者が運用する物理マシン群にかかる負荷や、仮想マシンやコンテナ、SaaSを土台として稼働する多数のサービスからなるシステムがワークロードとされることもあります
つまり、ワークロードは、単にコンピュータの負荷を示すだけでなく、ビジネス価値をもたらすコードやアプリケーション、そしてそれらが動作する仮想化された環境全体を包括する概念として理解されています

補足3)アクセラレータとは、IT分野で性能を向上させるために機器やソフトウェア、システムなどに追加される機材や装置のことを指します。具体的には、コンピュータのグラフィックス性能を高速化するグラフィックスアクセラレータや、特定用途の半導体チップなどのハードウェアを追加するハードウェアアクセラレータがあります。これらは、CPUやソフトウェアによる性能の限界を超えるために設計されています1。
また、アクセラレータはスタートアップ企業の成長をサポートするプログラムや組織のことも指し、新しいビジネスの拡大に焦点を当てた資金投資やノウハウなどのサポートを提供します。これにより、スタートアップの事業を加速させることが目的です
つまり、アクセラレータは、コンピュータシステムの性能を向上させる装置や機材、またはスタートアップの成長を促進するプログラムや組織の両方を指す言葉として使用されています

補足4)ASIC(Application-Specific Integrated Circuit、特定用途向け集積回路)とは、特定のアプリケーションや目的のために特別に設計された集積回路(IC)のことです。プログラマブルなロジックデバイスや標準的なロジック集積回路と比較して、ASICは一つの特定の機能を実行するために最適化されているため、速度が向上することがあります1。
ASICは、デジタルボイスレコーダーや高効率ビデオコーデックなど、特定の用途に使用されるようにカスタマイズされたICチップです。例えば、GoogleのTPU(Tensor Processing Unit)や、特定の通信プロトコルやハンドヘルドコンピューティングデバイス用に設計されたチップなどがあります。ASICは、一般的な集積回路、例えばRAMチップやマイクロプロセッサとは異なります
ASICチップは通常、MOS(Metal-Oxide-Semiconductor)技術を使用して製造され、特徴サイズが縮小し、チップ設計ツールが年々改善されるにつれて、ASICで可能な最大の複雑さ(したがって機能性)が5,000のロジックゲートから1億以上に増加しています。現代のASICには、マイクロプロセッサ、ROM、RAM、EEPROM、フラッシュメモリなどのメモリブロックを含むことが多く、このようなASICはしばしばSoC(System-on-Chip)と呼ばれます
ASICの設計者は、VerilogやVHDLなどのハードウェア記述言語(HDL)を使用してASICの機能を記述することが一般的です。FPGA(Field-Programmable Gate Array)は、ASICとは対照的に、多くの異なるアプリケーションで使用できるようにプログラマブルなロジックブロックとプログラマブルな相互接続を備えています。小規模な設計や低生産量の場合、FPGAはASIC設計よりもコスト効率が良い場合があります。ASICの非反復エンジニアリング(NRE)コストは数百万ドルに達することがあります。そのため、デバイスメーカーは通常、プロトタイピングや低生産量のデバイスにはFPGAを好み、非常に大量の生産量がある場合にはNREコストを多くのデバイスに振り分けることができるASICを好みます

補足5)400G RoCE/RDMA Ethernet NICs(ネットワークインターフェースカード)は、データセンターのAIネットワーキング環境を革新するためにBroadcomが開発した高性能なイーサネットアダプターです。これらのNICは、AIデータセンター内で急速に増加するXPUの帯域幅とクラスターサイズに対応するために設計されており、接続のボトルネックを解消するための拡張性の高い、オープンで標準化されたイーサネットNICおよびスイッチングソリューションを提供します
特に、400G PCIe Gen 5.0イーサネットアダプターは、業界初の5nmプロセス技術で製造されており、市場で最も電力効率と熱効率に優れた設計を実現しています。これにより、パッシブ銅ケーブルを最大5メートルまで駆動するか、超低電力のリニアプラグ可能な光トランシーバーを使用し、Broadcomの高ラディックスイーサネットスイッチと組み合わせることで、主流の空冷技術を使用した高いラック密度を実現します
また、第三世代のRoCEパイプライン、低遅延の混雑制御技術、革新的なテレメトリー機能を備えており、AIインフラストラクチャの特徴である高帯域幅、高ストレスのネットワーク環境に最適です。これらの400G NICは、AIアプリケーションにとって魅力的なTCO(総所有コスト)でオープンな接続性を提供し、電力を多く消費するAIアプリケーションに適しています
RoCE(RDMA over Converged Ethernet)は、イーサネットネットワーク上でRDMA(Remote Direct Memory Access)を実現する技術であり、データを直接メモリ間で転送することができるため、CPUの負荷を軽減し、低遅延で高速なデータ転送を可能にします。この技術は、特に大規模なAIモデルのトレーニングや、大量のデータを扱うアプリケーションにおいて重要です
Broadcomの400G RoCE/RDMA Ethernet NICsは、AIネットワーキングの未来を形作る重要な技術となっており、AIクラスターのパフォーマンスを最大化するためのスケーラブルで高帯域幅、低遅延の接続を提供します

補足6)AIクラスターとは、複数のコンピュータやサーバーを連携させて一つのシステムとして機能させることを指します。このシステムは、特にAIや機械学習の計算処理を効率的に行うために設計されています
AIクラスターは、大量のデータを高速に処理する能力が求められるAIの機械学習やディープラーニングのタスクにおいて、複数のコンピュータの計算リソースを組み合わせることで、より強力な計算能力を実現します。これにより、AIモデルのトレーニング時間を短縮し、より複雑なモデルの開発が可能になります
AIクラスターは、単一のマシンでは処理しきれないような大規模なデータセットや、高度なAIアルゴリズムを扱う際に特に有効です。これらのクラスターは、データの分散処理や並列計算を行うことで、大規模なAIプロジェクトの実行を支援します
また、AIクラスターは、ネットワークを介してデータをやり取りするため、高速なネットワーク接続やデータ転送技術が重要となります。そのため、400G RoCE/RDMA Ethernet NICsのような高性能なネットワークインターフェースカードが使用されることもあります。これにより、AIクラスター内の各コンピュータ間でのデータ転送が高速かつ効率的に行われ、AIの計算処理のパフォーマンスが向上します1。
総じて、AIクラスターはAIと機械学習の分野での進歩を加速するための重要なインフラストラクチャと言えるでしょう

補足7)
Q BroadcomはNVIDIAに次ぐAI半導体サプライヤーとして位置づけられ、特にGoogleやMetaとのパートナーシップにより市場での地位を確立 詳しく教えて

A Broadcomは、AI半導体市場においてNVIDIAに次ぐ第2位のサプライヤーとして位置づけられています。特にGoogleやMetaとのパートナーシップを通じて、その地位を確立しています
Googleとのパートナーシップでは、BroadcomはGoogleのAIチップであるTPU v7の開発に関わり、このプログラムが2024年には80億ドル以上、2025年には100億ドル以上の収益をBroadcomにもたらす可能性があるとされています。TPUv7は、3nmプロセスで初めてデザインされたもので、2026年と2027年に収益化が見込まれています

一方、Metaとのパートナーシップでは、BroadcomはMetaの第1世代および第2世代のAIトレーニングプロセッサの共同設計に携わり、7nmおよび5nmプロセスでこれらを開発しました。さらに、2024年後半から2025年にかけて、3nmプロセスで第3世代のAI ASICチップ(MTIA 3)の生産を開始する予定です。これにより、Broadcomは2024年には110億ドル以上、2025年には140億ドル以上のAI関連収益を見込んでいます1。
これらのパートナーシップは、BroadcomがカスタムASICチップ設計における市場シェアリーダーとして約55-60%のシェアを持ち、市場機会が200億ドルから300億ドルで、年率20%以上の成長が見込まれると評価されています1。
Broadcomの戦略は、AIコンピュートアクセラレーターのためのカスタムASICソリューションに焦点を当てた米国の大手テクノロジー企業の需要によって後押しされています。このようなパートナーシップにより、BroadcomはAI半導体市場での成長と収益の増加を見込んでおり、今後もその地位を強化していくことが期待されます
補足8)TPU(Tensor Processing Unit)は、Googleが開発したAI専用のプロセッサです。特に機械学習における大規模な行列演算を得意とし、ニューラルネットワークのトレーニングや推論に使用されます
TPUは、従来のCPUやGPUとは異なり、テンソルと呼ばれる多次元配列のデータを効率的に処理することができるように設計されています。これにより、AIアプリケーションにおける計算速度と効率が大幅に向上します。GoogleはTPUを自社のデータセンターで使用しており、検索エンジンの改善や写真の自動分類、音声認識など、多くのサービスでその性能を活かしています
TPUは、電力あたりの性能に優れており、特に大規模なAIモデルのトレーニングにおいて、高いコスト効率とパフォーマンスを提供します。GoogleはTPUの開発を進めており、新しい世代のTPUでは、より高速な演算能力と効率的な電力消費を実現しています
総じて、TPUはAIと機械学習の分野での進歩を加速するための重要な技術となっており、今後もその進化が注目されています

補足9)AMD Instinct MI300 シリーズ」は、AMDの最新のGPUアクセラレータで、最新の「CDNA 3アーキテクチャ」のGPUコアを搭載しています。このシリーズは、AIやHPCのワークロード処理に特化し、卓越した演算能力、高メモリ集積度、広帯域幅メモリ、特殊なデータ形式へのサポートを提供します。また、3Dチップレット技術を活用して、GPUのみ、またはCPUとGPUの2種類を混合して積載し、ユニークなアーキテクチャを採用しています2。このシリーズは、データセンター向けAI GPU市場でNVIDIAの「DGX H100」に対抗する製品として注目されています

補足10)アクセラレータ」は、英語で「加速器」や「加速装置」を意味し、ITの分野では性能を向上させるために機器やソフトウェア、システムなどに追加される装置を指します1。コンピュータのグラフィックス性能を高速化する「グラフィックスアクセラレータ」など、対象や機能に応じて「○○アクセラレータ」と呼ばれることもあります。アクセラレータによって性能を増強することを「アクセラレーション」と言います。具体的には、コンピュータシステムにおいては、CPUとソフトウェアによる性能の限界を打ち破るために特定用途の半導体チップなどのハードウェアを追加する「ハードウェアアクセラレータ」が一般的ですが、分野や対象によっては「ソフトウェアアクセラレータ」も用いられることがあります。ネットワーク分野では、他のシステムやネットワークの性能やキャパシティを向上させるためにもアクセラレータが活用されます

6日は雇用統計
米国の労働市場に関する最新の報告によると、6月の雇用者数の増加は前月比で19万人と予想されており、平均時給の伸び率は前年同月比で3.9%増となっています。しかし、失業率は4%で変わらず、約2年ぶりの高水準を維持しているとのことです。
このような労働市場の減速は、米連邦公開市場委員会(FOMC)が年内に複数回の利下げを行う可能性を後押ししていると見られています。市場の先物動向によると、FOMCの利下げは9月と12月に予想されています
ブルームバーグ・エコノミクスのエコノミストたちは、雇用者数の増加は米当局者が利下げに辛抱強くなれることを示唆しているものの、最近の失業率の上昇はより緊急性を帯びていると述べています。また、6月の平均時給の前月比増加率は0.3%と予想されており、前年同月比で4%を下回ることは2021年以来のことで、インフレの減速が続いていることを示していると考えられます

この記事が気に入ったらサポートをしてみませんか?