マウントゴックス(Mt.Gox)は、債権者への弁済期限を2025年10月31日まで1年延期することを発表 TSMC(台湾積体電路製造)は、日本の大学院生、特に博士号取得者を積極的に採用しようとしています エヌビディア株価は150ドルが目標値


マウントゴックス(Mt.Gox)は、債権者への弁済期限を2025年10月31日まで1年延期することを発表しました。この延期の理由は、弁済を受けるために必要な手続きが未了であり、まだ多くの再生債権者が弁済を受領できていないためです
マウントゴックスは、かつて世界最大の仮想通貨取引所の一つであり、ビットコイン取引の約70%を取り扱っていましたが、2014年にセキュリティ侵害により破綻し、約12万7000人のユーザーの資金が凍結されました
この延期により、ビットコインやビットコインキャッシュの売り圧が軽減されるとの見方もあります


今年7月、Mt.Goxの管財人は約94億ドルの資金を債権者に弁済し始めました。アーカム・インテリジェンスのデータによれば、現在もMt.Goxに関連するウォレットには約28億ドルの資産が残っています
弁済プロセスには多くの再生債権者がまだ手続きを完了しておらず、システムの問題により一部のユーザーに二重支払いが発生するなどの問題が生じています。昨年12月のRedditの投稿によれば、Mt.Goxはこの二重支払いを認め、ユーザーに過払い分の返還を求めました
この弁済プロセスはビットコイン価格への影響についても懸念されています。7月末までに5万9000BTCが債権者に弁済され、一部ではこれらのビットコインが市場で売却されるのではないかとの懸念が浮上しています


TSMC(台湾積体電路製造)は、日本の大学院生、特に博士号取得者を積極的に採用しようとしています。TSMCの幹部は、日本人は一般的に想定よりも働かないと感じているものの、博士号を取得する学生は違うと考えているようです
TSMCは、日本の大学と連携し、半導体産業で活躍できる高度な専門人材を育成するプログラムを設立しています。このプログラムでは、授業料無料や生活補助金の提供など、学生にとって魅力的な条件が整えられています

TSMCは2024年2月に熊本県菊陽町で第1工場を開所しました。この工場はソニーグループやデンソーとの共同出資で設立されたJASMが運営しています。さらに、2024年内に第2工場の建設が開始される予定で、トヨタ自動車も出資に加わり、2027年末の稼働を目指しています。これらの工場は、日本の優秀な人材を集める重要な拠点となるでしょう。
TSMCの創業者、張忠謀(モリス・チャン)氏の言葉「顧客のためなら水火も辞せず、行き届いたサービスを全力で実践する」は、同社の研究開発の精神を象徴しています。TSMCは2014年から2016年にかけて、韓国のサムスン電子や米国のインテルと激しい技術競争を繰り広げ、その独自の研究開発力を示しました。
TSMCの取り組みは、日本の半導体産業にとっても大きな影響を与えるでしょう


モルガン・スタンレーとエヌビディアが開催したノン・ディール・ロードショーでは、エヌビディアのCEOジェンセン・フアン氏やCFOコレット・クレス氏が出席し、AIの未来について議論が行われました。モルガン・スタンレーはエヌビディアのレーティングを「オーバーウェイト」とし、目標株価を150ドルに設定しています
エヌビディアの経営陣は、現在のAIサイクルはまだ初期段階にあり、特にOpenAIのo1モデルの発表により、AIはより複雑な推論問題の解決に向かっていると述べました。これに伴い、エヌビディアの次期ラックスケール製品への需要が高まっており、これが最適なソリューションになると強調しています


モルガン・スタンレーは、NVIDIAのフルスタックソリューションが複雑な問題の解決に大きな利点をもたらすと指摘しています。特に、推論コンピューティングの複雑性と需要が指数関数的に増加しており、これがNVIDIAにとって新たな成長機会となっています。
Blackwell製品の進歩
計画通りの進展: Blackwell製品の進歩は計画通りに進んでおり、今後12か月間の生産予定の製品はすでに完売しています。これは、NVIDIAの技術に対する堅調な需要を示しています。
需要の高さ: BlackwellシリーズのGPUは、主要なクラウドプロバイダーや技術企業からの大規模な発注により、非常に高い需要を見せています
業績予想
2025年の業績: モルガン・スタンレーは、NVIDIAが2025年に好調な業績を達成すると予想しています。特にデータセンター部門の成長が顕著で、生成AIや推論の需要が業績を押し上げる要因となっています
成長の要因
推論コンピューティングの需要増加:
AIモデルの複雑化に伴い、推論コンピューティングの需要が急増しています。特に、OpenAIのo1モデルのような高度なAIモデルは、より多くの計算リソースを必要とします
NVIDIAのBlackwellシステムは、この需要に応えるための強力なハードウェアを提供しており、これが成長の一因となっています
ハードウェアへの投資:
AIの進展に伴い、企業や研究機関は高性能なハードウェアへの投資を増やしています。NVIDIAのフルスタックソリューションは、複雑な問題の解決に大きな利点をもたらし、これが投資需要をさらに押し上げています
市場シェアの拡大:
モルガン・スタンレーのレポートによると、NVIDIAのAIプロセッサー市場シェアは2024年と2025年に増加する可能性が高く、出荷台数の増加傾向は今後も続くと予想されています
今後の見通し
2025年の業績: NVIDIAは2025年に好調な業績を達成すると予想されており、特にデータセンター部門の成長が顕著です5。
長期投資サイクル: 2026年は長期投資サイクルの初期段階と見られており、NVIDIAの成長が持続することが期待されています

2026年の見通し: 2026年は長期投資サイクルの初期段階と見られており、NVIDIAの成長が持続することが期待されています
NVIDIAの技術革新と市場でのリーダーシップは、今後も注目されるでしょう。


モルガン・スタンレーは、NVIDIAのフルスタックソリューションが複雑な問題の解決に大きな利点をもたらすと指摘しています。特に、推論コンピューティングの複雑性と需要が指数関数的に増加しており、これがNVIDIAにとって新たな成長機会となっています
OpenAI o1モデル
推論能力: OpenAIのo1モデルは、質問に回答する前に可能な限り長く「思考」することができるため、より複雑な問題に対応できます

コスト: 一部のデータソースによると、o1モデルの推論コストはGPT-4と比較して約10倍になるとされています
NVIDIAの成長見通し
BlackwellおよびRubinシステム: これらのシステムで訓練された次世代のAIモデルは、非常に魅力的な機能を提供する可能性があります

推論のための追加コンピューティングパワー: GPT-6レベルのモデルを低レイテンシで処理するためには、現時点で最先端とされるものよりも桁違いに高い計算能力が必要です28。
Blackwellシステムの評価
革命的な技術: NVIDIAのBlackwellシステム、特にラックスケールシステムは、推論計算の改善において革命的な技術と評価されています

高性能ハードウェア: Blackwell GPUは、2080億個のトランジスタを搭載し、10テラバイト/秒のチップ間相互接続を実現しています
スケーラビリティ: 第5世代のNVLinkを使用して、最大576基のGPUを相互接続し、1.8TB/秒の帯域幅を実現しています



エヌビディアの次期ラックスケール製品は、NVIDIA GB200 Grace Blackwell Superchipを搭載したNVIDIA DGX SuperPODです。この製品は、超大規模な生成AIトレーニングおよび推論ワークロード向けに設計されています
主な特徴
高性能ハードウェア:
Grace CPUとBlackwell GPUを組み合わせたGB200 Superchipを搭載。
各システムには36基のGrace CPUと72基のBlackwell GPUが含まれています
第5世代のNVIDIA NVLinkを介して接続され、最大576基のGPUを1つのスーパーコンピューターとして動作させることが可能です
高効率な液冷ラックスケールアーキテクチャ:
高効率な液冷システムを採用し、冷却性能を向上させています
これにより、システムの安定性とパフォーマンスが向上します。
大規模な共有メモリ空間:
240テラバイトの高速メモリを提供し、複雑なAIモデルのトレーニングと推論をサポートします
AIインフラストラクチャの迅速な導入:
NVIDIAの専門家が即時にAIインフラストラクチャの導入をサポートし、データセンターでの展開を迅速化します
高度なソフトウェア統合:
NVIDIAのフルスタックAIソフトウェアと統合されており、生成AIワークロードの要求を満たすための高度な管理機能を備えています1。
この新しいラックスケール製品は、AIの進展に伴い、より複雑な推論問題の解決に焦点を当てており、次世代のAIモデルを強化するための最適なソリューションとなるでしょう
NVIDIAの次期ラックスケール製品であるGB200システムは、AIにおいて非常に高性能なプロセッサを提供します。このシステムの最も重要な革新点は、Grace CPUと複雑なNVLinkチップ接続を導入することで、GPUラック内の36または72のGPUが同時に他のすべてのGPUと協調動作できるようにする点です12。これにより、すべてのGPUを同じNVLinkドメインに配置し、ラック全体を単一の巨大GPUとして扱う能力が大幅に強化されます1。
GB200システムの特徴
Grace CPUとBlackwell GPU: 各システムには36基のGrace CPUと72基のBlackwell GPUが含まれています
第5世代NVLink: この技術により、最大576基のGPUを1つのスーパーコンピューターとして動作させることが可能です1。
高いスケーラビリティ: NVLink Switchシステムを使用して、すべてのGPUが高速で低遅延の通信を行います
市場の需要と成長見通し
堅調な需要: Blackwell製品の進歩は計画通りに進んでおり、今後12か月間の生産予定の製品はすでに完売しています
市場シェアの拡大: 2024年と2025年には、NVIDIAのAIプロセッサの市場シェアがさらに拡大し、出荷量の高い成長が続くと予想されています
モルガン・スタンレーの評価
レーティング: モルガン・スタンレーは、NVIDIAのレーティングを「オーバーウェイト」とし、目標株価を150ドルと維持しています
長期的な見通し: モルガン・スタンレーは、NVIDIAの長期的な成長を依然として楽観視しており、短期的な上昇相場によって収益のハードルが高まる可能性があるとコメントしています


エヌビディアの次期ラックスケール製品について、図を用いて詳しく説明します。
構成概要
Grace CPU: 36基
Blackwell GPU: 72基
接続技術: 第5世代のNVIDIA NVLink
図解説明
Grace CPUとBlackwell GPUの配置:
各ラックには36基のGrace CPUと72基のBlackwell GPUが搭載されています。
Grace CPUは高性能な計算処理を担当し、Blackwell GPUはAIトレーニングや推論を高速に実行します。
NVLinkによる接続:
第5世代のNVIDIA NVLinkを使用して、すべてのGPUが高速で低遅延の通信を行います。
NVLink Switchシステムにより、72基のGPUが1つの巨大なGPUとして動作します。
スケーラビリティ:
最大576基のGPUを1つのスーパーコンピューターとして動作させることが可能です。
これにより、非常に大規模なAIモデルのトレーニングや推論が可能になります。

エヌビディアの次期ラックスケール製品について、図を用いて詳しく説明します。
構成概要
Grace CPU: 36基
Blackwell GPU: 72基
接続技術: 第5世代のNVIDIA NVLink
図解説明
Grace CPUとBlackwell GPUの配置:
各ラックには36基のGrace CPUと72基のBlackwell GPUが搭載されています。
Grace CPUは高性能な計算処理を担当し、Blackwell GPUはAIトレーニングや推論を高速に実行します。
NVLinkによる接続:
第5世代のNVIDIA NVLinkを使用して、すべてのGPUが高速で低遅延の通信を行います。
NVLink Switchシステムにより、72基のGPUが1つの巨大なGPUとして動作します。
スケーラビリティ:
最大576基のGPUを1つのスーパーコンピューターとして動作させることが可能です。
これにより、非常に大規模なAIモデルのトレーニングや推論が可能になります。


この図は、NVIDIA DGX SuperPODのアーキテクチャを示しています。Grace CPUとBlackwell GPUがどのように配置され、NVLinkによって接続されているかがわかります。
このような構成により、エヌビディアの次期ラックスケール製品は、AIのトレーニングと推論において非常に高いパフォーマンスを発揮します

エヌビディアの次期ラックスケール製品、特にNVIDIA DGX SuperPODは、さまざまな分野での活用が期待されています。以下は具体的な事例です:
生成AIのトレーニングと推論:
OpenAIやGoogle DeepMindなどの大手AI研究機関が、次世代の大規模言語モデル(LLM)のトレーニングに使用しています。これにより、より高度なAIモデルの開発が可能となり、自然言語処理や画像認識の精度が向上しています
医療分野:
バイオテクノロジー企業が、薬剤開発やゲノム解析において、膨大なデータを高速に処理するためにDGX SuperPODを活用しています。これにより、新薬の開発期間が短縮され、個別化医療の実現が進んでいます
具体的な事例として、バイオテクノロジー企業のAmgenがNVIDIA DGX SuperPODを活用している例があります。
Amgenの事例
Amgenは、アイスランドのレイキャビクにあるdeCODE genetics本社に設置されたNVIDIA DGX SuperPODを使用して、世界最大級のヒトデータセットを分析しています。このシステムは、AIを活用して以下のような目的で使用されています:
薬剤標的の発見:
AIモデルをトレーニングして、疾患固有のバイオマーカーを発見し、薬剤標的を特定します。
これにより、疾患の進行と退行をモニタリングするための重要な診断が提供されます。
精密医療の推進:
AIを活用した精密医療モデルの開発により、重篤な疾患を持つ患者に対する個別の治療が可能になります。
これにより、新薬の開発期間が短縮され、個別化医療の実現が進んでいます。
データ解析の効率化:
31台のNVIDIA DGX H100ノード、合計248基のH100 TensorコアGPUを備えたDGX SuperPODを統合し、最先端のAIモデルを数か月ではなく数日でトレーニングします。
研究者が健康と治療に関する新たな洞察を求める際に、より効率的にデータを分析し、そこから学ぶことができます。
具体的な成果
ヒト多様性アトラスの構築:
Freyjaと名付けられたシステムを使用して、薬剤標的および疾患固有のバイオマーカー発見のためのヒト多様性アトラスを構築しています。
これにより、疾患の進行と退行をモニタリングするための重要な診断が提供されます。
AIによる創薬の加速:
AIを活用して、創薬のペースと範囲を変える可能性のある前例のないデータ洞察を得ることができます。
これにより、より効果的な薬剤の開発や、免疫反応などの望ましくない影響の回避が可能になります。
このように、AmgenはNVIDIA DGX SuperPODを活用して、薬剤開発やゲノム解析において大きな成果を上げています

自動運転技術:
自動車メーカーが、自動運転車のAIシステムのトレーニングに使用しています。大量のシミュレーションデータを処理し、リアルタイムでの意思決定を行うための高度なAIモデルを開発しています

トヨタ自動車の事例
トヨタ自動車は、自動運転技術の開発において、NVIDIAのDGX SuperPODを使用しています。以下はその具体的な取り組みです:
シミュレーションデータの処理:
トヨタは、膨大なシミュレーションデータを処理するためにDGX SuperPODを活用しています。これにより、現実世界の運転シナリオを仮想環境で再現し、AIモデルのトレーニングを行います。
例えば、異なる天候条件や交通状況をシミュレートし、AIがどのように反応するかを検証します。
リアルタイム意思決定:
高度なAIモデルを開発することで、自動運転車がリアルタイムで意思決定を行えるようにしています。これには、歩行者の検出や他の車両との距離の測定、信号の認識などが含まれます。
NVIDIAのGPUを活用することで、これらの処理を高速かつ効率的に行うことができます。
データの統合と解析:
トヨタは、車両から収集したデータを統合し、AIモデルの精度を向上させるために解析を行っています。これには、センサーからのデータやカメラ映像、LIDARデータなどが含まれます。
DGX SuperPODの高い計算能力を活用することで、これらのデータを迅速に処理し、AIモデルのトレーニングに役立てています。
具体的な成果
安全性の向上:
AIモデルの精度が向上することで、自動運転車の安全性が大幅に向上しています。これにより、事故のリスクが減少し、乗客の安全が確保されます。
開発期間の短縮:
高速なデータ処理とシミュレーションにより、新しいAIモデルの開発期間が短縮され、迅速な市場投入が可能となっています。
このように、トヨタ自動車はNVIDIA DGX SuperPODを活用して、自動運転技術の開発を加速させています

金融サービス:
金融機関が、リスク管理や市場予測のためにAIモデルをトレーニングしています。これにより、投資戦略の最適化や不正検出の精度が向上しています 

これらの事例は、エヌビディアの次期ラックスケール製品がさまざまな産業で革新的なソリューションを提供していることを示しています。特に、AIの進展に伴い、これらの製品の需要はますます高まるでしょう。


この記事が気に入ったらサポートをしてみませんか?