見出し画像

ChatGPTが加速。MicrosoftのAI半導体自社開発

11月15日(ロイター) - 人工知能サービス提供の高コストに直面しているMicrosoftは水曜日、2つのカスタム設計コンピューティングチップを発表し、主要大手ハイテク企業に加わると報道しました。

Microsoftは、チップを販売する予定はなく、自社のサブスクリプションソフトウェア製品の強化やAzureクラウドコンピューティングサービスの一部として使用する予定だと述べました。

Microsoft Igniteカンファレンス

シアトルで開催された Ignite 開発者カンファレンスで、Microsoft は、AI コンピューティング タスクを高速化し、ビジネス ソフトウェア ユーザーだけでなく、カスタム AI サービスを作成すると発表しました。

Maia チップ

Maia チップは、Microsoft の Azure OpenAI サービスを支える AI ソフトウェアの一種である大規模言語モデルを実行するように設計されており、Microsoft と ChatGPT 作成者 OpenAI とのコラボレーションの製品です。

Microsoft幹部らは、製品にAIを導入するための同社の広範な取り組みのほぼすべてを、共通の基本的なAIモデルのセットを通じて行うことで、こうしたコストに対処する計画だと述べました。Maiaチップはその作業に最適化されているとの事です。

NvidiaとAMDの両方に提供

Microsoftはまた、来年NvidiaとAMDの最新主力チップ上で動作するクラウド サービスをAzureの顧客に提供すると発表しました。Microsoftは、OpenAIの最新モデルであるGPT 4をAMDのチップでテストしている(注01)と述べました。

注01:サム・アルトマンがキャパオーバーにつき、GPT-4の新規ユーザーを一時的に停止したとXで告知しています。早くMicrosoft製のチップが完成して、AMDでGPT-4が快適に動くようになるといいですね。ChatGPT Plus会員新規登録一時停止については下記のNoteに複数記事を掲載して解説していますので併せてご覧ください↓

Azureの対抗AWS戦略の一環

火曜日に発表されたMicrosoftの2番目のチップは、社内のコスト削減と、Microsoftの最大のクラウドライバルであるAmazon Web Servicesへの対抗策の両方を目的として設計されています。

CobaltはARMの技術で作られたCPU

コバルトと名付けられたこの新しいチップは、ソフトバンクグループが100%出資するARMの技術で作られた中央処理装置 (CPU) です。Microsoftは水曜日、同社のビジネスメッセージングツールであるTeamsを強化するためにCobaltをすでにテストしていることを明らかにしました。

マイクロソフトのガスリー氏は、AWSが提供する自社チップ「グラビトン」シリーズと競合するために、同社はコバルトへの直接アクセスを販売したいとも述べました。「当社のCobaltソリューションは、(Amazonのチップと比較して)パフォーマンスと価格対パフォーマンスの両方の点で非常に競争力があることを保証するように設計しています」とガスリー氏は述べています。

AWS受けて立つ準備あり

AWSは今月後半に独自の開発者カンファレンスを開催する予定で、広報担当者は同社のGravitonチップには現在5万人の顧客がいると述べました。

「AWSは、顧客のワークロードが必要とするあらゆるニーズに対して、さらに優れたコストパフォーマンスを提供する次世代のAWS設計チップを提供するために革新を続けていく」と、Microsoftがチップを発表した後、広報担当者は述べています。

TSMCの5ナノメートル製造技術で作られている

Microsoftボルカー氏は、従来のチップメーカーと比較したチップの競争力を測ることができる技術的な詳細をほとんど明らかにしていません。Azureハードウェアシステムおよびインフラストラクチャ担当コーポレートバイスプレジデントのRani Borkar氏は、どちらもTSMC(台湾積体電路製造公社)の5ナノメートル製造技術で作られているとの事です。

彼女は、Maia チップは、Microsoft が OpenAI 用に構築したスーパーコンピュータで使用していたより高価なカスタム Nvidia ネットワークテクノロジではなく、標準のイーサネット ネットワーク ケーブルで接続されるだろうと付け加えました。


ここからは筆者の憶測に過ぎませんが、

OpenAIのGPUプログラミングTritonは機種に依存しない

「GPT-4をAMDのチップでテストしている」という情報とTriton(OpenAIが開発したGPUプログラミングフレームワーク)との関連については、直接的な情報は提供されていませんが、TritonはNVIDIAのCUDAに代わるものとして注目されているため、OpenAIがGPT-4をAMDチップでテストしていることとTritonの使用が関連している可能性はあります。Tritonはより多様なハードウェアプラットフォームでのAI計算の最適化を目指しているため、AMDチップでのテストはその一環として考えられるかもしれません。

OpenAIのTritonについては下記のNoteに詳しく解説していますので合わせてご覧ください↓


この記事が気に入ったらサポートをしてみませんか?