見出し画像

2024年、AIが手元に来ています。


はじめに 

 社会の要求は、「AIを手元に」という流れとなっています。スマートフォン、PC、家電に加え車でも、その製品の価値を向上させる大きなポイントとして、AI機能の搭載が重要となって来ています。これらのデバイスで動作するAIは、推論実行プログラムであり、ユーザーの手元で動作することから、エッジAIと称されています。このエッジAIとは、データ生成源に近い位置、つまりエッジ(手元にあるスマートフォン、PC、家電に加え車等)でAI処理を実行する技術のことを指します。手元でAIを動作出来ることにより、リアルタイム処理が可能で、高解像度の画像や映像もデータ処理が可能です。データの送受信の手間や時間がかからないため処理のパフォーマンスが向上出来ます。また、エッジAIは、外部にデータを送信せず処理が行われるため、プライバシー保護や取得したデータの漏えいのリスクを減すことが出来ます。更に、エッジAIは、ネットワークを使用しないので通信費用が必要ないというメリットもあります。一方、推論プログラムを作り上げるためには、推論の対象となる課題に対するデータを用いた学習が必要です。この学習には、膨大なデータと高性能なコンピューター資源が必要となります。学習のデータが多い程、精度の高い推論プログラムが生成可能であり、また、この学習にはNVIDIA等から提供されるGPUが必要であり、データ量にも依存しますが、日単位で学習のための時間が要するものです。この時間を短縮するためには、高性能のGPUの個数を増やすことが必要で、このためには大きな費用と膨大な電力が消費されます。
 現状一般に利用が開始されているWeb版のAIでは、チャットや高度な検索実行、Web情報の要約、画像生成がリリースされていますが、これらのサービスは、手元のPC上で推論が実行されているのではなく、命令をクラウドに上げ、これをデーターセンターに用意された高度な推論プログラムが実行し、得られた答えが手元に送られ、これが結果として提供されています。即ち、幾つかの推論プログラムが事前に準備されており、指定された要求に対して最適な推論プログラムが実行され、得られた回答が送信されて来るというものです。ここで重要なことは推論プログラムの性能であることは間違いが在りません。私も、今回の文章を含め、記事を書く上でMicrosoftの人工知能(AI)を活用したチャットボットCopilotを利用させていただいております。Web版AIでは、多岐に渡る要求に対応しつつ、かつ、高速で回答を送り返す必要があることから、多量のクラウド上のデータを用いて繰り返しの学習が必要であり、膨大なコンピューティング資源を準備したデーターセンターで繰り返し実行されていると思われます。この様な要求からも、データーセンター投資が強力に進められており、NVIDIAの業績を強く後押ししているものと考えられます。 

クラウドAIソリューション対応

 これまで、クラウドサーバーを構成する半導体デバイスのカテゴリーとしては、主にサーバーの中心的な役割を果たし、プログラムの命令を解読し実行するCPU(Central Processing Unit)、機械学習やディープラーニングの計算処理を高速化するGPU(Graphics Processing Unit)、一時的なデータ保存場所として機能し、CPUが直接アクセスできる高速な記憶装置RAM(Random Access Memory)及び永続的に保存するための装置でありHDDやSSDで構成されるストレージ、サーバーをネットワークに接続するためのネットワークインターフェースカード(NIC)が挙げられます。この中で特に、AIに対応するためには、複数のGPUを統合しHPC(ハイパフォーマンスコンピューティング)を実現しています。例えば、ディープラーニングに特化したサーバーでは、16個のNVIDIAのGPUを完全相互接続することにより、学習のパフォーマンスを10 倍引き上げ、AI の速度と規模の壁を打ち破るとしております。ここでは、サーバー内外の通信を司るインターフェースのスイッチチップも重要で、ここでもNVIDIAの技術が先行している様です。また、GPUの近くには、テラバイト級のメモリーが装備されているのが普通です。
 さて、それでは、GPUとはどんな半導体デバイスなのでしょうか? CPUとGPUは、コンピューターの核心的な部品ですが、求められる処理が異なります。CPUは少数のコア(通常は1〜8コア)を持ち、それぞれが高度な命令セットを使用して単一の命令実行に専念します。CPUは、一般的な計算処理を高速に実行するために設計されています。具体的には、データの処理やプログラムの実行、システムの管理などを担い、コンピューターの「頭脳」として機能します。一方、GPUは100〜1000以上のコアを持つことが一般的で、1つの大きな作業を、小さな一部分に再分割し、それらを同時に処理することにより高速化を狙っています。このGPUの設計は、大量の並列処理に最適化されており、多数のコアを持つことで同時に多くの計算を行うことができます。従来、GPUは、主にモニターに表示する画像の生成を担うデバイスで、画像の処理で重要な役割を果たして来ましたが、この回路設計思想を応用した形で、ディープラーニングへ対応したデバイスとして進化して来た経緯があります。したがって、CPUとGPUの設計要件は、それぞれの役割と性能要件によって異なっており、CPUは汎用的な計算とシステム管理に重点を置き、一方でGPUは高速な画像処理と大量の並列計算に重点を置いて設計されます。

エッジAI

 エッジデバイスに求められる要件は、小型で消費電力が小さく、かつ、コスト的にも安いことです。先にも説明したように、AI処理は、AIモデルの学習(トレーニング)と、学習させたAIモデルを使った推論(インファレンス)に分けられますが、学習は推論よりも遙かに計算負荷が高いため、学習はクラウドコンピューティングを利用して実行し、エッジデバイスでは、基本的に推論を対象とするようなシステム構成がベストと考えます。エッジAIの為のハードとしては組み込み用のSBC(シングルボードコンピュータ)もしくはMB(マイコンボード)で構成されますが、現実的には、これに特化したデバイスとして「Raspberry Piシリーズ」、「Beagle Boneシリーズ」、「Tinker Board S」が提供されています。消費電力は、数W程度で、価格も1~2万円程度と想定されます。
 GPUを用いたAI向けの製品もあのNVIDIAから「Jetsonシリーズ」がリリースされ、広く利用されています。Jetsonシリーズは、Nano、TX2、AGX Xavier、Xavier NX、AGX Orinなどがあり、0.5~275TOPS(TOPS:1秒間に実行可能な演算数を兆回で表現)まで処理能力でラインナップが準備されています。また、その処理性能により、消費電力が5Wから60Wまで変化することになります。その価格も実現される演算速度に依存し、1万円から、最も高性能なものでは、30万円を超えるようです。また、主な利用分野は、ロボティクスやIoTなど組込み機器向けの開発・研究で使用されている模様です。即ち、高いパフォーマンスや安全性に配慮が求められる用途で、ロボティクスへのAI適用や自動車や船舶の無人走行への開発での試験運用に適用されている様です。

FPGA

 FPGA(Field Programmable Gate Array)は、設計者がフィールド(現場)で論理回路の構成をプログラムできるゲート(論理回路)を集積したデバイスです。即ち、完成品でもプログラムにより内部の回路構成、つまり処理内容を変更可能であることからこのように呼ばれます。FPGAはプログラム可能で柔軟性が高く、高速なデータ処理が可能で、コスト効率が高いなどのメリットがあることから、エッジシステムで広く利用されています。
このFPGAは、主にAMD(旧Xilinx)とIntel(旧アルテラ)の2大メーカーが市場をリードしており、彼らだけで80%以上のシェアを占めています。また、FPGA市場全体の規模は、2023年に87.6億米ドルと推定され、2028年には130.7億米ドルに達すると予測されています。予測期間中(2023-2028年)の年平均成長率は10.32%となっており、拡大の目覚ましい市場となっています。
 実際のエッジAIシステムとしての適用事例として、自動運転と先進運転支援システム(ADAS)では、処理の遅延時間を最小に同時に多くの処理を可能にする必要から、エッジ=車載で採用が進んでいます。加えて、消費電力の低減も重要な要素です。車載のレーターや画像データの処理を担っており、車の周辺領域の認知や、クルーズコントロール、車線運航維持等の個別の確立された制御に機能提供していると考えられます。監視カメラの画像認識の技術において、分類、検出、セグメンテーション、顔認識、姿勢推定などを行う技術でも、一定の条件下で観測される画像情報の学習済み推論プログラムをエッジで実行する場面で、遅延や電力を抑制できるという観点から、展開が進んでいる様です。即ち、監視カメラや入門チェックなどのセキュリティシステム、工場での品質チェックなど幅広い分野に応用されています。スマートフォンやAIスピーカーでお馴染みの音声認識や、OCRなどで活用される文字認識は、ある程度推論プログラムが確立した分野であり、音声認識や文字認識の分野でも広く利用されています。

ルネサスエレクトロニクスのeAI

 ルネサスエレクトロニクスが提唱するeAI(embedded-Artificial Intelligence)は、組み込みシステムでAI技術を利用可能にするソリューションです。eAIは、エッジで推論を実行するためのデバイスで、同社の提供するマイコンで推論を実行させることで、エッジにおいてAI活用を実現するものです。ルネサスエレクトロニクスの提供するフラッシュメモリーを搭載したマイクロコンピュータユニット(MPU)のフラッシュメモリーに学習済みの推論プログラムを搭載し、センサー付近にこれを設置して、リアルタイムで推論を実行するものです。このためeAIでは通信経路の遅延なしで判断・応答することができるため、クラウドに対して速く推論結果が得られることを訴求しています。また、同社は、マイクロコンピュータ向け推論プログラムの開発環境として、e-AI Translatorを準備しており、“PyTorch”, ”Keras”, “TensorFlow”で学習したモデル、もしくは”TensorFlow Lite”で8bit量子化したモデルをルネサス製統合開発環境e² studioへ簡単にインポートする事ができます。
 この支援システムにより、信号処理や波形処理など、エンドポイント向けの比較的小規模なAIの活用に適しています。例えば、このシステムは、工場の加工装置一台毎にeAIデバイスを展開して、動作状況を監視、予知保全を実行する様な展開を想定しています。

 実は、私自身、eAIの製造現場での実証実験に携わった経験がり、複数台の装置が存在する既存製造現場では、IoT技術による装置監視、予知保全の実用化が求められていると思いますが、この様な場合に、ルネサスエレクトロニクスのeAI技術は、大きく効果を発揮出来るものと確信しています。何故なら、安価でリアルタイム監視が実現可能であり、製造業で稼働する装置の監視すべき信号である、時系列データ、振動や出来栄え画像を対象と出来ることからです。

コンシューマーデバイス対応

 日本マイクロソフトは、202年6月18日に、AIのために設計された新カテゴリーのWindows PC「Copilot+ PC」の国内販売を開始すると発表しました。このCopilot+ PCの最大の特徴は、端末上で直接AIを高速で実行できるようになった点であるとしています。最先端のCPU、GPUに加え、AIを処理するためのNPUが新たに搭載され、マイクロソフトが提供する小規模言語モデル(SLM)を活用することで、クラウド上ではなく端末上で直接AIを実行できるようになったということで、そのレスポンスに期待が持てます。1秒あたりこのデバイスでは40兆回の演算を行うことができ、5年前の同社のPC比で最大5倍の性能を備えているということです。Copilot+ PCは、同社ブランドの端末「Surface」に加え、デル・テクノロジーズや日本HP、レノボ・ジャパン、日本エイサー、ASUS Japanといった日本マイクロソフトのOEMパートナーである各PCメーカーからも順次製品が投入されるとのことです。提供される機能は、以下の様です。①Windows標準アプリであるペイントに、生成AI機能コクリエーターが搭載されるようです。ユーザーが入力した手書きのラフスケッチとその説明を基に、画像を生成出来るとしています。一つ疑問ですが、これは、ラフスケッチを入力した者に、出来上がった作品の著作権が付与されるのかが気になります。②PC上で表示されたコンテンツを記憶し、後から検索できるリコール機能が追加される様です。③ウェブカメラを使用しているときに、各種エフェクトをかけることが出来るWindows Studio エフェクトが付くようです。Teamsの会議システムでは、既に実行可能な気がしますが・・・ ④フォトのアプリに、新機能「イメージクリエーター」という機能が追加され、キーワードを入力すると画像を生成してくれるらしいです。⑤リアルタイムで音声を英語字幕に翻訳する機能が追加される様です。⑤画像や動画の解像度を自動的に向上させる機能も追加される様です。個人的には、①及び④がどの程度の性能を発揮できるのかに関心があります。
Qualcommは、昨年2023年10月にハイエンドスマートフォンに搭載される「Snapdragon 8 Gen 3」を発表しています。このプロセッサにはAIの演算処理を担う「Hexagon NPU」が搭載されており、前バージョンの「Snapdragon 8 Gen 2」と比べ98%高速化し、性能は約2倍向上しています。アンドロイドスマートフォンでも、音声認識及び操作や翻訳機能が追加されて来たのですが、これらが更に高性能化されるのでしょうか?
Appleも削減2023年6月に、次世代「M2 Ultra」を発表しました。この内部にはAppleが開発したNPUである32コアのNeural Engineが搭載され、前バージョンの「M1 Ultra」より最大40%高速化しているとしています。
Intelも昨年2023年12月に最新のPCコアデバイス「Core Ultra」を発表しました。Core UltraはCPU、GPU、NPU を単一のパッケージに統合し、リアルタイムで言語翻訳や推論などのAI機能が実現できます。すでにこのコアデバイスを搭載した製品の出荷が開始されています。このプロセッサーは、最新のIntel 4製造プロセスを採用しており、EUV露光により従来のIntel 7の高性能ロジックライブラリと比較して2倍のエリアスケーリングを達成しつつ、電力効率は20%以上向上しています。実は、CPUの覇者であったIntelは、数年前に10nmプロセスの製品開発に遅れが生じ、競合AMDに後れを取ってしまいました。この流れの中で、Intelはプロセスノードの命名を見直し、この10nmのプロセスノードをIntel 7と改名し、そのシリーズを「Intel 4」「Intel 3」へと変更しました。また、それまでのシングルチップソリューション(一つのチップに出来るだけ機能を集中し、一つのチップとして高付加価値を提供する)から、マルチチップモジュール(機能別に別のチップを製造し、これらを組み合わせる実装技術一つのパッケージ:MCMに収め、高付加価値デバイスを提供する)へシフトしました。このマルチチップモジュール(MCM)は、性能向上とコスト削減を同時に実現するための重要な手段で、異なる機能を持つチップを一体化し、高い性能と効率を実現します。
 AMDも今年2024年5月にAI処理の高速化と省電力化を目指して、NPU(Neural Processing Unit)をCPUに統合したRyzen AI 300シリーズを発表しました。先端プロセスを使用した最大12コアのCPU、GPUに加え、AMDの第二世代のNPUを搭載しており、NPU単体で50TOPSの性能を発揮出来るとしています。これにより、Windows PC向けとしては最高の性能を誇るNPUとなります。即ち、先のMicrosoftのNPUが40TOPSであることに対してです。ブランド名もこれまでAMDのノートPC向けCPUは、Ryzenブランドとして来ましたが、NPU搭載版をRyzen AIのブランド名にブランド変更されました。この様にAMDもNPUの搭載を通じて、AI処理の高速化と省電力化を実現し、競争力強化を図っています。

まとめ

 以上に調べてきましたが、今年2024年は、正に「手元にAIを」が実現されることが期待されます。皆さんが新たに購入するPC、スマートフォン、家電、自動車には、エッジAIが搭載され、購入者の生活を支援してくれることが、大いに期待されます。加えて、これらの製品で買い替え、新規購入が浸透していけば、電子デバイスおよび半導体市場の活況が期待できます。

この記事が気に入ったらサポートをしてみませんか?