![見出し画像](https://assets.st-note.com/production/uploads/images/136003135/rectangle_large_type_2_fb43ac36d102dd184bcd6fcac3e4bae6.png?width=800)
計算機資源と量子ニューラルコンピュータの未来
生成AIに代表されるように、その計算資源である半導体とそのエネルギー(今は主に電力)の確保がヒートアップしています。
以前から、データは第二の石油、という暗喩がありましたが、もっと直接的な比喩を選ぶと
計算機資源は貨幣
とすら言えます。
丁度サム・アルトマンが最近のインタビューでこういった言い回しをしており、今の時代なら比喩とすら思わないです。(冒頭部)
そういった背景で、新しい計算機資源として期待されている1つが「光コンピュータ」で、以前も取り上げました。
上記記事では、電子スイッチを光に置き換えて省エネを実現する、という流れです。
ただ、今はAIに特化した計算能力も求められており、ニューラルネットワークアルゴリズムが定番です。その相性が良かったのが破竹の勢いを見せるNVIDIAがゲーム用に提供していたGPUでした。
基礎研究の分野で、これら2つの要素を解決する、光の特性を生かしたニューラルネットワーク型コンピューティングが進展しています。
1つ記事を紹介します。
ようは、
量子力学の原理を応用して、ニューラルネットワークのアルゴリズムを高速化できる、
という話です。
原理とは、「量子もつれ」と呼ばれる物理現象です。過去にその研究の歴史について紹介したので、関心のあるかたはそちらを。
ざっくりいえば、もつれ状態にさせると距離によらず情報が連関している不思議な現象です。
これをニューラルネットワークのアルゴリズムの1つ、「畳み込み(Convolution)」の計算手順を高速化する実験に成功した、というのが上記記事で紹介された業績です。
今はニューラルネットワークのうち、学習の層を多層化した深層学習がデファクトになっていますが、その学習のさせかたにも流派があります。
初期にもりあがったのが、上記の「畳み込み」型でよくCNN(Convolutional Neural Network)です。1つ解析記事を載せておきます。
主に画像処理で強みをもった技法です。
余談ながら、最近話題の生成AI、そしてそのアルゴリズムはTransformerが主流です。こちらは時系列処理に強いとされ、もともとRNN(Recurrent Neural Network)という技法を改革したものです。
量子コンピューティングは、固定処理については商用化が進みつつありますが、汎用的な計算資源としてはまだ勃興期です。
今回の成果は、CNNの高速化かつ省エネ化(まだ実験段階ですが実用化すると期待)に期待が高まりますが、そうなるとTransformerも・・・ですね。
もろもろを考慮すると、
未来のコンピュータは金
と言った方が意味合いを包含できるかもしれません。
この記事が気に入ったらサポートをしてみませんか?