見出し画像

生成AIと環境負荷

生成AIは、従来のクラウドインフラストラクチャに比べて最大3倍の電力が必要になると言われています。たとえば、クラウドコンピューティングでは、1ラックあたり30キロワットの電力が必要になりますが、AI対応の場合は100キロワットが必要になります。

2019年に研究者によって明らかにされたところによると、1億1000万のパラメーターを持つ生成AIモデルBERTが消費するエネルギーは、大陸横断往復1人分の飛行機の消費エネルギーと同等です。

AIデータセンターの消費電力を削減するために、オープンソース・ライセンスを使ったプロセッサー開発を可能にする「RISC-V」などに期待がかかっていました。(データセンター「消費電力3倍増」問題について詳しくはこちら

しかし、最近の生成AIはそのモデルによって、CO2排出量や消費電力量に差があります。

2023年にアメリカのスタンフォード大学が発表した研究によると、
大規模言語モデル「BLOOM」が,言語を学習する際に排出したCO2
(二酸化炭素)の量は25tで、これは平均的なアメリカ人が1年間に排出するCO2量の1.4倍、ニューヨークからサンフランシスコまで飛行機で1往復する際の排出量の25倍に当たります。
消費電力量は433MWh(メガワット時)で、平均的なアメリカ人家庭の41年分の電力量に相当します。

ただ、これはまだ少ない部類に入ります。ChatGPTを生み出したOpenAI社の言語モデル「GPT-3」が、機械学習の際に排出したCO2は502t、消費電力量は1,287MWhで、BLOOMと比べると、非常に大きな数字です。

一方で、エネルギー効率の良いAIモデルも開発されており、NTTグループが開発した「tsuzumi」は、ChatGPT(GPT-3)と比較して学習コストを300分の1、推論コスト*を70分の1に抑えることが可能です。
(*AIでの推論とは、訓練された機械学習モデルが新しいデータから結論を導き出すために使用するプロセスを指します。)

これに加えて、データセンターも消費電力を抑える取り組みが進んでいます。たとえばNTTコミュニケーションズの「Green Nexcenter」というデータセンターでは、生成AI向けに高発熱サーバーと、熱伝導率の高い液体によるサーバーの冷却装置を導入し、従来型と比べ、サーバー冷却のための消費電力が約30%削減できるといいます。

さらにセンター内の電気には実質100%再生可能エネルギーを使用し、CO2の排出も抑制しています。

また,データセンターの消費電力削減を可能にするAIプロセッサーの開発も行われています。
2023年10月、東京都市大学の情報工学部 情報科学科の陳 オリビア准教授らは、従来の100倍以上のエネルギー効率を達成するAIプロセッサ「SupeRBNN」を開発しました。
今後は、新たに開発したA Iプロセッサに、量子計算機等の最新コンピューティング技術を融合させることより、科学的発見を加速し、気候変動予測、医薬品設計、脳機能マッピング、革新的なスマートマテリアルの開発などの新しい分野の開拓と新展開を目指します。

AIの性能向上と環境負荷への配慮はトレードオフの関係ですが、地球が悲鳴を上げている今、環境負荷への配慮をおろそかにすることはできません。

参考URL:


この記事が気に入ったらサポートをしてみませんか?