第三次の「人工知能(AI)」ブームは、2000年頃から現在まで続いている。とりわけ2010年以降は「人工知能(AI)」が自らインターネット上にあふれた膨大な情報を学習・推論する「ディープラーニング」が可能なった。2012年にはプロの将棋士に、2016年にはプロの囲碁棋士に勝利し、世界中の注目を浴びた。さらに、ディープラーニングを利用してアシスタント業務を行う、「AI弁護士」や「AI秘書」まで登場してきている。AI弁護士は過去の膨大な判例の中から相談内容に適したものを選ぶこと、AI秘書はスケジュール管理以外にも、多くの顧客情報から過去の取引情報を見つけ出したりすることが可能になった。
今年のノーベル化学賞及び物理学賞がAIによる研究に基づいたものであることを考えると、今や生成AIの利便性を否定する人はいないと言っても過言ではない.
ところが,その消費電力は半端ではないらしい.IEA(国際エネルギー機関)が2024年1月に発表した電力に関するレポートによると、世界の多くのデータセンターで、生成AIの影響で電力需要が伸びているという。2022年には消費電力量が世界全体で約460TWh(テラワット時)だったのに対し、2026年には2倍以上の約1,000TWhに達する可能性がある。この数値は、日本全体の総消費電力量に匹敵する。
生成AIの電力消費量はAIのモデルによって異なり、CO2排出量や消費電力量には差がある。米国のスタンフォード大学が発表した研究によると、大規模言語モデル「BLOOM」が言語を学習する際に排出したCO2(二酸化炭素)の量は25トンで、これは平均的な米国人が1年間に排出するCO2量の1.4倍に当たる.消費電力量は433MWh(メガワット時)で、平均的な米国人家庭の41年分の電力量に相当する。ただ、これはまだ少ない方で,ChatGPTを開発したOpenAI社の言語モデル「GPT-3」が、機械学習の際に排出したCO2は502トン、消費電力量は1,287MWhで、BLOOMと比べると、20倍にあたる。この1,287MWhという電力量は、原子力発電1基の1時間分の電力量(約1,000MWh)を上回っている。
「AIはなぜ大量の電気を消費するのか」.AIに尋ねてみた.
AIが大量の電力を消費する主な理由は、以下の通りです。
膨大な計算処理: AI、特に深層学習モデルは、大量のデータを高速で処理するため、非常に複雑な計算を繰り返します。この計算処理には、莫大な計算資源が必要となり、結果として電力を大量に消費します。
学習フェーズの電力消費: AIモデルを学習させる際には、大量のデータを用いてパラメータを調整する必要があります。この学習フェーズは、特に電力消費が大きいと言われています。
データセンターの冷却: AIモデルの計算処理に伴い、大量の熱が発生します。この熱を冷却するために、データセンターでは大規模な空調設備などが稼働し、結果として電力を消費します。
ハードウェアの性能: AIモデルの性能向上に伴い、より高性能なハードウェアが求められます。高性能なハードウェアは、より多くの電力を消費する傾向にあります。
具体的にどのような処理で電力を消費しているのか
ニューラルネットワークの計算: AIの多くは、人間の脳を模倣したニューラルネットワークと呼ばれる構造を持っています。このニューラルネットワーク内の膨大な数のノード間の接続を計算するために、大量の演算が行われます。
パラメータの調整: ニューラルネットワークのパラメータを最適化するために、誤差逆伝搬法などのアルゴリズムを用いて、何度も計算を繰り返します。
特徴抽出: 画像認識や自然言語処理など、AIが扱うデータから特徴を抽出する処理も、大量の計算を伴います。
AIの電力消費を抑制するための取り組み
ハードウェアの効率化: より省電力のチップや、AI専用のハードウェアの開発が進められています。
アルゴリズムの改善: 計算量を削減できるような新しいアルゴリズムの開発や、既存のアルゴリズムの最適化が進められています。
データセンターの効率化: 冷却システムの改善や、再生可能エネルギーの利用など、データセンター全体の効率化が図られています。
モデルの軽量化: AIモデルのサイズを小さくすることで、計算量を減らし、電力消費を抑えることができます。
AIの電力消費は、その高度な機能と複雑な計算処理が主な原因です。しかし、近年では、ハードウェアやソフトウェアの技術革新により、電力消費を抑制するための取り組みが活発に行われています。AIのさらなる発展とともに、より効率的な電力利用が実現されることが期待されます。
省エネ型AIの例
量子コンピュータ: 量子コンピュータは、従来のコンピュータよりもはるかに少ないエネルギーで複雑な問題を解くことができると期待されています。
スパースニューラルネットワーク: ニューラルネットワークの接続を減らすことで、計算量を削減する手法です。
知識蒸留: 大規模なモデルから、より小さなモデルに知識を転移させる手法です。
ついでに、スーパーコンピューターとAIの違いについて尋ねてみた.
両者の関係
AIはスーパーコンピューターを利用する:
AI、特に深層学習モデルは、膨大な量のデータを学習するために、スーパーコンピューターの並列処理能力が不可欠です。
大規模な言語モデルや画像認識モデルの学習には、スーパーコンピューターが利用されることが多いです。
スーパーコンピューターはAIの研究開発を加速:
スーパーコンピューターの性能向上は、AIの研究開発を加速させ、より複雑なモデルの開発を可能にします。
新しいアルゴリズムやモデルの性能評価にも、スーパーコンピューターが活用されます。
例えで言うと
スーパーコンピューターは、強力なエンジンを搭載したスポーツカーのようなものです。高速で複雑な計算をこなすことができますが、それだけでは何も作れません。 AIは、そのエンジンを使って様々なものを作り出すドライバーのようなものです。スーパーコンピューターの能力を活用して、データから学び、予測し、判断します。
ある試算では、大規模言語モデルを一度学習させるのに、数百万ドル分の電力が消費されるとも言われている。AIの電力需要増加に伴い、原子力発電の必要性について関心が高まっているが、この問題には様々な側面があり、一概に「必要」とは言い難い.
日本のAIは世界的には周回遅れとのことである.追い付くのは困難であるとの見方が強い.まずは原子力発電の再稼働が必要との短絡的な発想はやめて,省エネ型AIの開発,AIの応用面の研究,開発で努力すべきである.最近,NTTグループが開発した大規模言語モデル「tsuzumi」という生成AIでは、世界トップレベルの日本語処理性能を有する一方,AIモデルの軽量化に成功しており、ChatGPT(GPT-3)と比較した場合、学習時のコストを最大で300分の1、推論コストを最大約70分の1に抑えられたという。
AIに限らず,政府が進める社会のデジタル化で電力消費量は今後も増加すると予想される.太陽光発電や風力発電,蓄電池の性能向上などの技術革新により、発電コストを下げ,各種発電法の長所,短所の要素を総合的に評価し、最適なエネルギーミックスを構築していくことが先決である.
(2024.12.10)