AIの持続可能性:データ透明性から責任ある利用へ

世界中が大規模モデルの軍拡競争に巻き込まれ、各テック企業がパラメータ数1兆を超えるAIシステムを次々と発表する中、目に見えない代償が急速に膨らみつつある——エネルギー消費と炭素排出だ。しかし、カナダのAI研究者であり、非営利組織Milaの研究者であるSasha Luccioniの最新の見解によれば、私たちは今もなお最も基本的な2つのものを欠いている:信頼できる排出データと明確なAI利用状況の把握だ。

炭素排出の「ブラックボックス」

Luccioniは近期の公開講演や論文の中で、現在業界におけるAIの炭素排出量推定には大きな偏差があると指摘している。同じモデル(例えばGPT-3)の訓練消費電力に関する各研究の推計値は数倍も異なっており、その根本原因は標準化された測定プロトコルの欠如にある。NVIDIAやGoogleなどの企業は一部のエネルギー消費データを公表しているが、多くの場合モデルの訓練段階のみをカバーし、より電力を消費する推論段階——つまりモデルが実際にアプリケーションに投入された後、繰り返し呼び出されるプロセス——を無視している。

「単純な『炭素排出フィンガープリント』すら持っていないのに、どうやってカーボンフットプリントの削減を語れるのか?」——Sasha Luccioni

推計によれば、GPT-3規模の訓練1回で約1,300メガワット時の電力を消費し、これは米国の130世帯の1年間の電力消費量に相当する。一方、推論段階の総量は、訓練を2桁上回る可能性がある。数百万のユーザーが毎日APIを通じて応答を生成するとき、このエネルギーの奔流はAIの環境収支を静かに変えつつある。

利用シーンの霧

データ欠如に加え、Luccioniはもう一つの盲点を強調する:私たちは人々がAIを使って何をしているのかを本当には理解していない。既存の研究は訓練効率に注目しているが、モデル展開後の長期的な利用パターンを追跡することはほとんどない。例えば、ソーシャルメディア向けのテキスト自動生成と医学診断補助では、計算コストと必要性が全く異なる。彼女は、AIの持続可能な発展は「技術効率の向上」から「利用の合理性評価」へとシフトする必要があると考えている。つまり、低価値なタスクには、最大規模の大規模言語モデルを一律に呼び出すのではなく、より小さく、より効率的なモデルの使用を奨励すべきだ。

業界の対応と課題

実際、一部の大手企業はすでに動き始めている。Googleはデータセンターが2030年までに24時間無炭素エネルギーを達成すると発表し、Microsoftは2050年までに過去の炭素排出を相殺することを約束した。しかし、これらのコミットメントは第三者がAPIを通じて呼び出すAIサービスを含むのだろうか?さらに、オープンソースコミュニティや学術機関は、Luccioniが参加するCodeCarbonプロジェクトやML CO2 Impact計算機など、炭素排出追跡ツールを推進している。とはいえ、自主的な開示から強制的な基準まで、まだ長い道のりがある。

編集者注:持続可能性はガバナンスの問題

AIの持続可能性は単なる技術的最適化を遥かに超え、データガバナンス、ビジネスインセンティブ、ユーザー教育に関わる。透明なデータが欠如している場合、市場は「低炭素AI」に価格を形成できない;利用シーンが精査されない場合、効率の向上はより高い利用量によって相殺される可能性がある(すなわちジェヴォンズのパラドックス)。将来的には、「エネルギー効率ラベル」のようなAIモデルの炭素等級表示が必要になるかもしれず、開発者とユーザーが意思決定時に知る権利を持てるようになる。また、政策立案者は、グリーンウォッシングを防ぐために、統一されたAIエネルギー消費監査基準を早急に策定すべきだ。

Luccioniが言うように:「AIを持続可能にする第一歩は、私たちが現時点でそれがどれほど環境に悪いのかを知らないと認めることだ。」データ透明性から責任ある利用へ、この道はまだ長いが、その一歩一歩が、私たちが知能の恩恵を享受しながら地球の最低限を守れるかどうかに関わっている。

本記事はWIREDから翻訳・編集したものである。