データセンターが月3000万ガロンの水を浪費 数カ月誰も気付かず

2026年5月、Ars Technicaによる独占調査が科学技術界に衝撃を与えた。米国南西部に位置する大型データセンターで、冷却システムの継続的な漏水により、なんと4カ月間にわたって約3000万ガロンもの飲用水が無駄に消費されていたのである——これは標準的なプール450杯分に相当する。さらに驚くべきは、このデータセンターのオーナーである著名なクラウドサービス事業者が、四半期監査の際まで問題に気付かず、その間、自動化されたアラートも現場検査による異常検知も一切なかったということだ。

編集者注:これは単発の事例ではない。生成AIとクラウドコンピューティング需要の爆発的増加に伴い、世界中のデータセンターの水消費量は年間15%の速度で急上昇している。テック巨人たちが「AIで気候変動を解決する」と高らかに叫ぶ一方で、彼ら自身が水資源の隠れた大食漢となりつつある。

事件の振り返り:説明のつかない「水不足」

Ars Technicaが入手した内部文書によると、当該データセンターは2026年1月に規模拡張を完了し、AIモデル学習用に大量のGPUサーバークラスターを新たに追加した。しかし、拡張後の冷却システムには設計上の欠陥があった——並列接続された冷却塔のバルブ群が、ソフトウェア設定のミスにより長期間にわたって最大開度に保たれ、冷却水が設計流量の2.5倍の速度で継続的に循環・蒸発していたのである。1ガロンあたり約0.004ドルの水道料金で計算すると、この漏水による直接的な経済損失は約12万ドルだが、本当の環境への影響は帳簿上の数字をはるかに上回る:同じ水源から取水している地元コミュニティの住民は、2カ月間にわたって水圧低下を訴えていたが、市当局は「緊急閾値に達していない」として詳細な調査を行わなかった。

さらに興味深いのは、同社の自動監視プラットフォームは月次水使用量の異常な急増を記録していたが、システムの閾値設定は「機器レベルの故障」にのみ対応しており、総水使用量は重要業績評価指標に含まれていなかったことだ。インターンが偶然に水道料金請求書の異常に気付くまで、運用チームが手作業で現場調査に入ることはなかった。この抜け穴は、データセンター運用に普遍的に存在する「霧の中を覗くような」状況を露呈した——監視システムはチップ温度やPUE電力効率には注目するが、水資源の浪費は見過ごしている。

AIの「水運命」:冷却からチップ製造まで

なぜデータセンターはこれほど多くの水を必要とするのか?答えは、ますます厳しくなる熱管理ニーズにある。ハイエンドGPU1台のフルロード時の消費電力は700ワットに達し、発生する熱量はラック温度を60°C近くまで押し上げるほどだ。液冷や液浸冷却などの新技術が普及しつつあるとはいえ、伝統的な蒸発冷却(水の蒸発による吸熱を利用)は依然として世界のデータセンター冷却ソリューションの60%以上を占めており、特に乾燥地域では水が最も効率の高い放熱媒体である。

さらに知られていないのは、AIチップ製造自体も水の大消費者であるということだ。TSMCなどのウェハ工場では、12インチウェハ1枚を生産するのに約2000ガロンの水を消費し、GPT-4級モデルの学習では、チップ製造段階だけで数千世帯の年間水使用量に相当する量を間接的に消費する。ある研究者の試算では、大型モデル学習1回(ハードウェア製造と運用を含む)の総水フットプリントは100万リットルを超える可能性があり——これは中型給水塔1基分に相当する。

パラドックス:AIは「水の五指山」から逃れられるか?

批判に直面した科学技術企業は、次々と「AI治水」ソリューションを打ち出している。Microsoftは「Water Positive Future」計画を発表し、AIで冷却スケジューリングを最適化することで、2030年までに水資源プラス効果を実現すると約束。Googleは機械学習モデルを使って気象と負荷を予測し、冷却塔の運転を動的に調整することで、一部データセンターの水消費を30%削減したと主張している。しかしArs Technicaの報道は、これらの最適化は新築または現代的な施設にのみ適用されることが多く、老朽化したデータセンターや一回限りの拡張プロジェクトには依然として有効な監督が欠けていると指摘している。

業界アナリストは、問題の根源は技術ではなくインセンティブメカニズムにあると見ている。現在のデータセンターの収益モデルは演算能力の稼働率に基づいており、水道や電気などの環境コストは内部で分担されるだけで、演算能力の価格には直接連動していない。水道料金が無視できるほど安い限り、企業が高コストの閉鎖循環型冷却システムに投資する動機はない。「AIは私たちの水を30%節約してくれるが、もしあなたがそもそもその30%を気にしていないのなら、最適化は単なるパワーポイントの一枚に過ぎない」と、ある匿名のエンジニアは報道の中でコメントしている。

批判的視点:AI業界は今、「精神分裂」を経験している——一方では気候モデルを開発して干ばつを予測し、もう一方では大量の淡水を使って自社の利益エンジンを冷却している。政策面から水使用枠とリアルタイム報告制度の強制設立がなされない限り、技術の進歩はむしろ問題を覆い隠してしまう可能性がある。

未来への解決策は?実行可能な3つの道

「AIが水危機を悪化させる」悪循環を断ち切るためには、業界は3つの方向から同時に取り組む必要がある:

第一に、透明性の義務化。 各国の規制当局は、データセンターに対して月次で蒸発による水消費量、回収水利用率、水源種別を公開するよう求め、環境コストを定量化可能な指標に変えるべきである。現在、EUの「エネルギー効率指令」が水使用を部分的にカバーしているのみで、米国EPAはまだ基準を策定中だ。

第二に、閉ループ冷却の普及。 伝統的な蒸発冷却を空冷+液冷ハイブリッドシステムに改造するか、無水冷却チップ(相変化放熱など)を採用する。一部メーカーが打ち出した「水を使わないデータセンター」はすでにパイロット運用が始まっているが、初期投資は従来方式の2〜3倍となる。

第三に、AIでAIに恩返しを。 機械学習モデルを冷却ネットワークの設計に直接活用する。たとえば深層強化学習による冷量の動的配分などがある。Googleの「DeepMind for Cooling」プロジェクトは冷却エネルギー消費を40%削減したが、水消費の最適化はその中核的目標ではなかった——こうした偏った取り組みは是正される必要がある。

あの3000万ガロンの水に話を戻そう。Ars Technicaの記者が同社にその後の対策を問い詰めた際、広報担当者は「監視閾値を更新し、従業員教育を強化した」とだけ回答した。しかし、世界中で今この瞬間にも、いったいどれほどのデータセンターが音もなく「漏水」しているのか、誰にもわからない。

本記事はArs Technicaから編訳したものである