【要点】
・2025年12月中旬の解説記事で、AI向けデータセンターの電力・冷却・用地がボトルネックになりつつあるとして、計算資源を宇宙へ移す構想が論じられた。
・報道によると、地上のCPU中心データセンターは運用費の電力比率が約20%で、GPU中心のAIデータセンターでは電力・冷却が40〜60%に達し得ると説明された。
・宇宙側の利点として、太陽同期軌道(太陽に対して同じ時刻帯で周回する軌道)では太陽光発電をほぼ連続で得られ、電池依存を下げられる点が挙げられた。
・冷却面では、放射冷却(熱を電磁波として宇宙へ逃がす方式)を活用し、ファンやチラー、水冷などを減らしてサーバ密度を高め得るとされた。
・制約として、地上との往復遅延(レイテンシ)により遅延に敏感な用途に不向きな点、宇宙放射線による半導体劣化、故障時の修理・更新が難しい点が整理された。
・GoogleはProject Suncatcherで、TPU(AI向け専用プロセッサ)を軌道上で評価し、2027年初頭までにPlanetと2機の試験衛星を打ち上げて、放射線耐性や熱安定性、衛星間光通信(レーザー通信)などを検証する計画が示された。
・SpaceXについては、再使用ロケットStarshipで打上げ費を下げ多数機展開を可能にし、既存のStarlink衛星網を通信基盤として活用できる可能性が論点として挙げられた。
・費用の目安として、現状は軌道投入がkg当たり数千ドル規模で、Falcon 9が約1,600〜2,000ドル/kg、Starshipは2030年代に200ドル/kg未満を目標とする見通しが示された。
【編集部コメント】
地上の電力網混雑や冷却水・用地制約を背景に、AI計算需要の受け皿を宇宙へ分散させる構想として位置付けられる。実現には放射線耐性、保守性、通信遅延、打上げ費低減など複数課題が残る。当面は実証段階で、衛星間レーザー通信や熱設計の検証を通じて、地上データセンターの補完可否を見極める局面にある。
【出典情報】
公式リリース
Exploring a space-based, scalable AI infrastructure system design
【参照情報(報道)】
Forbes
The Verge