■ Booming AI Demand Collides With the Grid (AI 수요를 못따라오는 '전기 공급')

When our power systems struggle to keep pace with the digital economy.


The Dispatch  2025.12.11 기사

https://thedispatch.com/newsletter/dispatch-energy/ai-data-centers-energy-demand-projections/


AI에 고속도로를 까는 것은 즉, "전기 생산"의 신속하고 안정적인 확장이다. 


[한국어 번역]


미국의 데이터센터들은 2024년에 183테라와트시(TWh)의 전력을 사용했는데, 이는 말레이시아 한 나라 전체가 쓰는 전력량과 대략 비슷한 수준이다. 2017년 구글의 엔지니어들이 트랜스포머 모델을 특수 칩과 처음 결합해 인공지능을 본격적으로 가동하기 시작했을 때, 그들이 전력 위기를 만들어내고 있다고까지는 아마 상상하지 못했을 것이다. 하지만 데이터센터 전력 사용이 낳는 오늘날의 도전 과제의 씨앗은 사실 그보다 훨씬 이전에 뿌려졌다.


1993년, 30세의 한 엔지니어가 3D 그래픽에 집중한 틈새 게임용 칩 회사를 창업했다. 훗날 이 기업의 핵심 기술이 되는 그래픽처리장치(GPU)는 중앙처리장치(CPU) 아키텍처와는 전혀 다른 방식으로, 많은 연산 과정을 병렬로 수행했다. CPU는 초기 인터넷을 구동했고, 이후 검색과 클라우드 컴퓨팅을 가능하게 만든 주역이었다.


그 엔지니어는 젠슨 황(Jensen Huang)이었고, 회사는 엔비디아(Nvidia)였다. 특수 그래픽 기업으로 출발한 이 회사는 1999년 GPU의 발명과 2006년 CUDA 소프트웨어 개발 플랫폼을 거치며 현대 인공지능의 연산 기반(backbone)으로 진화했다. 2017년 구글 연구진이 이제는 유명해진 「Attention Is All You Need」 논문에서 트랜스포머 모델을 소개하고, 이를 구글의 자체 텐서처리장치(TPU)와 결합하면서 필요한 퍼즐 조각들이 갖춰졌다. 그리고 2022년 11월, 대중에게 대규모 언어모델(LLM)이 공개 출시되면서 엔비디아의 하드웨어와 구글의 모델 혁신이 정면으로 충돌했다.


그 이후 우리는 AI와—끝이 없어 보이는 새로운 모델과 향상된 역량의 흐름과—함께 살아왔다. 이 기술들이 노동, 학습, 창의성, 심지어 인간으로서 우리가 스스로를 이해하는 방식에 어떤 의미를 갖게 될지는 아직도 배우는 중이다. 그러나 AI가 가져올 가장 심대한 사회·경제적 영향 가운데 하나는 에너지에 있을 것이다.


AI와 전기의 관계는 단순하지 않지만, 근본적이다. GPU는 CPU보다 훨씬 많은 연산을 수행하므로 AI 학습(training)과 추론(inference)에 적합하지만, 그만큼 전력 집약적이기도 하다. 

AI 작업은 크게 두 가지로 나뉜다. 첫째는 방대한 데이터셋과 수십억 개의 파라미터를 요구하는 모델 학습이고, 둘째는 학습된 모델이 질의에 응답하도록 하는 추론이다. 

프롬프트(질의) 1회당 전력 사용량 추정치는 0.24와트시(Wh)에서 2.9Wh까지로 제시되기도 하는데, 표준적인 구글 검색이 약 0.3Wh 정도로 언급되는 것과 비교하면, 모델과 하드웨어 효율에 따라 AI 질의는 10배, 심지어 30배까지 에너지를 더 쓸 수 있다는 뜻이 된다

참고로 헤어드라이어는 분당 20Wh, 냉장고는 분당 3Wh 정도를 사용한다.


황은 오래전부터 에너지 효율을 설계의 최우선 과제로 강조해 왔다. 최신 GPU는 이전 세대보다 와트당 연산량이 극적으로 늘었다. 엔비디아의 2024년형 블랙웰(Blackwell) GPU는 2022년형 호퍼(Hopper)보다 에너지 효율이 25배 높다고 보고되기도 하는데, 불과 2년 만에 이뤄진 놀라운 개선이다. 데이터센터 운영자들도 시설 차원에서 유사한 개선을 추구한다. 전력사용효율(PUE: Power Usage Effectiveness)은 시설 전체 에너지 사용량을 IT 장비 에너지 사용량으로 나눈 값으로, 데이터센터가 전기를 얼마나 효율적으로 연산으로 바꾸는지를 보여준다. PUE는 골프 점수와 같다. 낮을수록 좋으며, 이론적 최저치는 1.0이다. 구글 같은 기업은 하드웨어와 건물(시설) 수준의 효율 향상 모두에서 PUE를 기준으로 개선을 측정한다.


그러나 단위당 효율(per-unit efficiency)은 에너지 사용에서 ‘가성비’를 높이는 데 중요하지만, 총 전력 소비(total electricity consumption)와 동일한 개념은 아니다. AI 수요가 효율 개선 속도를 앞지르면, 연산 수준의 성능 향상과 시스템 전체 부하 증가가 동시에 나타날 수 있다. 2024년에 미국 데이터센터는 국가 전체 전력 소비의 약 4.4%를 차지했다. 전망은 크게 엇갈리는데, 어떤 추정은 2030년까지 이 비중이 약 5.7%로 오를 것이라 보고, 다른 추정은 대략 6.7%에서 12% 사이의 범위를 제시한다. 데이터센터는 25년 만에 다시 나타난 전력 수요 증가 국면 속에서, 늘어나는 전력 수요의 더 큰 몫을 차지하게 될 것이다.


그 기저의 경제학은 단순하다. 효율이 높아져 연산 비용이 내려가면, 더 많은 연산이 경제적으로 매력적이 된다. 영국의 경제학자 윌리엄 스탠리 제번스(William Stanley Jevons)는 1865년 저서 『석탄 문제(The Coal Question)』에서 이 관계를 이미 포착했다. 그는 더 효율적인 증기기관이 영국의 석탄 소비를 줄이기는커녕, 새로운 활용처를 가능하게 함으로써 오히려 석탄 소비를 늘렸다고 관찰했다. 제번스는 증기기관이 더 에너지 효율적이 될수록 증기기관 수요가 증가하고, 그 결과 석탄 수요도 늘어 석탄 가격이 상승하면서, 증기기관을 운영하는 비용이 되레 경제 활동을 제약할 수도 있다고 우려했다.


이 논리는 AI에 그대로 적용된다. 데이터센터는 디지털 경제의 증기기관이며, 전기는 그들의 석탄이다. AI 연산이 늘어나면 전력 소비도 늘고, AI 혁신의 속도는 연산 수요가 빠르게 팽창하고 있음을 의미한다. 다만 제번스 시대에는 산업 에너지 수요의 변화가 수십 년에 걸쳐 전개되었지만, 오늘날의 성장은 몇 년으로 압축되어 진행된다.


***

핵심 과제 중 하나는 디지털 확장의 속도전력 시스템 개발의 훨씬 느린 속도 사이의 시간적 불일치(temporal mismatch)다. 초대형 클라우드 사업자(하이퍼스케일러)는 대략 18~24개월이면 새로운 데이터센터를 설계하고 건설할 수 있다. 반면 신규 발전 설비를 구축하는 데는 보통 수년이 걸리며, 고압 송전선을 건설하는 데는 인허가, 노선 선정, 환경 검토, 소송 등을 거치느라 통상 7~10년 이상이 소요된다. 설령 제도적 절차가 완벽히 작동하더라도, 물리적 공급망 자체가 또 다른 지연을 만든다. 대형 전력 변압기는 납기(lead time)가 2~4년에 이르며, 안정적 전원(firm generation)에 대한 세계적 수요가 늘면서 가스터빈의 공급 일정은 7년을 향해 길어지고 있다. 이런 공급망 병목 때문에, 아무리 계획이 잘 된 프로젝트라도 데이터센터 구축의 빠른 주기와 쉽게 맞물리기 어렵다.


그 결과 구조적 ‘타이밍 갭(timing gap)’이 생긴다. 디지털 경제는 제품 개발의 시계로 확장되는 반면, 전력 시스템은 인프라와 규제의 시계로 움직인다. 황이 AI를 ‘전력 제한 산업(power-limited industry)’이라고 말하고, 구글의 순다르 피차이(Sundar Pichai)가 이에 동의하며 우주 데이터센터 같은 대담한 구상까지 탐색하는 이유는 바로 이 간극 때문이다. 오픈AI의 샘 알트만(Sam Altman)은 프로그레스 컨퍼런스(Progress Conference)에서 연산 가용성을 가장 가속할 것은 무엇이냐는 질문에 “전자(Electrons)”라고 짧게 답해, 이 정서를 간명하게 표현했다.


이런 급격한 확장은 두 번째 문제인 불확실성(uncertainty)을 증폭시킨다. AI가 견인하는 전력 수요에 대한 전망은 크게 엇갈린다. 국제에너지기구(IEA)는 2030년까지 전 세계 데이터센터 전력 수요가 대략 두 배가 될 수 있다고 본다. 미국 에너지부(DOE) 지원을 받은 로렌스 버클리 국립연구소(LBNL)의 연구는 미국 데이터센터 부하만 놓고도 2028년까지 거의 3배가 될 수 있으며, 가능한 범위가 약 74~132기가와트(GW)라고 시사한다. 말하자면 “꽤 크다”에서 “이건 정말 엄청나다” 사이 어딘가다. 딜로이트(Deloitte)는 미국의 AI 전용 데이터센터 용량이 2024년 4기가와트에서 2035년 123기가와트까지 늘 수 있다고 추정한다. EPRI, 맥킨지(McKinsey) 등 다른 연구들은 또 다른 결론에 이른다. 이런 차이는 하드웨어 효율, 냉각 시스템, 소프트웨어 최적화, 워크로드 분산, AI 애플리케이션이 경제 전반으로 확산되는 속도 등에 대한 가정이 서로 다르기 때문에 생긴다.


전력 시스템 계획자에게는 점추정치 못지않게 ‘범위의 크기’ 자체가 중요하다. 인프라 의사결정은 자본집약적이고, 되돌리기 어렵고, 느리다. 인프라 투자 계획은 깊은 불확실성 아래에서 이루어지며, 불확실성은 위험을 키운다. 대규모 인프라를 건설하려면 부하가 실제로 나타나기 몇 년 전부터 자본을 투입해야 한다. 낙관적 전망에 기반해 과잉투자를 하면, 설비가 충분히 활용되지 못한 채 비용이 전기요금으로 전가될 위험이 있다. 반대로 과소투자를 하면 공급 부족, 계통 혼잡, 신뢰도 문제로 인해 모두의 비용이 올라가고, AI 배포 자체가 제약될 수도 있다. 문제는 수요가 늘어난다는 사실만이 아니라, 투자 결정이 가장 되돌리기 어려운 바로 그 시점에 미래 수요의 범위가 매우 넓다는 점이다.


한 가지 근본 경제 원리가 이 관찰을 뒷받침한다. 희소성(scarcity)은 지갑(가격)이나 기다림(대기시간)으로, 보통은 둘 다로 나타난다. 혁신가들은 희소한 투입요소의 수요를 줄이거나, 그 실질적 공급을 늘리는 방식으로 대응한다. 우리는 지금 두 가지 대응을 모두 보고 있다. 구글은 최근 제미니(Gemini) 프롬프트 1회당 중앙값 기준 에너지 사용량이 작년 대비 33배 감소했다고 보고했다. GPU와 TPU 아키텍처는 와트당 연산량을 계속 높이고 있다. 데이터센터 설계, 냉각 기술, 소프트웨어 모델은 동일한 성능을 내는 데 필요한 전력을 줄이도록 진화하고 있다. 혁신은 시스템을 더 높은 효율로 밀어붙이지만, 근본 경제적 긴장을 제거하지는 못한다. 전기는 여전히 희소한 투입요소이며, 이를 생산하는 제도와 공급망은 디지털 기술이 요구하는 속도보다 근본적으로 느린 시간척도에서 작동한다.


결국 AI와 전기의 이야기는 빠른 혁신이 물리적 인프라의 느린 리듬과 충돌하는 이야기다. 데이터센터는 18개월 수준의 시간지평에서 확장할 수 있지만, 이를 구동하는 전력망은 수년의 계획·인허가·건설을 필요로 한다. 효율 개선은 앞으로도 계속될 것이고, 도움도 될 것이다. 모델은 더 경량화되고, 칩은 와트당 더 많은 연산을 뽑아내며, 데이터센터는 PUE의 이론적 한계에 더 가까이 다가갈 것이다.


그러나 이러한 혁신들이 전력의 근본적 희소성이나 공급을 형성하는 제도적 마찰을 없애주지는 못한다. 따라서 AI의 경제학은 GPU와 모델 아키텍처를 훨씬 넘어선다. 그것은 사회가 불확실성을 어떻게 관리하고, 위험을 어떻게 배분하며, 빠른 기술 변화 속에서 장수명 자산에 어떻게 투자하는지에 달려 있다. AI가 잠재력을 실현하려면 전력 시스템도 같은 수준의 야심으로 진화해야 한다. 유연성, 회복력, 적응력을 전력 인프라 구조 자체에 내장하는 방향으로 말이다(이 모든 주제는 Dispatch Energy에서 더 탐구할 내용이다).