AI 인공지능

AI 투자를 못따라가는 미국의 전력망

주삼부칠 2024. 7. 29. 19:23

(CNBC, 07/28/2024)  생성형 AI는 엄청난 양의 전력과 물을 필요로 하며, 노후화된 미국의 전력망은 이 부하를 감당하기 어렵다

인공지능 붐 덕분에 기업들이 지을 수 있는 만큼 빠르게 새로운 데이터 센터들이 생겨나고 있다. 이는 내부 서버들을 가동하고 냉각하기 위한 전력 수요의 급증으로 이어졌다. 이제 미국이 AI의 광범위한 도입을 위해 충분한 전기를 생산할 수 있을지, 그리고 노후화된 전력망이 이 부하를 감당할 수 있을지에 대한 우려가 커지고 있다.

"지금 이 전력 문제에 대해 다르게 생각하기 시작하지 않으면, 우리가 꿈꾸는 것들을 절대 볼 수 없을 것이다"라고 Arm의 자동차 부문 책임자인 Dipti Vachani가 말했다. 이 칩 회사의 저전력 프로세서들은 Google, Microsoft, Oracle, Amazon과 같은 대형 클라우드 기업들 사이에서 점점 더 인기를 얻고 있다. 이는 정확히 데이터 센터에서 전력 사용량을 최대 15%까지 줄일 수 있기 때문이다.
 
Nvidia의 최신 AI 칩인 Grace Blackwell은 Arm 기반 CPU를 통합했는데, 이는 이전 세대보다 25배 적은 전력으로 생성형 AI 모델을 실행할 수 있다고 한다.

"전력을 최대한 절약하는 것은 성능을 극대화하려는 것과는 근본적으로 다른 설계가 될 것이다"라고 Vachani가 말했다.

컴퓨팅 효율성을 개선하여 전력 사용량을 줄이는 이 전략은 흔히 "와트당 더 많은 작업"이라고 불리며, AI 에너지 위기에 대한 한 가지 해답이다. 하지만 이것만으로는 충분하지 않다.

Goldman Sachs의 보고서에 따르면, 하나의 ChatGPT 쿼리는 일반적인 Google 검색보다 거의 10배나 많은 에너지를 사용한다. AI 이미지를 생성하는 데는 스마트폰을 충전하는 것만큼의 전력을 사용할 수 있다.

 


이 문제는 새로운 것이 아니다. 2019년의 추정에 따르면 하나의 대규모 언어 모델을 훈련시키는 것은 가솔린 차량 5대의 전체 수명 동안 배출되는 CO2만큼을 생산했다.

이 막대한 전력 소비를 수용하기 위해 데이터 센터를 구축하고 있는 대형 클라우드 기업들 또한 배출량이 급증하고 있는 것을 보고 있다. Google의 최신 환경 보고서에 따르면 2019년부터 2023년까지 온실가스 배출량이 거의 50% 증가했는데, 이는 부분적으로 데이터 센터의 에너지 소비 때문이다. 다만 Google은 자사의 데이터 센터가 일반적인 데이터 센터보다 1.8배 더 에너지 효율적이라고 말했다. Microsoft의 배출량은 2020년부터 2024년까지 거의 30% 증가했는데, 이 역시 부분적으로 데이터 센터 때문이다.

그리고 Meta가 AI에 중점을 둔 데이터 센터를 건설하고 있는 Kansas City에서는 전력 수요가 너무 높아서 석탄 화력 발전소 폐쇄 계획이 보류되고 있다.

 

 
 
전 세계적으로 8,000개 이상의 데이터 센터가 있으며, 미국에 가장 집중되어 있다. 그리고 AI 덕분에 20년대 말까지 훨씬 더 많아질 것이다. Boston Consulting Group은 데이터 센터 수요가 2030년까지 매년 15%-20% 증가할 것으로 추정하는데, 그때는 미국 총 전력 소비의 16%를 차지할 것으로 예상된다. 이는 OpenAI의 ChatGPT가 2022년에 출시되기 전 2.5%에 불과했던 것에서 크게 증가한 수치이며, 미국 전체 가정의 약 2/3가 사용하는 전력량과 맞먹는다.

CNBC는 이 산업이 이러한 급속한 성장을 어떻게 다룰 수 있을지, 그리고 이를 가능하게 할 충분한 전력을 어디서 찾을 수 있을지 알아보기 위해 실리콘 밸리의 한 데이터 센터를 방문했다.

"AI 특화 애플리케이션에서 볼 수 있는 수요의 양이 역사적으로 클라우드 컴퓨팅에서 본 것만큼 또는 그 이상일 것으로 추측한다"라고 Vantage Data Center의 북미 및 APAC 담당 부사장인 Jeff Tench가 말했다.

 



많은 대형 기술 기업들이 Vantage와 같은 회사들과 계약을 맺어 자사의 서버를 수용하고 있다. Tench는 Vantage의 데이터 센터들이 일반적으로 64메가와트 이상의 전력을 사용할 수 있는 용량을 가지고 있다고 말했는데, 이는 수만 가구가 사용하는 전력량만큼이다.
 
"이들 중 많은 곳이 단일 고객에 의해 점유되고 있는데, 그들은 전체 공간을 임대받게 된다. 그리고 AI 애플리케이션을 생각해보면, 이 수치는 수백 메가와트까지 상당히 크게 증가할 수 있다"라고 Tench가 말했다.

CNBC가 Vantage를 방문한 캘리포니아 주 Santa Clara는 오랫동안 데이터를 많이 필요로 하는 고객들 근처에 데이터 센터들이 밀집한 국가의 주요 지역 중 하나였다. Nvidia의 본사가 옥상에서 보였다. Tench는 "이 지역의 공공 시설에서 전력 가용성 부족으로 인해" 북캘리포니아에서 "둔화"가 있다고 말했다.

Vantage는 오하이오, 텍사스, 조지아 주에 새로운 캠퍼스를 건설하고 있다.

"이 산업 자체가 풍력이나 태양광과 같은 재생 에너지에 가까이 접근할 수 있거나, 석탄 화력 발전소를 천연가스로 전환하는 인센티브 프로그램의 일부이거나, 또는 점점 더 원자력 시설에서 전력을 구매하는 방법을 찾고 있는 등 활용할 수 있는 다른 인프라가 있는 장소를 찾고 있다"라고 Tench가 말했다.
 

 

 
 
일부 AI 기업들과 데이터 센터들은 현장에서 전기를 생산하는 방법을 실험하고 있다.

OpenAI의 CEO인 Sam Altman은 이러한 필요성에 대해 큰 목소리를 내왔다. 그는 최근 패널과 전력 저장 장치가 있는 컨테이너 크기의 모듈을 만드는 태양광 스타트업에 투자했다. Altman은 또한 A자형 구조물에 수용된 소형 원자로를 만들려는 핵분열 스타트업 Oklo와 핵융합 스타트업 Helion에도 투자했다.

Microsoft는 작년 Helion과 계약을 맺어 2028년부터 핵융합 전기를 구매하기 시작할 예정이다. Google은 다음 발전소에서 대규모 데이터 센터를 가동하기에 충분한 지하 전력을 활용할 수 있다고 말하는 지열 스타트업과 제휴했다. Vantage는 최근 버지니아 주의 한 데이터 센터에 전력을 공급하는 100메가와트 규모의 천연가스 발전소를 건설했는데, 이로 인해 해당 데이터 센터는 완전히 전력망에서 벗어나 있다.
 
**전력망 강화**

노후화된 전력망은 충분한 전력을 생산할 수 있는 곳에서도 종종 부하를 감당하기 힘들다. 병목 현상은 발전 현장에서 소비 지점까지 전력을 전달하는 과정에서 발생한다. 한 가지 해결책은 수백 또는 수천 마일의 송전선을 추가하는 것이다.

 


"이는 매우 비용이 많이 들고 시간이 오래 걸리며, 때로는 그 비용이 단순히 공공요금 인상을 통해 주민들에게 전가된다"라고 캘리포니아 대학교 리버사이드 캠퍼스의 전기 컴퓨터 공학 부교수인 Shaolei Ren이 말했다.

"데이터 센터 골목"으로 알려진 버지니아 주의 한 지역으로 송전선을 확장하기 위한 52억 달러 규모의 노력은 이 프로젝트에 자금을 대기 위해 요금이 인상되는 것을 원하지 않는 지역 납세자들의 반대에 부딪혔다.

또 다른 해결책은 예측 소프트웨어를 사용하여 전력망의 가장 약한 지점 중 하나인 변압기에서의 고장을 줄이는 것이다.

"생산된 모든 전기는 변압기를 통과해야 한다"라고 VIE Technologies의 CEO인 Rahul Chaturvedi가 말했으며, 미국에는 6천만에서 8천만 개의 변압기가 있다고 덧붙였다.
 
평균적인 변압기의 수명은 38년이어서, 이들은 정전의 흔한 원인이 된다. 이들을 교체하는 것은 비용이 많이 들고 시간도 오래 걸린다. VIE는 변압기에 부착되어 고장을 예측하고 어떤 변압기가 더 많은 부하를 감당할 수 있는지 결정하여 고장 위험이 있는 변압기로부터 부하를 옮길 수 있게 하는 작은 센서를 만든다.

Chaturvedi는 2022년 ChatGPT가 출시된 이후 사업이 3배로 성장했으며, 내년에는 다시 2배 또는 3배로 성장할 준비가 되어 있다고 말했다.
 
Vantage의 Santa Clara 데이터 센터에는 물 사용 없이 건물을 냉각하는 대형 에어컨 장치가 있지만, 대부분의 물은 증발 냉각에 사용된다.

또 다른 해결책은 액체를 사용한 직접 칩 냉각 방식이다.

"많은 데이터 센터들에게 이는 엄청난 양의 개조를 필요로 한다. Vantage의 경우, 약 6년 전에 우리는 데이터 홀 바닥에서 그 냉수 순환 장치를 활용할 수 있게 해주는 설계를 도입했다"라고 Vantage의 Tench가 말했다.

Apple, Samsung, Qualcomm과 같은 기업들은 전력을 많이 소모하는 쿼리를 클라우드와 전력이 부족한 데이터 센터에서 벗어나게 하는 온디바이스 AI의 이점을 강조해 왔다.

"우리는 데이터 센터들이 지원할 수 있는 만큼의 AI를 가지게 될 것이다. 그리고 그것은 사람들이 열망하는 것보다 적을 수 있다. 하지만 궁극적으로, 그러한 공급 제약을 해제할 방법을 찾기 위해 노력하는 많은 사람들이 있다"라고 Tench가 말했다.

 


**서버 냉각**

Ren의 연구에 따르면, 생성형 AI 데이터 센터는 2027년까지 냉각을 위해 42억에서 66억 입방미터의 물을 필요로 할 것이다. 이는 영국 전체 연간 물 사용량의 절반보다 많은 양이다.

"모든 사람들이 AI가 에너지 집약적이라는 점을 걱정하고 있다. 우리가 게으름을 피우지 않고 원자력에 대해 그렇게 바보 같이 굴지 않으면 그 문제는 해결할 수 있다. 그건 해결 가능하다. 물이 AI와 관련해서 앞으로 다가올 일의 근본적인 제한 요소다"라고 Burnt Island Ventures의 매니징 파트너인 Tom Ferguson이 말했다.

Ren의 연구팀은 ChatGPT 프롬프트 10-50개마다 표준 16온스 물병에 들어있는 정도의 물을 소비한다는 것을 발견했다.

 

728x90