전세계 ‘데이터센터’ 발목잡는 전력난, 갈수록 심각

생성AI 확산으로 갈수록 많은 전력 필요, “전력인프라는 한계” 스토리지 부족과 함께 해결해야할 난제, AI칩 냉각 등 인프라 문제

2024-02-19     전윤미 기자
데이터센터 모습으로 많은 전력 소모가 문제가 되고 있다. (사진=게티 이미지)

[애플경제 전윤미 기자] 전세계적으로 데이터 센터 전력난이 심각하다. 특히 에너지 집약적인 생성AI가 보급되면서 이같은 전력난은 그 수요를 미처 감당키 어렵게 하고 있다.

데이터 센터는 ICT산업 전반에 걸쳐 날로 그 중요성이 강조되고 있다. 그러나 데이터센터가 늘어날수록 전력 등 에너지난과 스토리지 부족을 극복하는게 가장 큰 과제로 떠오르고 있다.

글로벌 인프라 조사 업체인 JLL의 2024년 데이터 센터 글로벌 전망 보고서에 따르면 데이터 센터의 전력 및 스토리지 수요가 기하급수적으로 증가하면서 문제가 되고 있다. 특히 생성 AI에 대한 산업계의 관심이 높아지면서 날로 엄청난 양의 전력이 필요하게 되었다. 이는 결국 지역마다 한정된 전력 공급량으로 인한 ‘데이터 센터 코로케이션(가동) 및 공급 부족’을 야기하고 있다.

“2030년까지 전력 소비 60% 증가” 예상

특히 생성AI는 앞으로 (폭발적인 데이터센터 수요로 인해) 전 세계 전력 소비 증가의 주요 요인이 될 것으로 예상된다. EU집행위원회는 최근 보고서에서 “2030년까지 전력 소비가 60% 증가할 것”으로 추정하고 있다.

JLL에 따르면 특히 고성능 컴퓨팅(HPC)과 AI워크로드의 전력 소비가 증가함으로써 데이터 센터의 에너지 인프라에 큰 부담을 주고 있다. 앞으로 데이터 센터 운영자는 300메가와트(MW)에서 500MW에 이르는 전력 수요를 감당ㅎ야 한다. 이에 데이터센터 관리 시스템과 방식도 크게 바뀌고 있다.

최근 ‘Bloomberg Intelligence’에 따르면 생성AI 시장이 향후 10년 동안 1조 3천억 달러로 성장할 것으로 예상된다. 이에 “기업들의 AI 전문 데이터 센터가 기존 시설과는 다르게 엄청난 전력을 소비한다는 점을 깨달을 때”라는 지적이다.

디지털트랜스포메이션 전문기업인 UST의 한 수석 AI 설계자는 “AI, 특히 딥 러닝(생성 AI 읽기)을 더욱 선호하는 AI는 컴퓨팅에 굶주린 짐승”이라고 IT프로포탈에 밝혔다. 그는 또 “전력난은 단순히 소요 전력이 부족한데서 그치지 않고, 가동을 위축시켜 기존 데이터 센터를 왜소하게 만드는 주요 원인이 된다”고 경고했다.

생성AI, “에너지 먹는 컴퓨팅에 굶주린 짐승”

생성AI는 기존 데이터 센터보다 더 조밀하게 클러스터링되고 성능 집약적인 인프라가 필요하다. 이론 인해 더 많은 열이 발생하고, 더 정교한 냉각 기술이 필요한 실정이다. 앞서 UST 관계자는 “높은 컴퓨팅 성능은 많은 열을 발산시키는 것을 의미하며, 이 열을 관리하는 것이 중요다.”고 강조했다.

그는 “칩을 냉각시키는 경우와 같은 하드웨어가 손상되면 큰일”이라며 “이를 방지하고 성능을 유지하려면 효율적인 고급 냉각 시스템이 필수지만, 이러한 시스템은 (소요 전력을 감안하면) 간단하지도 저렴하지도 않다.”고 덧붙였다.

그럼에도 전세계 데이터 센터들은 앞으로 해가 거듭될수록 더 많은 전력난을 겪게 될 것으로 우려된다.

예를 들어 아일랜드 전력 회사인 에어그리드(EirGrid)사는 “2028년에는 데이터 센터의 전력 수요가 전체 전력 소비량의 2배 이상인 30%로 증가할 것”으로 추산했다. 또 덴마크의 데이터 센터 전력 사용량은 2030년까지 전체 전력 소비량의 1%에서 15%로 증가할 것으로 예상되기도 했다.

설상가상으로 글로벌 데이터 인프라 상태도 열악하다. 유럽의 경우 전체 전력망 구조의 1/3은 40년이 넘은 것으로 알려졌으며 현대화를 위해 약 6,410억 달러(5,840억 유로)가 필요한 것으로 추산된다.

전력 송전망 등 인프라 시설도 열악하거나 제한적

앞서 JLL은 “전력망 인프라는 제자리걸음인데 반해 총 데이터 생성량은 향후 5년 내에 2배로 증가할 것”으로 예상하며, 데이터 센터 용량이 2023년 10.1제타바이트(ZB)에서 2027년 21ZB로 증가할 것으로 내다봤다.

이들 전문가에 따르면 생성AI는 필연적으로 데이터와 데이터센터의 성장을 촉진할 수 밖에 없다. 날로 많은 양의 데이터를 관리, 액세스 및 저장하는 방식을 관리해야 하므로, 데이터 센터도 급속히 늘어날 수 밖에 없고, 스토리지도 갈수록 확장되어야 하는 것이다.

이에 데이터 센터는 강력한 전력 인프라를 갖춰, 과열을 방지하고 끊임없는 에너지 소비에 대처할 수 있는 효율적인 냉각 솔루션을 고안해야 한다는 지적이 따른다.

또한 공기 냉각도 중요하지만, AI 하드웨어를 효율적으로 냉각하는 기능도 더욱 중요하다. 흔히 고성능 칩에만 선호되는 액체 냉각은 탁월한 냉각 기능과 비용 절감의 이점이 있다는 주문이다.

이 과정에서 또 다른 전문가들은 데이터 센터에 설계되어있으나 자칫 간과하기 쉬운 ‘케이블링’의 중요성을 강조하기도 한다. 이를 간과하면, 결과적으로 효율성에 부정적인 영향을 미친다는 지적이다.

즉 “전원 연결 및 냉각 시스템과 마찬가지로 케이블링도 내장형 인프라이며, 모두 데이터 센터 단지의 구조에 내장되어 있다.”는 것이다. 그래서 그 시스템 교체 비용이 경제적으로 완전히 불가능하지는 않더라도 엄청나게 비용이 많이 들 수 밖에 없다. 그 때문에 이를 이를 간과하다간 결국 큰 문제를 야기할 수 있다는 지적이다.

액체 침지 냉각 등 대안, “그러나 임시방편 불과”

그래서 전문가들은 데이터 산업이 전력 및 스토리지 문제를 해결하는 대안을 나름대로 제시하고 있다. 즉, “AI를 위한 훈련이나, 애플리케이션 워크로드는 대기 시간에 민감하지 않다”면서 “예비 AI 전문 데이터 센터 개발자는 이러한 유연성을 활용, 지속 가능한 전력이나 무료 냉각을 지원하는 사이트를 선택할 수 있다”는 조언이다.

또 다른 전문가는 대안으로 ‘액체 침지 냉각’을 강조하기도 한다. 이는 높은 컴퓨팅 요구 사항을 충족하도록 설계된 AI 최적화 프로세서와 함께, 비전도성 액체에 서버를 완전히 담그는 방식이다. 다만 이 경우 피해야 할 것은 부하 분산이다. 그러나 “이런 방식은 모두 임시방편 내지 근시안적인 것으로 데이터 센터가 중요 장비를 작동하기 위해 무정전 전원 공급 장치(UPS)에 의존한다는 점을 인식해야 한다”는 지적이다.