“코딩 몇줄 조작, 데이터센터 에너지 크게 줄여”

‘에너지 먹는 하마’ 데이터센터, 서버와 트래픽에 막대한 전기 “30줄 코딩 조작으로 인터럽트 요청 중단, 30% 이상 절감” ‘다크 데이터’ 필터링, 스토리지 정비 코딩으로 에너지 효율성 높여

2025-02-04     전윤미 기자
데이터센터 서버. (사진=아이스톡)

[애플경제 전윤미 기자] 데이터 센터는 과도한 전기와 에너지를 소모하는 주범으로 몰리고 있다. 만약 간단하게 몇 줄의 코드를 조작하는 것만으로도 에너지 사용량을 크게 줄일 수 있다면 어떨까. 최근 일련의 연구에 의하면 실제로 이런 일이 가능한 것으로 밝혀져 눈길을 끈다.

이에 따르면 불과 30줄의 코드만으로 에너지 사용량을 최대 30%까지 줄일 수 있다. 리눅스 커널의 네트워크 스택에서 약 30줄의 코드를 변경하기만 해도 에너지 사용량을 최대 30%까지 줄일 수 있다는 얘기다.

캐나다 ‘워털루 대학’의 과학자들은 최근 이런 내용을 담은 관련 연구보고서와 보도자료를 공개했다. 해당 연구소 사이트와 블로그에 공개된 내용에 따르면 데이터센터 서버가 네트워크 트래픽을 최대한 효율적으로 처리하는 것이 핵심이다.

평소 무심코 행한 IRQ 중단에서 착안

이처럼 획기적인 발견은 무심코 행했던 인터럽트 요청(IRQ(Interrupt ReQuest)) 중단에서 착안한 것으로 알려졌다. IRQ는 인터럽트 신호를 처리하는 데에 쓰이는 컴퓨터 버스 라인의 인터럽트 행위다. 또는 프로그래머블 인터럽트 컨트롤러의 인터럽트 입력 라인을 뜻하기도 한다.

이런 인터럽트 요청을 중단하는 것은 트래픽이 많은 상황에서 불필요한 중단을 줄여 CPU 전력 효율성을 최적화하는 기술이다. 일반적으로 새 데이터 패킷이 네트워크에 들어오면 인터럽트 요청이 이뤄지고, CPU 코어가 현재 작업을 일시 중지한 후 데이터를 처리함으로써 속도가 느려진다.

이 경우 새로운 코드는 전체 시스템이 개별 인터럽트를 기다리는 대신, 네트워크에서 새 데이터 패킷을 적극적으로 확인하도록 허용, 인터럽트 요청을 줄이곤 한다. 그러나 이런 접근 방식은 전력을 엄청나게 소모한다. 그 때문에 트래픽이 느려지면 시스템 전체가 인터럽트 처리로 전환될 수 밖에 없다.

그러나 리눅스 커널이 이런 방식의 IRQ를 처리하는 방식을 개선함으로써 데이터 처리량이 최대 45% 향상되고 지연 시간은 낮게 유지된다는게 연구 결과다. 즉, 시스템은 가장 트래픽이 몰리는 시간에 지연 없이 더 많은 트래픽을 처리할 수 있다. 이런 수정 방식은 리눅스 커널 버전 6.13에 통합될 수 있다는 설명이다.

“IRQ 위한 정비만으로 CPU 캐시 효율화”

워털루 대학의 체리튼 컴퓨터공학과의 마틴 카스텐 교수는 해당 보도 자료에서 “(인터럽트 중단 코딩) 그 외엔 아무것도 추가한게 없다”고 했다. 단지 IRQ를 언제 수행할 것인지를 위한 재정비만 했을 뿐이며, 그 결과 데이터 센터의 CPU 캐시를 훨씬 더 잘 활용할 수 있게 되었다는 설명이다. “제조 공장에서 파이프라인을 재정비하는 것과 비슷한 수준”이라는게 카스텐 교수의 설명이다.

데이터 센터는 일부 기능이 AI에 의해 가동된다. 그 때문에 2030년까지 글로벌 전력 수요의 최대 4%를 차지할 것이란 보고도 있다. 특히 1조 7,600억 개의 매개변수를 가진 오픈AI의 GPT-4의 경우 이를 훈련하는 데는 평균적인 미국 가정 5,000가구의 연간 전력 사용량에 해당하는 양의 에너지가 소모되었다. 이 수치에는 AI가 새로운 데이터를 기반으로 출력을 생성하는 프로세스인 ‘추론’에 필요한 전기는 포함되지도 않았다.

(사진=셔터스톡)

더욱이 데이터 센터 운영자는 탄소 발자국을 줄일 책임이 있지만, 그게 의무사항은 아니어서 큰 효과도 없다. 또다른 연구단체인 ‘업타임 인스티튜트’ 보고서에 따르면 데이터 센터에서 재생 에너지 소비 및 물 사용량과 같은 주요 ‘지속 가능성’ 지표를 추적하는 소유기업이나 운영자들은 많지 않은 것으로 나타났다.

그렇다보니 기업으로선 데이터 센터의 에너지 낭비를 줄이려는 동기 또한 별로 없어 보인다. 실제로 각종 최근 연구에 따르면 기업의 절반 가까이가 AI 도입과 확장을 위해 이런 ‘지속 가능성’ 목표를 소홀히하고 있는 것으로 나타났다.

기술 거대 기업들이 특히 심하다. 예를 들어 지난해 7월에 구글은 연례 환경 보고서에서 “4년 동안 배출량이 48% 증가했다”고 스스로 밝혀 따가운 눈총을 받았다. 이는 주로 AI 개발을 지원하기 위한 데이터 센터 확장 때문이었다.

“불필요한 트래픽 처리, 스토리지 저장 줄여야”

또 다른 전문가들도 이런 점을 매우 우려하고 있다. 최근 파악된 북아일랜드 벨파스트 퀸스 대학교의 전기·전자연구소의 애오페 폴리 교수 논문은 “대부분의 기업들은 방대한 양의 데이터를 지속적으로 생성하고 축적한다”면서 “기업 시스템, 기계, 센서 및 수요 측 디지털화에 걸친 일상적인 활동이 포함된다”고 과다한 에너지 소모의 원흉으로 이를 지목했다.

해당 논문은 “모든 데이터는 중요성과 무관하게 중복적으로 제공되고 있다. 대부분은 구조화되지 않고 비활성적인 콘텐츠들인데, 그럼에도 불구하고 소위 ‘다크 데이터’라고 하며 저장되고 있다”고 지적했다. 그 바람에 저장해야 할 방대한 양의 디지털 데이터가 발생하고, 엄청난 전기 에너지가 소모된다는 얘기다. 그중 대부분은 나중에 액세스조차 되지 않는다.

그래서 데이터 센터와 서버의 전력 절감을 위한 에너지 기술이 시급하다는 지적이다. 이는 애초 솔루션 설계단계에서부터 고려되어야 한다는 주문이다. 다크 데이터 필터링이나, 스토리지의 불필요한 정보 제거 등이 필요하다. 그런 상황에서 이런 문제점을 수정, 제어하기 위한 코딩 조작에 의한 에너지 절감 기술은 특히 눈길을 끌고 있다.