차세대 메모리, GPU와의 초고속 통신, 독립적인 데이터 플레인 등
전문가들 “GPU 작업 효율성도 개선, AI워크로드 ‘병목’ 해소” 주문

 스토리지 이미지. (출처=Synology)

[애플경제 전윤미 기자] 초대형 생성AI 기술이 발달하면서, 이에 부응할 만한 스토리지 아키텍처가 AI 시장의 새로운 승부처로 부상하고 있다. 스토리지 아키텍처 혁신을 게을리하다간, 대용량 AI 연산과 처리 등의 역량을 저해할 수 있다는 지적이다.

국내 스토리지 전문업체인 벨아이엔에스사의 한 관계자는 “나아가선 퀀텀 CPU의 추상화 개념에 대비해야 하고, 전자 칩이나 인쇄 회로 기판의 구성 요소, 각종 미래형 프로세서와 PCB의 컴퓨터 하드웨어 부품 등에 이르기까지 혁신을 기할 필요가 있다”고 조언했다.

퀀텀CPU 추상화, 기판, 칩, 부품 등도 혁신 필요

이들 업계 전문가들에 의하면 지속적인 AI 붐으로 인해 CPU에서 GPU로 연산과 프로세스가 크게 바뀌고 있다. 스토리지 아키텍처 역시 AI 워크로드의 발전과 변화에 부응해야 한다는 주문이다.

엔비디아는 이런 필요성을 각인시키는 대표적인 사례다. 이 회사는 ‘엔비디아 붐’을 연상시킬 만큼 차별화된 AI칩으로 세계 최고의 시장가치를 다투는 업체로 성장했다. 너도나도 AI 모델을 훈련시키기 위해 대용량의 연산을 처리하기 위한 GPU 데이터 센터로 전환한 것이 이같은 ‘엔비디아 붐’을 탄생시킨 것이다. 그래서 “이같은 GPU 기반 시스템에 적합한 스토리지 시스템의 혁신이 필요하다”는게 업계 공통의 시각이다.

내로라하는 해외 전문가들의 생각도 같다. 화웨이의 데이터 스토리지 제품군 사장인 피터 저우는 “스토리지 산업이 지난 10년 동안 비교적 정체되어 있었지만, 날이 갈수록 머신 러닝, 생성 AI, 빅데이터의 발전이 계속 변화를 견인하고 공급업체가 혁신하도록 강요할 것”이라고 ‘더 버지’에 밝혔다.

그럼에도 EMC나 넷앱(NetApp)과 같은 기존 데이터 스토리지 업계 등에선 그다지 큰 변화가 일어나지 않았다. 이른바 ‘천지개벽’의 변화가 시시각각으로 일었던 AI기술 혁신에 비해선 거의 정체상태였다는 지적이다. 이들 업체는 그저 “지난 10년 동안 해오던 일을 그대로 해왔다”는 것이다. 제품도 약 10년 동안 실질적으로 전혀 바뀌지 않았다. 그러나 빅데이터와 AI가 날로 발달하면서 최근엔 비로소 변화의 기류에 휩싸이고 있다.

‘데이터 이동’ , 스토리지 산업의 가장 큰 과제

앞서 화웨이의 저우 사장은 “우선 데이터의 가치가 바뀌었다.”면서 “데이터는 단순히 기록에 사용되는 것이 아니라, 기계가 ‘세상’을 연구하는 데 사용할 수 있는 ‘자산’이 되고 있다”면서 “나아가선 지식의 원천이며 ‘사고’를 가능하게 할 수 있다. 그러므로 이제 데이터 스토리지 산업이 바뀌어야 한다.”고 강조했다. IT 산업 역시 스토리지 솔루션이 수집하는 방대한 데이터에 적응하며, 이에 필요한 속도로 사용할 수 있도록 (스토리지 혁신을) 해야 한다는 주장도 곁들였다.

이를 위해 ‘데이터 이동성’은 스토리지 산업의 가장 큰 과제로 지적되고 있다. 스토리지는 일단 GPU 기반 연산 시스템의 효율성을 좌우한다. 이를 전제로 AI 개발업체들은 에너지 소비나 성능과 같은 요소들을 고려해야 한다는 주문이다.

 스토리지 이미지.(출처=게티이미지)
 스토리지 이미지.(출처=게티이미지)

현장 전문가들에 의하면 현재의 기술 수준에선 GPU의 작업 효율성은 약 50% 미만이다. 나머지 절반의 시간은 GPU가 그저 대기상태에서 에너지를 낭비하는 것을 의미한다. 이를 개선하기 위해선 데이터 스토리지 시스템을 보다 효율적으로 만드는 것이 중요하다. “그러면 이러한 GPU의 효율성을 약 30% 향상시킬 수 있는데, 이는 그 만큼 많은 에너지를 절감할 수 있다”는 전문가들의 조언이다.

곧 스토리지 혁신이 중요하다는 얘기다. IT미디어인 ‘헬로티’는 “GPU 클러스터에 필요한 수준의 효율성을 달성하려면 스토리지 시스템의 기본 아키텍처가 진화해야 한다”고 혁신의 당위성을 강조하고 있다. 그러나 현재의 기본적인 데이터 스토리지 아키텍처는 여전히 전통적인 CPU 중심 아키텍처를 조준하고 있다는 지적이다.

레거시 스토리지는 CPU를 기본으로 하면서, 메모리에 직접 연결된 메모리를 장착하고 있다. 그렇다보니 메모리가 너무 작아서 데이터를 장기적으로 메모리에 저장할 수 없다. 또한 I/O 인터페이스를 사용해 이 모든 디스크를 연결하고, CPU가 데이터를 처리할 때마다 이를 메모리로 가져와야 하고, 그런 다음 다시 프로세서로 이동시키는 수고를 감수해야 한다.

그런 과정에서 스토리지에서 소비되는 에너지의 약 60%가 ‘데이터 이동’에 사용된다. “이를 절감하는 것이 향후 몇 년 동안 스토리지 공급업체가 극복해야 할 과제”라는 얘기다. 그래서 데이터 스토리지 아키텍처의 혁신이 AI 시대의 새로운 승부처가 될 것이란 예측이다.

고성능 칩셋 접근성이 승부의 ‘관건’

이처럼 효율성을 높이기 위해선 물론 하드웨어를 변경해야 한다. 그러나 주요 데이터 스토리지 업체들은 자체 칩셋을 설계하거나 생산하지 않는다는게 한계다. 또한 고가의 AI칩을 구매하는 것도 큰 부담이다. 결굴 범용 CPU 및 기타 구성 요소를 사용할 수 밖에 없어 목표한 만큼의 효율성을 높이지 못한다는 지적이다. 이런 점에서도 빅테크들이 유리할 수 밖에 없는 현실이다. 글로벌 빅테크 중에선 자사의 스토리지 효율성을 높이기 위해 자체 칩셋을 설계, 생산하기도 한다. 컴퓨팅 시스템의 아키텍처를 혁신할 수 있는 역량도 클 수 밖에 없다.

실제로 최근 일부 빅테크들은 모든 구성 요소를 범용 데이터 버스에 연결하고, 차세대 메모리(CXL)를 활용, GPU와 초고속으로 통신할 수 있게 한다. 또한 스토리지 시스템의 데이터 플레인을 제어 플레인으로부터 분리해 확장성, 성능, 유연성, 관리 등을 용이하게 한다. 이를 통해 대량의 데이터, 특히 복잡한 AI 워크로드를 처리할 때 ‘병목’ 현상을 피할 수 있게 한다.

그 중엔 역시 엔비디아의 사례가 모범적 모델로 꼽히기도 한다. 서버 업체인 S사의 한 관계자는 “스토리지 아키텍처 혁신을 위해 엔비디아의 사례를 참고할 필요도 있다”면서 “엔비디아 GPU 카드를 살펴보면 연산 시스템과 아키텍처가 변화하고 있음을 알 수 있다. 데이터 스토리지도 이를 참고하는 것도 한 방법”이라고 말했다.

저작권자 © 애플경제 무단전재 및 재배포 금지