엔비디아 ‘블랙웰’․ ‘루빈’ 개발에 AMD MI325X, 가속기 UA링크 개발 등
AI칩 경쟁 추이 따라 삼성․SK 등 메모리 업계 판도 변화 예상
[애플경제 전윤미 기자] 엔비디아와 이에 맞선 AMD․인텔 등 反엔비디아 진영의 반격이 날로 거세다. 특히 이들은 경쟁에서 이기기 위해 하루가 멀다 하고 다양한 AI칩 플랫폼을 개발하는 등 기술혁신 속도 역시 빨라지고 있다. 그 때문에 이들 AI칩 메이커들이 지속적으로 공개하는 플랫폼과 가속기가 새삼 관심의 대상이다. 날로 ‘첨단 무기’를 개발, 시장 패권 다툼을 벌이고 있는 셈이다. 또한 이들 글로벌 AI반도체 기업 간의 판도 변화는 삼성전자, SK하이닉스 등 메모리 업계와도 맞물리며, 역시 시장 판도의 가장 큰 요인이 되고 있다.
우선 엔비디아에 맞선 AMD·구글·마이크로소프트·인텔 등이 ‘무기’로 내세운 신기술이 주목을 끈다.AMD 등은 엔비디아의 NV링크에 맞설 ‘울트라 가속기 링크(Ultra Accelerator Link, UA링크) 프로모터 그룹’을 지난 5월 말 결성했다. 데이터센터에 탑재되는 AI 가속기끼리 연결을 원활하게 해 대규모 AI 시스템 속도를 높이고 지연을 줄이기 위한 개방형 표준을 개발하는 것이 목표다.
엔비디아의 NV링크는 AI 데이터센터에 탑재되는 그래픽처리장치와 중앙처리장치 등의 칩 간 데이터 전송을 원활하게 해주는 기술이다. 이는 엔비디아가 칩 시장의 지배력을 유지하는 데 큰 역할을 하고 있다. 이에 맞설 목적으로 개발 중인 ‘UA링크 프로모터 그룹’에는 구글, MS, 인텔, 그리고 AMD와 메타, 브로드컴, 휴렛 패커드(HP), 시스코 등이 망라되어 있다.
AMD․인텔 등 UA링크로 엔비디아 NV링크 맞대결
또한 인텔은 AI 가속기 ‘가우디(Gaudi) 3’의 가격 정책과 올해 하반기에 출시할 ‘루나레이크(Lunar Lake)’ 중앙처리장치 칩을 발표하며 엔비디아를 겨냥하고 있다. CEO 겔싱어는 “가우디 3는 동급 규모의 엔비디아 H100 GPU 클러스터에 비해, 학습 시간이 최대 40% 빠르며 엔비디아 제품의 최대 3분의 1 가격으로 비용 면에서도 우월하다”고 주장했다.
루나레이크는 또 신경망처리장치(NPU)가 대폭 개선돼 48TOPS(초당 1조회 연산)를 제공한다. 또한, 16기가바이트(GB) 또는 32GB LPDDR5X 램이 통합돼 패키징된 것이 특징이다. 이로써 데이터를 옮기는 데 드는 전력 소비가 40% 가량 감소된다.
인텔은 본래 자신이 설계한 제품을 자사 생산라인에서 만드는 종합반도체기업이다. 그러나 자사의 가우디 칩과 루나 레이크를 TSMC에 생산을 맡기는 방식으로 엔비디아에 반격하고 있다.
AMD 역시 차세대 AI 가속기 ‘AMD 인스팅트 MI325X’, 라이젠 AI 300시리즈 칩을 최근 공개했다. 특히 이달 초순 대만에서 열린 ‘컴퓨텍스 2024’에선 MS, HP, 레노버 등을 파트너로 삼을 것을 시사하기도 했다.
AMD의 MI325X는 기존 MI300 시리즈를 강화한 제품이다. HBM3에서 더욱 빠른 HBM3E로 메모리가 업그레이드돼, 메모리 용량도 약 2배 늘어났다. 이처럼 성능이 강화된 MI325X를 통해 엔비디아의 유명한 ‘B200’에 정면 도전한다는 계획이다.
또한 모바일 기기용 AI 가속기에 최적화된 새로운 ‘라이젠 AI 300시리즈’ 칩과, 5세대 AMD 에픽(EPYC) 프로세서 제품인 ‘튜린(Turin)’도 발표했다. 노트북용 라이젠 AI 300은 50 TOPs(초당 1조회 계산)의 처리 능력을 지닌 NPU가 적용돼 AI 처리에 필요한 빠른 계산 능력을 제공한다. 또한, 라데온 800M 그래픽 처리장치(GPU)를 내장해 이동 중에도 가정용 게임기(콘솔) 못지않은 속도와 그래픽 해상도로 게임을 처리한다.
또한 MS ‘윈도’에 AI를 결합, 인터넷 연결 없이도 AI를 사용할 수 있도록 만든 ‘코파일럿+ AI’ PC를 지원하기도 한다. 튜린은 최대 192개의 코어와 384개의 스레드를 가진 최신 ‘젠(Zen)5’ 아키텍처를 기반으로 구성되었으며 올해 하반기 출시될 예정이다.
이에 엔비디아도 차세대 ‘블랙웰(Blackwell)’ GPU 플랫폼을 발표한지 불과 3개월 만인 이달 들어 병렬 방식의 데이터 처리 성능을 더욱 높인 차세대 AI 그래픽처리장치 플랫폼 ‘루빈(Rubin)’을 공개했다.
특히 루빈의 GPU에 6세대 고대역폭메모리(HBM)인 ‘HBM4’를 채택할 예정이다. 이에 일각에서는 루빈이 HBM4를 사용하는 최초의 GPU가 될 것이라는 전망도 유력하다. 블랙웰 GPU는 올해 연말부터 상용화할 예정이며, 2025년에는 ‘블랙웰 울트라’ GPU, 2026년에는 루빈 GPU, 2027년에는 ‘루빈 울트라’ GPU를 선보일 방침이다. 이는 엔비디아가 매년 차세대 AI 전용 반도체 도입을 통해 결코 선두 자리를 내주지 않고, 시장 지배력을 더욱 강화하겠다는 전략으로 풀이되고 있다.
이 외에도 엔비디아는 AI용 고성능 이더넷 네트워킹 시장을 고려, AI용으로 구축된 최초의 이더넷 패브릭인 엔비디아 ‘스펙트럼-X’를 공개했다. 이는 기존 이더넷 패브릭보다 네트워크 성능을 1.6배 이상 향상하며 AI 워크로드의 처리, 분석, 실행을 가속해 AI 솔루션의 개발과 배포가 더욱 신속하게 이뤄지게 한다. 또한 각종 AI 구현에 필요한 소프트웨어를 마치 ‘꾸러미’처럼 엮어 배포와 도입의 난이도를 낮추는 NIM(NVIDIA inference microservice, 엔비디아 추론 서비스)도 공개했다. 이는 최적화된 컨테이너로 모델을 제공하는 추론 마이크로서비스라고 할 수 있다. 클라우드, 데이터센터, 워크스테이션에 배포할 수 있다.
국내외 메모리 업계도 AI칩 탑재용 HBM 수주 경쟁 치열
이처럼 AI반도체 개발 경쟁이 치열한 가운데 이들 각사의 움직임에 따라 삼성전자, SK하이닉스, 마이크론 등 메모리 업계의 희비도 엇갈릴 것으로 보인다.
이미 엔비디아가 차세대 HBM인 HBM4를 2025년 자사가 출시할 ‘블랙웰’ 등 AI 반도체 칩에 전격 탑재할 것이라고 최초 공개한 바 있다. 이에 이미 SK하이닉스와 미국 마이크론으로부터 HBM을 납품받고 있는 엔비디아가 차기 제품에 어떤 회사의 제품을 납품받을지가 큰 관심사로 떠오르고 있다.
특히, 엔비디아가 연말부터 ‘블랙웰’을 출시하고, 매년 업그레이드된 버전과 ‘루빈’을 출시할 계획이어서 메모리 업계도 더욱 신경을 곤두세우고 있다. 일단 가장 큰 고객사인 엔비디아의 신제품 출시가 빨라짐에 따라 엔비디아에 HBM을 납품하고 있는 SK하이닉스와, HBM 납품을 시도하고 있는 삼성전자 모두 수혜를 누릴 것으로 전망된다.
그러나 두 회사의 제품, 특히 둘 중 어느 회사의 ‘HBM4’가 낙점될 것인지에 따라 희미가 갈라질 운명이다. 최근엔 한발 뒤처졌던 삼성전자도 이를 개발하는데 성공했으나, 엔비디아의 최종 테스크 과정에서 이런 저런 말이 나온 것도 눈여겨볼 대목이다.
AMD도 엔비디아보단 못하지만 메모리 업계의 큰 고객사다. AMD는 금년 내로 HBM3E를 본격 적용할 것으로 알려졌다. 그럴 경우 지금까지 협력 네트워크를 이어온 삼성전자의 제품을 탑재할 것이란 예상이 유력하다.
인텔은 아직 어떤 HBM 공급망을 택할지를 구체적으로 공개한 바가 없다. 그러나 엔비디아를 따라잡기 위해 AI 반도체 칩 생산이 늘릴수록 HBM 수요도 확대될 것으로 관측된다. 그에 따라 인텔을 잡기 위한 SK하이닉스와 삼성전자, 마이크론 간 경쟁도 치열해질 수 밖에 없다. 그래서 하반기 내지 연말 이후엔 AI반도체 업계와 국내외 메모리 업계의 판도가 좀더 분명해질 것이란 예측이다.
