삼성 8단 HBM3E, 엔비디아 최종 테스트 통과
종전 HBM3보다 속도․대역폭 크게 향상…4분기 납품 예상
[애플경제 이보영 기자] 삼성의 8단 레이어 HBM3E가 마침내 엔비디아의 최종 품질 검사를 통과, 납품할 수 있게 되었다. 7일 로이터, 블룸버그 등 외신을 종합하면 삼성전자의 8단 HBM3E 칩이 AI 가속기에서 사용하기 위한 엔비디아의 테스트를 통과했다
애초 삼성은 지난 번 ‘열과 높은 전력 소모’로 인해 HBM3E가 엔비이다의 테스트에 실패했다는 보도가 나오면서 이를 적극 반박, 부인한 바 있다. 그 후 5세대 HBM 칩인 HBM3E가 마침내 자사 데이터 센터 제품에서 사용하기 위한 엔비디아의 테스트를 통과했다고 공식 발표한 것이다.
이로써 엔비디아도 AI칩의 성능과 효율성을 높이기 위해 삼성의 HBM3E 칩을 활용하기 시작할 것으로 보인다.
삼성은 얼마 전부터 HBM3E 승인을 받기 위해 노력해 왔으며, 몇 주 전에 테스트를 통과했다는 소문이 돌기도 했다. 그러나 이제 공식적인 사실로 확정되었고, 이로 인해 GPU와 AI 가속기에 사용되는 엔비디아 칩에 대한 고대역폭 메모리 칩을 공급할 수 있게 되었다.
두 회사 간의 거래는 아직 공식적으로 체결되지 않았지만 삼성은 2024년 4분기에 엔비디아에 HBM3E 칩을 공급하기 시작할 것으로 예상된다. HBM3E는 엔비디아의 호퍼(Hopper) GPU에 사용되는 HBM3에 비해, 메모리 대역폭 부문에서 큰 성능 변화를 가져올 것으로 예상된다.
HBM3는 1024비트 데이터 경로와 6.4Gb/s의 메모리 속도를 제공하는 반면, HBM3E는 이 속도를 9.6Gb/s로 늘릴 수 있다. 그렇게 되면 메모리 대역폭이 819GB/s에 불과했던 것에 비해 1200GB/s 이상으로 증가한다.
엔비디아는 2022년 6월부터 HBM3 메모리를 사용해 왔는데, 현재는 HBM3 칩의 주요 공급업체가 SK 하이닉스다. 앞으로 AI, 머신 러닝, 데이터 분석에는 전력 소비를 최소화하면서도 더 큰 메모리 대역폭이 필요하다. 그 때문에 HBM3E는 현재 이러한 까다로운 워크로드를 위해 기존 HBM3을 대체할 수 있는 유일한 솔루션으로 주목받고 있다.
삼성은 AI 프로세서에 필요한 전력 효율성과 더 나은 열을 제공할 수 있도록 HBM3E 설계를 다시 반복하곤 했다. 그러나 “그 때문에 문제가 된 적은 없다”는 입장이었다.
로이터통신은 그러나 “8단 HBM3E가 이제 NVIDIA의 테스트를 통과했지만 SK 하이닉스는 이미 12단 HBM3E 칩을 출하하기 위한 과정에 있다”면서 “SK 하이닉스에 따르면 이미 2024년 3분기에 완전히 납품 물량이 예약되어있다고 주장한다”고 전했다. 또 SK는 이미 예상보다 훨씬 짧은 기간인 지난 5월에 80%의 목표 수율을 달성했다는 얘기다.
SemiAnalysis의 설립자인 딜런 페이텔은 “SK 하이닉스는 이미 엔비디아의 H200 및 차세대 ‘블렉웰(Blackwell)’ B100 GPU에 HBM3E 칩을 배치했다”고 로이터에 밝혔다.
현재 삼성과 SK하이닉스에 이어 마이크론도 엔비디아에 대한 HBM3E의 세 번째 주요 공급업체다. 마이크론은 SK보다 훨씬 일찍 양산 단계에 들어갔고, 지난 2월에 생산이 시작되었다. SK에 따르면 HBM3E는 2024년 4분기까지 전체 HBM 칩 판매에서 최대 60%를 차지할 것으로 예상된다. HBM 칩에 대한 수요는 2027년까지 연간 82% 증가할 것으로 추산된다.