(2-①) 칩 동맹 ‘UA 링크’ 1년…‘칩 르네상스’?
인텔, 메타, MS, 구글 등 자체 ‘맞춤형 칩’ 개발 ‘성과’ 메타 AI칩 테이프 아웃, 인텔 CES 25에 ‘코어 울트라 200’ 등 출시 MS도 애저 서버용 데이터보안·스토리지 ‘애저 부스트 DPU’ 개발 “고가의 엔비디아 칩 대체 목표”…“아직은 두고봐야” 시각 많아
[애플경제 전윤미 기자] 12일(현지시각) 메타가 자체 개발한 AI 칩을 일부 제한된 범위로 테스트(테이프 아웃, Tape Out)하기 시작했다. 비용절감을 위해 TSMC의 기술을 기반으로 시도한 개발과 테스트에 일단 성공한 것이다.
앞서 지난해 3월 인텔, 구글, 메타, MS 등은 고가에다 품귀사태를 빚기 일쑤인 엔비디아 칩을 대체한다는 취지의 ‘칩 동맹’이라고 할 ‘UA Link’를 결성한 바 있다. 그 후 1년이 지나면서 시행착오와 개발 실패과 목표 시한 연기 등에서도 차츰 그 성과가 드러나고 있다.
메타, TSMC 의뢰, 우여곡절 끝 ‘전용 가속기’ 개발
이번 메타의 자체 AI 칩 배포는 그 대표적인 사례다. 메타는 천문학적인 AI 인프라 비용을 절감하기 위해 작년부터 자체 AI 칩을 개발하기 시작했다. 이번 프로젝트가 완성되면 AI학습 등에서 엔비디아의 값비싼 GPU에 대한 의존도를 줄일 수 있을 것이란 기대다.
그간 메타는 개발 작업을 도중에 중단하는 등 힘든 과정을 겪었다. 그러나 결국 테스트 단계에 이를 만큼 성과를 거두면서 본격 실용화에 대한 기대가 크다. 로이터는 이에 대해 “메타의 새로운 AI 칩은 ‘전용 가속기’”라고 보도했다. 즉, 유일한 목적은 AI 학습 등 관련 작업을 처리하는 것이란 얘기다.
이는 현재 엔비디아에서 ‘터무니없이’ 비싼 GPU를 구입하느라 감당하는 비용을 절감하는게 첫 번째 목표다. 또한 AI 칩이 특정 작업을 처리하도록 설계, 전력 효율성이 더 높아짐으로써 인프라의 전력 소비를 상당히 줄일 수 있다.
메타를 인용한 로이터, 더블시앱테크, 테크크런치 등에 따르면 이는 TSMC가 생산하되, 어떤 제조 공정을 활용할 것인지는 알려지지 않았다. 다만 테스트를 완료하는데만 수백만 달러 비용과 최대 6개월이 소요될 수 있다. 그 결과 애초 기대했던 요구 사항에 미치지 못할 수도 있으므로, 그 때마다 다시 문제를 진단하고 테이프 아웃 프로세스를 반복해야 한다. 그럴수록 개발 비용도 더 들어간다.
앞서 메타는 자체 맞춤형 AI 칩 개발과정에서 기술적 한계로 이를 중단하기로 결정한 적도 있다. 그런 우여곡절 끝에 그런 장애물을 극복한 것으로 보인다. 회사측은 2026년까지 이를 적용한 시스템을 훈련한 다음, AI 챗봇 등 생성 AI 제품으로 상용화할 계획이다. 현재 메타는 엔비디아의 가장 큰 고객 중 한 곳이다. 만약 메타의 ‘AI 칩 독립’이 이뤄질 경우 엔비디아로서도 적잖은 타격을 입을 수 밖에 없다.
그러나 업계에선 과연 메타가 무난히 테이프 아웃을 거쳐 독자적인 GPU를 확보할 수 있을지에 대해선 여전히 두고봐야 한다는 시각이 지배적이다.
인텔, 회사 존립 위협 속에서도 ‘칩’ 개발 박차
역시 ‘UA 링크’의 일원인 인텔은 지난 1월 ‘CES 2025’에서 자체 개발한 최신 칩 라인업을 공개, 눈길을 끌었다. 이 회사는 지난해 창립 이후 50여 년의 세월 동안 가장 힘든 시간을 보냈다. 전설적인 펫 겔싱어가 회사를 떠나고, 다른 경쟁자들에게 한참 뒤처지면서 인수합병이나 구조조정을 포함한 회사의 존립을 걱정해야 하는 처지가 되었다.
그런 회사가 예상을 뒤집고, 지난 CES 2025에서 새로운 칩을 발표하며 업계를 한때 놀라게 했다. 물론 어려운 회사 사정에도 불구, 인텔은 꾸준히 칩 개발을 이어왔다. 그러나 앞서 인텔의 13세대와 14세대 ‘Core CPU’는 과열 문제로 어려움을 겪었고, 이를 해결하는 데 거의 1년이 걸렸다. 그런 우여곡절 끝에 내놓은 것이 ‘코어 울트라 200’(Core Ultra 200V 등) 시리즈와 코어 200(Core 200) 시리즈 등이다.
이 회사의 ‘Core’ 포트폴리오에 있는 최신 프로세서는 사양이 매우 다양하다. 간단한 작업을 위한 ‘Core 3’부터 새로운 역작이라고 할 ‘Core Ultra Series 2’ 라인업에 속하는 강력한 ‘Core Ultra 200H’에 이르기까지 광범위하다.
그 중 대표적인 몇 가지만 보면 ‘Core Ultra 200V 시리즈 프로세서’(이전 코드명 ‘Lunar Lake’)로는 ‘Core Ultra 200H 시리즈 프로세서’(이전 코드명 Arrow Lake H), ‘Core Ultra 200HX 시리즈 프로세서’(이전 코드명 Arrow Lake HX), ‘Core Ultra 200S 시리즈 프로세서’(이전 코드명 Arrow Lake S), ‘Core Ultra 200U 시리즈 프로세서’(이전 코드명 Arrow Lake U), ‘Core 200S 시리즈 프로세서’(이전 코드명 Bartlett Lake S), ‘Core 200H 시리즈 프로세서’(이전 코드명 Raptor Lake H Refresh) 등이 대표적이다.
또한 ‘Core 100U 시리즈 프로세서’(이전 코드명 Raptor Lake U Refresh), 그리고 ‘Core 3 프로세서’, ‘Intel 프로세서’(이전 코드명 Twin Lake) 등도 있다.
이들 새로 나온 ‘Core Ultra 프로세서’는 모두 저전력(35와트), 표준 전력(65와트), 고전력(125와트)을 망라한다. 코어가 모두 14~24개 가량이다. 일부 프로세서는 인텔의 최신 와이파이 기술인 인텔 와이파이 7 및 패키지 메모리 등 추가 기능이 있다.
최근의 다른 세대 인텔 칩과 마찬가지로, 새로운 라인업은 칩 패키지를 구성하는 다양한 유형의 코어를 가지고 있다. 그 중엔 성능에 초점을 맞춘 ‘P-코어’, 효율성을 위해 설계된 ‘E-코어’가 있다. 또 세 번째 코어 범주인 ‘저전력 E-코어’가 있는데, 이는 표준 ‘E-코어’보다 전력 효율성이 훨씬 더 높다.
인텔은 “최신 세대 ‘P-코어’는 AI 기반의 전력 관리와 함께 각종 최적화 기능을 갖추고 있으며, 새로운 ‘E-코어’는 모든 제품 가운데 가장 효율적”이라고 주장한다. 또 “차세대 ‘저전력 E-코어’는 고도의 전력 효율성을 기하고, 열 감소와 음향 조절 등의 역할을 한다”면서 “이는 전력이 덜 필요한 작업에 최적화된 강력하고 얇고 가벼운 시스템을 만들 수 있도록 한다”고 강조했다.
MS “DPU 애저 서버, 기존 서버의 4배 이상 성능”
앞서 지난해 11월 마이크로소프트(MS) 역시 데이터 처리와 보안을 위한 새로운 맞춤형 칩을 출시했다. 자체적으로 개발, 출시한 ‘애저 부스트 DPU’(Azure Boost DPU)는 애저 클라우드에서 워크로드를 구동하고 보안을 강화하기 위한 새로운 맞춤형 칩이다. 이는 특히 “데이터 처리, 네트워킹, 스토리지 관련 작업을 관리할 수 있는 새로운 하드웨어 가속기가 있다”는 설명이다.
‘Azure Boost DPU’는 MS의 첫 번째 데이터 처리 장치다. MS는 “높은 효율성과 낮은 전력을 갖춘 데이터 중심 워크로드를 위해 설계되었다”며 장점을 부각시켰다. MS는 향후 ‘애저’ 프로세스에서 DPU가 장착된 애저 서버가 기존 서버보다 4배 이상의 성능으로 스토리지 워크로드를 실행할 것으로 예상한다. 반면에 전력 소모량은 3분의 1에 불과할 것으로 내다봤다.
MS는 테크크런치와 공유한 블로그 게시물에서도 “애저에서 확장과 구성이 가능한 워크로드를 위해 설계되었고, 클라우드 인프라에 대한 스토리지, 네트워킹, 가속 등에서 효율성을 높이고 있다”고 밝혔다. 물론 이런 벤치마크를 무조건 신뢰하긴 어렵다는 업계의 반응이다. “어떤 워크로드에서 전력 효율이 더 높고, 어떤 기존 하드웨어에 비해 더 빠른지가 분명히 밝혀진 바 없다”는 지적도 있어 과연 기대만큼의 성능이 발현될지 두고볼 일이다.
‘Azure Boost DPU’는 MS가 자체 칩 개발을 위해 2023년 12월에 인수한 DPU 제조업체인 펀저블(Fungible)이 중심이 되어 개발했을 가능성이 크다. 당시 MS는 애플과 주니퍼 네느웤스 출신 엔지니어들이 설립한 이 회사에 약 1억 9,000만 달러를 투자한 것으로 알려졌다. ‘펀저블’ 인력은 인수 후 MS의 인프라 엔지니어링 부서에 합류했다.
다시 요약하면, DPU는 보안이나 데이터 트래픽에 대한 네트워크 라우팅을 포함한 데이터 처리 작업을 처리하도록 설계된 전용 하드웨어다. AI 워크로드 등과 관련된 컴퓨팅 작업용 CPU 등 칩의 부하를 줄이도록 설계되었다.
테크크런치는 “DPU의 효율성 향상 기능은 AI기반의 클라우드 인프라 확장을 위해 대규모의 전력 소모가 많은 데이터 센터를 증축하려는 빅테크 등에게 매력적일 것”이라고 했다. <(2-②)에 계속>