메타, ‘MTIA’ 최신 버전, ‘빅테크 탈(脫)엔비디아 가속화’

지난해 출시한 자체 AI 칩 개량…엔비디아 의존도 감소 목표 “콘텐츠 순위 매김과 추천 시스템 위한 컴퓨터 성능 강화”

2024-04-11     이윤순 기자
메타의 CEO 마크 저커버가 연례 개발자 회의에서 '비전 프로'를 공개하고 있다. (사진=익스트림 테크)

[애플경제 이윤순 기자] ‘탈(脫)엔비디아’ 물결이 더욱 거세지고 있다. 인텔, 구글, MS 등에 이어 이번엔 메타가 지난해 출시했던 자체 AI칩 MTIA(Meta Training and Inference Accelerator)의 최신 버전을 10일 공개했다. 이는 “외부 회사(엔비디아 등 반도체 기업)의 반도체에 대한 의존도를 줄이는 것을 목표로 인공 지능 서비스를 강화하기 위한 것”이란 설명이다.

MTIA는 페이스북과 인스타그램에서 콘텐츠의 순위를 매기고 추천하는 역할을 주로 해온 칩이다. 이를 개량해서 새롭게 내놓은 최신 버전의 MTIA는 특히 메타가 뒤늦게나마 AI 서비스에 회사의 역량을 집중하면서, 컴퓨팅 성능을 크게 높이기 위한 것이 첫 번째 목적이다.

작년에 메타는 이미 오픈AI의 챗GPT와 경쟁하기 위해 자체 AI 모델 버전을 출시한 바 있다. 또한 맞춤형 스티커와 연예인 얼굴의 챗봇 캐릭터를 포함하여 소셜 앱에 새로운 생성 AI 기능을 추가했다.

데이터센터 등 AI인프라에 350억 달러 투자

지난해 10월 메타는 특히 “데이터센터와 하드웨어를 포함해 AI를 지원하는 인프라에 350억 달러를 투자할 것”이라고 밝혀 화제가 되었다. CEO 마크 저커버그는 당시 투자자들에게 “AI는 2024년 우리의 가장 큰 투자 분야가 될 것”이라고 공언했다.

그러나 그런 과정에서 투자액의 상당 부분은 여전히 AI 모델 구축에 필수적인 ‘H100’ GPU를 제작하는 엔비디아로 흘러갈 가능성이 높다고 판단했다. 실제로 올해 초 저커버그는 “메타가 개당 수만 달러에 달하는 칩 35만개를 구매할 것”이라고 밝혔다.

이에 메타를 포함한 빅테크들 사이에선 자체적으로 칩을 개발하려는 움직임이 확산되고 있다. 특히 메타는 경쟁사이지만, 아마존의 AWS, MS, 구글 등과 손을 잡고, 많은 비용을 지불해야 하는 엔비디아에 대한 의존을 벗어나려고 노력하고 있다. 물론 이는 하루 아침에 이뤄질 일은 아니다. 다만 업계는 엔비디아만으론 제대로 된 물량 공급이 이뤄지지 않고, 비싼 가격만 지불하는 바람에 불만이 날로 커질 수 밖에 없었다.

메타, AWS․MS․구글 등 경쟁사와 손잡아

그래서 이들 빅테크들은 최근 약속이나 한 듯이, 앞다퉈 자체적으로 AI칩을 개발하고 있다.

인텔도 9일 엔비디아를 겨냥한 ‘비전 이벤트’에서 이같은 새로운 AI칩의 새 버전을 공개했다. 인텔은 “새로운 가우디3는 엔비디아의 이전 세대인 H100 프로세서보다 50% 더 빠르게 대규모 언어 모델을 훈련할 수 있다”면서 “테스트한 일부 모델의 경우 H100 칩보다 더 빠른 ‘추론’을 통해 생성AI의 응답을 컴퓨팅할 수 있다.”고 강조했다.

구글 클라우드(GCP)의 ‘엑시온(Axion)’도 엔비디아로선 위협적이다. 구글은 Arm 기반 중앙처리장치(CPU)인 ‘Axion’을 개발, 구글 클라우드를 통해 판매할 계획이다. 구글은 “새로운 AI칩은 8,960개의 칩 포드에서 실행되도록 제작되었으며 이전 세대 TPU보다 기본 성능이 2배”라며 “칩 포드가 최적의 성능으로 실행되도록 하기 위해 액체 냉각법을 적용했다”고 밝혔다. 특히 “‘엑시온’을 사용해 구글 클라우드의 유튜브 광고와 같은 서비스를 강화할 계획으로 구글 클라우드 고객 모두에게 제공될 것”이라고 적극적인 시장 공략 의지를 내비쳤다.

그런 가운데 메타 역시 작년에 처음으로 출시했던 MTIA의 최신 버전을 다시 공개한 것이다. 이는 최근의 ‘탈엔비디아’를 위한 빅테크의 행보를 더욱 가속화시키는 계기로 주목받고 있다.