빅테크들, 엔비디아 독주에 도전장
아마존 “성능↑ 전력↓” 칩 공개
구글 TPU도 ‘전성비’ 끌어올려
모델 구조 맞춰 전용칩 잇단 개발… 90% 장악 엔비디아 “아직 멀었다”
구글에 이어 아마존웹서비스(AWS)가 전력 효율성을 끌어올린 자체 인공지능(AI) 칩을 출시하며 그동안 엔비디아가 장악해 온 AI 칩 시장에 변화 조짐이 나타나고 있다. 초대형 모델 학습 수요가 급증하는 가운데, 비용·전력·공급망 부담이 누적되자 기업들이 연산 구조를 직접 설계하는 전략을 택했다는 평가가 나온다. 이른바 ‘전성비(전력 대비 성능)’를 끌어올린 빅테크들의 자체 AI 칩이 엔비디아의 독보적인 지위에 균열을 낼 수 있을지 관심이 쏠리고 있다.
● 자체 칩 개발 나선 구글, 아마존, 오픈AI
AWS는 2일(현지 시간) 미국 라스베이거스에서 열린 연례 행사 ‘AWS 리인벤트 2025’에서 맞춤형 AI 칩인 ‘트레이니엄3’를 공식 출시한다고 밝혔다. AWS는 트레이니엄3 칩이 최대 144개 탑재된 울트라 서버를 출시했으며 이날부터 이용할 수 있다고 설명했다.
AWS에 따르면 트레이니엄3는 이전 세대의 자사 칩보다 연산 성능을 4배 끌어올린 반면에 전력 사용량은 40% 적다. AWS는 트레이니엄3를 사용할 때 동급 그래픽처리장치(GPU)를 사용하는 시스템에 비해 AI 모델 훈련 및 운영에 들어가는 비용을 최대 50%까지 절감할 수 있다고 밝혔다. 맷 가먼 AWS 최고경영자(CEO)는 이날 키노트 연설을 통해 “트레이니엄3는 AI 훈련과 추론 분야에서 업계 최고의 비용 대비 효율성을 보인다”고 강조했다.
구글이 자체 개발한 텐서처리장치(TPU)도 마찬가지로 적은 전력 소모량과 운영 비용 감축을 강점으로 한다. TPU는 최근 공개돼 호평을 받은 구글의 AI 모델 ‘제미나이3’의 학습 및 구동을 주도한 AI 칩으로, 구글이 미국 반도체 팹리스(설계) 기업인 브로드컴과 함께 만들었다. AI 스타트업 앤스로픽은 최대 100만 개의 TPU를 사용해 AI 모델을 개발할 예정이며, 메타도 자체 데이터센터에 구글 TPU를 도입할 것으로 전해졌다. 오픈AI도 브로드컴과 함께 챗GPT 등 오픈AI의 AI 모델 훈련, 실행을 위한 자체 AI 칩을 공동 개발하기로 했다.
● 공급 부족 GPU 대체
이처럼 빅테크들이 잇달아 자체 AI 칩을 만드는 가장 큰 이유는 원활한 수급과 비용 절감 때문이다. 수많은 데이터를 동시에 처리할 수 있는 엔비디아의 GPU는 AI 생태계에서 필수품이지만 돈이 있어도 구하기 힘든 만성적인 ‘공급 부족’ 상태다.
전 세계 시장에서 AI 투자가 확대되면서 GPU를 시장에 먼저 내놓은 엔비디아는 이 시장의 최강자로 등극했다. GPU 기반 AI 칩 시장에서 엔비디아의 점유율은 90%에 달한다. 게다가 GPU 하나당 가격은 3만∼4만 달러(약 4400만∼5900만 원)로 비싸다. 여기에 전력비까지 고려하면 특정 연산에 최적화된 전용 칩을 도입해 효율을 높이는 것이 장기적으로 유리하다는 판단을 빅테크들이 내린 것으로 분석된다.
기업별로 서비스 특성이 다른 점도 자체 AI 칩 개발의 이유가 됐다. 가령 AWS는 클라우드, 구글은 제미나이 같은 대규모언어모델(LLM) 학습을 위한 AI 칩이 필요한 상황이라 여기에 맞는 AI 칩을 개발한 것이다. 범용으로 사용되는 GPU는 대부분의 연산을 처리할 수 있지만, 특정 기업의 모델 구조에 맞춰 설계된 전용 칩은 같은 양의 연산을 더 낮은 전력으로 처리할 수 있다.
다만 업계에선 AI 칩과 관련해 엔비디아의 독점적 지위가 바로 흔들리지는 않을 것이란 분석이 많다. 현재 전 세계 AI 연구개발(R&D) 환경은 엔비디아 GPU와 엔비디아의 소프트웨어 플랫폼인 쿠다(CUDA) 생태계를 중심으로 구축돼 있다. 이미 투자한 인프라 규모와 전환 비용을 고려하면 당장 다른 AI 칩으로 바꿀 가능성이 높지 않다는 것이다. 엔비디아는 최근 “구글이 AI 분야에서 큰 진전을 이뤘다”면서도 “(우리 제품이) 업계보다 한 세대 앞서 있다”고 자신감을 드러냈다.
댓글 0