메모리 반도체 시장 공포 엄습 “HBM 6개가 할 일 1개가 처리 가능… 오픈소스 공개땐 연내 상용화” 전망 “상용화땐 오히려 메모리 사용 늘어… AI, 더 싸게 더 빠르게 퍼질것” 분석
구글이 인공지능(AI) 메모리 사용량을 최대 6분의 1로 줄이는 ‘터보퀀트’ 알고리즘을 공개해 글로벌 증시에 파장이 일었다. 메모리 반도체 몸값이 떨어질지, 오히려 AI 투자 폭발 촉매제가 될지 전망은 엇갈린다.》
광고 로드중
● “HBM 6개가 할 일 1개가 처리”
24일(현지 시간) 구글 사내 연구부서인 구글리서치가 자체 블로그에 터보퀀트를 공개하자 시장은 즉각 반응했다. 미 마이크론부터 한국 삼성전자, SK하이닉스 등 글로벌 메모리 반도체 기업 주가가 이틀 연속 하락한 것이다. 지난해 초 중국 ‘가성비’ AI 딥시크 등장과 판박이라는 평가가 나오면서 투자자들의 불안 심리를 자극한 탓이다.
터보퀀트는 대형언어모델(LLM) AI가 긴 대화를 나눌 때 이전 맥락을 잊지 않기 위해 데이터를 임시 저장하는 ‘KV(Key-Value) 캐시’의 부피를 획기적으로 줄이는 양자화 알고리즘이다. 데이터를 재빨리 단순한 덩어리로 쪼개서 메모리 사용량을 줄여준다. 구글은 KV 캐시 메모리 크기를 기존의 6분의 1 수준으로 압축했다고 밝혔다. 두꺼운 겨울 이불 부피를 줄이는 ‘진공 압축팩’과 같다.
이는 HBM 6개가 하던 일을 터보퀀트를 통해 1개로도 소화할 수 있다는 의미로 해석되면서 시장 불안을 키웠다. 반도체 업계 관계자는 “그간 1차선으로 꽉 막혀 있던 데이터가 4차선 도로를 뚫고 HBM에서 그래픽처리장치(GPU)로 시원하게 이동하는 셈”이라고 비유했다. 실제로 구글은 터보퀀트 기술 적용 시 엔비디아의 AI 가속기 ‘H100’ 기준 연산 성능이 최대 8배 향상됐다고 강조했다.
광고 로드중
● “AI 대중화 촉발… 메모리 붐 앞당길 것”
터보퀀트가 빠르게 상용화된다 하더라도 오히려 ‘메모리 붐’을 부추길 수 있다는 주장에도 힘이 실린다. 블룸버그통신은 모건스탠리, JP모건 체이스 등을 인용해 터보퀀트의 개발이 메모리 반도체 부문에서 ‘제번스의 역설’을 발생시킬 가능성을 보도했다. 제번스의 역설은 기술 발전으로 어떤 자원의 사용 효율이 높아졌을 때 오히려 그 자원의 수요가 늘고 총사용량도 늘어나는 현상이다. 즉 연산 효율이 개선되면 AI 서비스 활용이 더 빠르게 확산되고 모델 규모도 커지면서, 결과적으로 메모리 사용량이 늘어날 수 있다는 의미다. 지난해 딥시크 쇼크에도 제기됐던 이론이다.
한진호 한국전자통신연구원(ETRI) 실장은 “메모리 수요 감소보다는 고성능 컴퓨팅 기반의 대규모 연산량이 늘어나는 방향으로 진화할 가능성이 높다”고 전망했다. 구글의 터보퀀트 연구에 참여한 한인수 KAIST 전기 및 전자공학부 교수는 “AI가 고용량 중심에서 고효율 중심으로 전환되면 AI는 더 저렴해지고 빠르게 확산하는 동시에 반도체 수요 역시 질적으로 고도화될 전망”이라고 밝혔다.
광고 로드중
이동훈 기자 dhlee@donga.com
이민아 기자 omg@donga.com
최지원 기자 jwchoi@donga.com