AI 확대로 전력 소모 10배 증가… ‘전기 먹는 하마’ 걱정 커져
인공지능(AI) 시대 핵심 인프라인 데이터센터는 ‘전기 먹는 하마’로도 불린다. 기존의 정보기술(IT) 서비스와 달리 AI가 활용되면 데이터센터 전력 소모량이 많게는 10배로도 늘어나 전력망 확충 및 증설이 각 국가, 기업들의 시급한 과제로 떠오르고 있다. 특히 AI발 전력난을 풀 해결사로 ‘미니 원전’이라 불리는 소형모듈원자로(SMR)가 큰 주목을 받고 있다. 최근 글로벌 컨설팅 업체 맥킨지가 낸 보고서에 따르면 미국 데이터센터의 전기 수요는 올해 25GW(기가와트)에서 2030년 80GW로 3배 이상으로 뛸 전망이다. 이는 현재 미국 전체 전력 수요의 3∼4%에서 11∼12%로 늘어나는 수준이다. 유럽도 같은 기간 10GW에서 35GW로 증가할 것으로 예상됐다. AI는 이전보다 훨씬 복잡한 연산이 요구되기 때문에 막대한 전력을 소모한다. 구글에서 한 번 검색 시 평균 0.3Wh(와트시)의 전력이 사용된다면 챗GPT 등 생성형 AI를 쓰면 10배인 2.9Wh가 필요하다고 한다. 문
자세히 보기
동아일보