전체메뉴
삼성전자 “4배 가볍고 8배 빠르다”…AI 반도체 강화할 ‘비밀병기’ 선보여
더보기

삼성전자 “4배 가볍고 8배 빠르다”…AI 반도체 강화할 ‘비밀병기’ 선보여

뉴시스입력 2019-07-02 11:21수정 2019-07-02 15:23
뉴스듣기프린트
트랜드뉴스 보기
세계 최고 수준 '온 디바이스 AI(On-Device AI) 경량화 알고리즘' 공개
반도체 트랜지스터 1/40~1/120 사용하면서도 동일한 연산 결과 얻어
서버가 아닌 기기 안에 각종 개인정보 안전하게 보관할 수 있는 장점도
"주변 모든 기기는 물론, 센서가 부착된 사물들이 '두뇌' 갖는 시대 올 것"

삼성전자는 신경망처리장치(NPU, Neural Processing Unit) 기술을 육성해, 2030년 시스템반도체 분야에서 글로벌 1위에 오르겠다는 목표를 지난달 밝혔다. 이어 삼성전자 종합기술원이 최근 컴퓨터 비전 분야의 글로벌 최대 학회 CVPR(Computer Vision and Pattern Recognition)에서 ‘시스템반도체 2030’ 목표를 뒷받침할 ‘비밀병기’를 공개해 눈길을 끌고 있다.

2일 삼성전자에 따르면, 이번에 발표한 기술은 세계 최고 수준의 ‘온 디바이스 AI(On-Device AI) 경량화 알고리즘’이다. 온 디바이스 AI는 서버를 거치지 않고 기기 자체에서 AI 기능을 수행하는 것. 이번 발표는 기존 대비 4배 이상 ‘가볍고’, 8배 이상 ‘빠른’ AI 알고리즘에 대한 것으로, AI 반도체에서 전력 소모와 연산 기능을 획기적으로 향상시킬 ‘열쇠’로 평가받고 있다.

◇AI 반도체 연산속도 8배나 끌어올려

삼성전자 종합기술원은 반도체가 특정 상황을 인식할 때 정확도를 떨어뜨리지 않으면서, 기존 32비트로 표현되는 서버용 딥러닝 데이터를 4비트 이하로 낮출 수 있는 기술을 개발했다. 딥러닝 데이터 크기를 8분의 1로 줄이면, 기기에서 AI 연산을 수행할 때 속도는 반대로 8배 이상 높일 수 있다. 데이터 크기가 줄어들어 소비전력 또한 획기적으로 낮추면서 빠르게 연산을 수행할 수 있는 것.

주요기사

종합기술원이 이번에 개발한 알고리즘은 ‘양자화 구간 학습기술(QIL, Quantization Interval Learning)’을 바탕으로, 전체 데이터 중 의미 있는 데이터의 범위를 ‘학습’을 거쳐 결정한다. 의미 있는 범위의 데이터만 양자화함으로써, 매우 적은 표현 비트(예: 4비트 이하)를 사용하더라도 성능 저하를 최소화시킬 수 있다. 종합기술원은 서버에서 32비트로 연산되는 딥러닝 알고리즘을 4비트 이하로 연산해도, 다른 기술 대비 가장 높은 정확도를 얻을 수 있다는 것을 실험으로 증명했다.

또 딥러닝 연산의 데이터 표현 비트를 4비트 이하로 낮추면 곱셈, 덧셈과 같은 산술 연산뿐만 아니라 앤드(AND), 오어(OR)와 같은 논리 연산으로 AI를 고도화할 수 있다. 이에 따라 이번 기술을 활용하면 반도체 트랜지스터 개수를 기존 대비 불과 40분의1~120분의1만큼만 사용하면서도, 동일한 연산 결과를 얻을 수 있는 것으로 나타났다. 이처럼 하드웨어 면적과 전력 소모를 크게 줄임으로써 이미지 센서, 지문 센서 등 데이터가 얻어지는 곳에서 바로 연산을 수행하고, 그 결과를 필요한 곳으로 원활히 전송할 수 있게 된다.

◇“주변 모든 기기·센서장치가 ‘두뇌’ 갖게 될 것”

이번 기술은 AI 시대 핵심기술 중 하나인 온 디바이스 AI 연산을 강화하는 동시에, 삼성전자의 시스템반도체 역량을 끌어올리는데 기여할 전망이다. 보통 AI 기기가 복잡한 연산을 하기 위해 클라우드 서버를 거치는 것과 달리, 온 디바이스 AI는 수백~수천개의 연산을 기기에서 곧바로 수행토록 하는 기술이다.

이러한 온 디바이스 AI 기술은 클라우드 서버를 구축하는 비용을 줄이는 동시에, 자체 연산으로 자율주행, 가상현실(VR) 등 상황에서 빠르고 안정적인 동작을 할 수 있게 해준다. 또 최근 모바일 기기가 지문이나 홍채, 얼굴과 같은 생체정보 보안의 인증수단으로 활발히 쓰이고 있는 가운데, 서버가 아닌 기기 안에 각종 개인정보를 안전하게 보관할 수 있다는 장점도 있다.

이러한 온 디바이스 AI 기술의 핵심은 전력을 많이 소모하지 않으면서도, 대용량 데이터를 고속으로 연산하는 것이다. 삼성전자는 지난해 자체 NPU를 탑재한 스마트폰용 엑시노스9(9820) 칩을 선보이며, 온 디바이스 AI와 AI 반도체 역량을 강화하고 있다. 이번에 종합기술원이 개발한 온 디바이스 AI 경량화 알고리즘을 엑시노스 시리즈 등 모바일 시스템 온 칩(SoC)뿐만 아니라 메모리, 센서에도 적용하는 등 경쟁력을 높일 계획이다.

삼성전자 종합기술원 최창규 상무는 “궁극적으로 주변의 모든 기기는 물론, 센서가 부착된 사물들이 ‘두뇌’를 갖게 되는 시대가 올 것”이라며 “저전력, 고속 연산의 숙제를 해결하는 차세대 온 디바이스 AI 기술이 이러한 미래를 열어줄 전망”이라고 밝혔다. 이어 그는 “이번 온 디바이스 AI 경량화 알고리즘은 메모리반도체와 프로세서, 센서 등 차세대 반도체 시장을 크게 확대시키는 효과를 가져올 것”이라고 기대감을 내비쳤다.

【서울=뉴시스】

당신이 좋아할 만한 콘텐츠


기사 의견

   

주요뉴스

1/3이전다음