삼성전자, AI 반도체 강화할 ‘비밀병기’ 선보이다

2019/07/02
본문듣기 AUDIO Play
공유 레이어 열기/닫기
주소가 복사되었습니다.

삼성전자는 신경망처리장치(NPU, Neural Processing Unit) 기술을 육성해, 2030년 시스템반도체 분야에서 글로벌 1위에 오르겠다는 목표를 지난달 밝혔다. 이어 삼성전자 종합기술원이 최근 컴퓨터 비전 분야의 글로벌 최대 학회인 CVPR(Computer Vision and Pattern Recognition)에서 ‘시스템반도체 2030’ 목표를 뒷받침할 ‘비밀병기’를 공개해 눈길을 끌고 있다.

이번에 발표한 기술은 세계 최고 수준의 ‘온 디바이스 AI(On-Device AI) 경량화 알고리즘’이다. 온 디바이스 AI는 서버를 거치지 않고 기기 자체에서 AI 기능을 수행하는 것. 이번 발표는 기존 대비 4배 이상 ‘가볍고’, 8배 이상 ‘빠른’ AI 알고리즘에 대한 것으로, AI 반도체에서 전력 소모와 연산 기능을 획기적으로 향상시킬 ‘열쇠’로 평가받고 있다. 삼성전자 뉴스룸이 이번 기술 개발의 의미를 자세히 짚어봤다.

AI 반도체 연산속도 8배나 끌어올려

삼성전자 종합기술원은 반도체가 특정 상황을 인식할 때 정확도를 떨어뜨리지 않으면서, 기존 32비트로 표현되는 서버용 딥러닝[1] 데이터를 4비트 이하로 낮출 수 있는 기술을 개발했다. 딥러닝 데이터 크기를 8분의 1로 줄이면, 기기에서 AI 연산을 수행할 때 속도는 반대로 8배 이상 높일 수 있다. 데이터 크기가 줄어들어 소비전력 또한 획기적으로 낮추면서 빠르게 연산을 수행할 수 있는 것.

삼성의 경량화 AI 알고리즘 / 양자화 구간 학습 기술로 서버용 32비트 딥러닝 데이터(32bit)를 4비트로 낮춘 딥러닝 데이터(4bit)로 연산해도 높은 정확도를 얻을 수 있다는 실험

종합기술원이 이번에 개발한 알고리즘은 ‘양자화 구간 학습기술(QIL, Quantization Interval Learning)’을 바탕으로, 전체 데이터 중 의미 있는 데이터의 범위를 ‘학습’을 거쳐 결정한다. 의미 있는 범위의 데이터만 양자화[2]함으로써, 매우 적은 표현 비트(예: 4비트 이하)를 사용하더라도 성능 저하를 최소화시킬 수 있다. 종합기술원은 서버에서 32비트로 연산되는 딥러닝 알고리즘을 4비트 이하로 연산해도, 다른 기술 대비 가장 높은 정확도를 얻을 수 있다는 것을 실험으로 증명했다.

또 딥러닝 연산의 데이터 표현 비트를 4비트 이하로 낮추면 곱셈, 덧셈과 같은 산술 연산뿐만 아니라 앤드(AND), 오어(OR)와 같은 논리 연산으로 AI를 고도화할 수 있다. 이에 따라 이번 기술을 활용하면 반도체 트랜지스터[3] 개수를 기존 대비 불과 1/40~1/120만큼만 사용하면서도, 동일한 연산 결과를 얻을 수 있는 것으로 나타났다. 이처럼 하드웨어 면적과 전력 소모를 크게 줄임으로써 이미지 센서, 지문 센서 등 데이터가 얻어지는 곳에서 바로 연산을 수행하고, 그 결과를 필요한 곳으로 원활히 전송할 수 있게 된다.

“주변 모든 기기·센서장치가 ‘두뇌’ 갖게 될 것”

이번 기술은 AI 시대 핵심기술 중 하나인 온 디바이스 AI 연산을 강화하는 동시에, 삼성전자의 시스템반도체 역량을 끌어올리는데 기여할 전망이다. 보통 AI 기기가 복잡한 연산을 하기 위해 클라우드 서버를 거치는 것과 달리, 온 디바이스 AI는 수백~수천개의 연산을 기기에서 곧바로 수행토록 하는 기술이다.

클라우드 서버 기반의 AI: 스마트폰을 사이에 두고 AI와 요청, 분석을 주고 받고 사용자와는 명령과 수행을 주고 받아 AI와 사용자 사이를 연결한다. 온 디바이스 AI: 스마트폰에 들어엤는 AI를 통해 사용자와 직접 명령과 분석/수행을 주고 받는다. 온 디바이스 AI의 장점 개인정보 보호, 빠른 응답속도, 저전력/저비용

이러한 온 디바이스 AI 기술은 클라우드 서버를 구축하는 비용을 줄이는 동시에, 자체 연산으로 자율주행, 가상현실(VR) 등 상황에서 빠르고 안정적인 동작을 할 수 있게 해준다. 또 최근 모바일 기기가 지문이나 홍채, 얼굴과 같은 생체정보 보안의 인증수단으로 활발히 쓰이고 있는 가운데, 서버가 아닌 기기 안에 각종 개인정보를 안전하게 보관할 수 있다는 장점도 있다.

이러한 온 디바이스 AI 기술의 핵심은 전력을 많이 소모하지 않으면서도, 대용량 데이터를 고속으로 연산하는 것이다. 삼성전자는 지난해 자체 NPU를 탑재한 스마트폰용 엑시노스9(9820) 칩을 선보이며, 온 디바이스 AI와 AI 반도체 역량을 강화하고 있다. 이번에 종합기술원이 개발한 온 디바이스 AI 경량화 알고리즘을 엑시노스 시리즈 등 모바일 시스템 온 칩(SoC)뿐만 아니라 메모리, 센서에도 적용하는 등 경쟁력을 높일 계획이다.

삼성전자 종합기술원 최창규 상무는 “궁극적으로 주변의 모든 기기는 물론, 센서가 부착된 사물들이 ‘두뇌’를 갖게 되는 시대가 올 것”이라며 “저전력, 고속 연산의 숙제를 해결하는 차세대 온 디바이스 AI 기술이 이러한 미래를 열어줄 전망”이라고 밝혔다. 이어 “이번 온 디바이스 AI 경량화 알고리즘은 메모리반도체와 프로세서, 센서 등 차세대 반도체 시장을 크게 확대시키는 효과를 가져올 것”이라고 기대감을 내비쳤다.

세계 최고 수준의 ‘온 디바이스 AI 경량화 알고리즘' 개발에 참여한 (왼쪽부터) 삼성전자 종합기술원의 한재준 마스터, 손창용 전문연구원, 정상일 전문연구원, 최창규 상무

▲ 세계 최고 수준의 ‘온 디바이스 AI 경량화 알고리즘’ 개발에 참여한 (왼쪽부터) 삼성전자 종합기술원의 한재준 마스터, 손창용 전문연구원, 정상일 전문연구원, 최창규 상무


[1]컴퓨터가 마치 사람처럼 생각하고 배울 수 있도록 하는 기술. 다량의 데이터를 컴퓨터가 처리 할 수 있는 형태로 표현하고 이를 학습하는 모델을 구축하는 연구, 혹은 기법

[2]주어진 데이터를 특정 비트 수로 표현할 수 있는 유한 개의 단계(레벨)로 잘라, 각 단계 내에서는 동일한 값으로 간주하여 데이터의 비트 수를 줄이는 것

[3]반도체칩의 가장 기본요소로, 이진법으로 이뤄진 디지털 정보를 전기신호로 만드는 소자

기업뉴스 > 기술

제품뉴스 > 반도체

제품뉴스

삼성전자 뉴스룸의 직접 제작한 기사와 이미지는 누구나 자유롭게 사용하실 수 있습니다.
그러나 삼성전자 뉴스룸이 제공받은 일부 기사와 이미지는 사용에 제한이 있습니다.
<삼성전자 뉴스룸 콘텐츠 이용에 대한 안내 바로가기>

TOP