본문 바로가기

IT & Insight/IT News

MIT, 3배 빠르고 소비전력 낮춘 신경망칩 개발

MIT, 3배 빠르고 소비전력 낮춘 신경망칩 개발

 

매사추세츠공과대학(MIT) 연구진이 기존 제품보다 3배 이상 빠른 계산 처리를 하면서도 소비 전력을 94%나 줄일 수 있는 신경망 칩을 개발해 주목된다.

MIT 뉴스와 기가진 등에 따르면 음성 또는 얼굴 인식 프로그램과 같은 인공지능(AI) 시스템의 발전으로 엄청난 양의 학습 데이터를 분석하는 작업이 가능해졌다.

그러나 신경망은 크기가 크고 계산량이 많아 에너지가 많이 소비돼 스마트폰과 같은 손에 들고 다니는 장치에는 실용적이지 않다.

일반 프로세서 모델은 칩의 프로세서와 메모리가 나눠 연산을 할 때 CPU 간의 데이터 교환이 이뤄진다.

 

이에 MIT 연구원들은 전력 소모를 94~95% 줄이면서 이전 네트워크에 비해 신경망 계산 속도를 3~7배 증가시키는 특수 목적 칩을 개발했다. 이에 스마트폰에서 신경망을 직접 실행하거나, 가전제품에 신경망을 포함시키는 것이 가능할 것으로 기대된다.

새로운 칩 개발을 주도하는 MIT 대학원생인 아비셰크 비스와스(Avishek Biswas)는 “일반적인 프로세서 모델은 칩 일부에 메모리가 있고 칩 다른 부분에 프로세서가 있어 계산을 할 때 데이터가 앞뒤로 이동한다”고 설명했다.

이어 “대량의 계산 작업을 수행하는 기계학습 알고리즘은 계산이 많이 필요하기 때문에 데이터를 앞뒤로 전송하는 것이 에너지 소비의 대부분을 차지한다”면서 “그러나 이런 알고리즘 계산은 내적(dot product, 內積)이라고 하는 특정 작업으로 단순화할 수 있다. 우리의 접근 방식은 메모리 내부에 이 내적 제품 기능을 구현할 수 있어 데이터를 앞뒤로 전송할 필요가 없다”고 덧붙였다.

즉 기계학습 알고리즘의 계산을 ‘내적’이라는 특정 작업으로 단순화 하고 메모리에 구현함으로써 데이터를 CPU와 메모리에서 왕복시키는 처리를 없애 연산의 고속화와 전력화를 실현하는 것이다.

신경망은 일반적으로 층으로 배열된다. 망의 한 계층에 있는 단일 처리 노드는 일반적으로 아래 계층의 여러 노드에서 데이터를 수신하고 위 계층의 여러 노드에 데이터를 전달한다.

노드 사이의 각 연결에는 고유한 ‘가중치’(weight)가 있다. 가중치는 한 노드의 출력이 다음 노드에서 수행되는 계산에 얼마나 큰 역할을 하는지를 나타내는 지표다. 신경망에서의 학습은 이런 가중치를 설정하는 작업이다.

 

 

 

아래 계층의 여러 노드로부터 데이터를 수신하는 노드는 각 입력에 해당하는 연결의 가중치를 곱하고 그 결과를 합산한다. 이 연산(곱셈의 총체)이 바로 내적의 정의다. 내적이 임계값을 초과하면 노드는 자신의 가중치를 가진 연결을 통해 다음 계층의 노드로 이를 전송한다.

신경망은 추상적인 개념이다. 노드는 컴퓨터 메모리에 저장된 가중치다. 내적을 계산하려면 일반적으로 메모리에서 가중치를 가져와 관련 데이터 항목을 끌어온 다음, 두 데이터를 곱하고 그 결과를 어딘가에 저장한 뒤, 노드의 모든 입력에 대한 연산을 반복해야 한다. 신경망에 수천개 또는 수백만 개의 노드가 있는 것을 감안할 때 많은 데이터가 이동해야 한다.

그러나 이런 일련의 작업은 여러 뉴런을 따라 이동하는 신호가 시냅스나 뉴런 묶음 사이의 틈에서 만나는 뇌에서 일어나는 일을 디지털 방식으로 비슷하게 수행하는 것이다. 뉴런의 발화 속도와 시냅스를 가로지르는 전기 화학적 신호는 데이터 값과 가중치에 해당된다.

MIT 연구진의 새로운 칩은 뇌를 보다 충실하게 복제함으로써 효율성을 향상시킨다.

칩에서 노드의 입력 값은 전압으로 변환된 다음 적절한 가중치로 곱해진다. 제품을 합산 하는 것은 단순히 전압을 결합하는 문제다. 결합된 전압만 디지털 표현으로 다시 변환돼 이후의 처리를 위해 저장된다.

따라서 칩은 모든 계산을 위해 프로세서와 메모리 사이를 왕복하는 대신, 하나의 프로토타입에서 한 번에 16개씩 여러 노드에 대한 내적을 계산할 수 있다.

MIT에 따르면 새로운 칩에 의해 현재 신경망의 계산 속도를 기존의 3배에서 7배 향상시키는 데 성공하고, 소비 전력은 94~95% 절감하는 데 성공했다. 지금까지 스마트폰 등 앱은 서버에 데이터를 업로드 하고 서버에서 연산한 결과를 받았지만, 새로운 칩이면 단말에서 신경망을 수행할 수 있게 된다.

IBM의 인공지능 담당 부사장 인 다리오 길(Dario Gil)은 “이것은 심층학습 앱을 위한 SRAM 기반의 메모리 내장형 아날로그 컴퓨팅의 실용적인 데모”라면서 “앞으로 사물인터넷에서 이미지 및 비디오 분류를 위해 보다 복잡한 콘볼루션(convolutional) 신경망을 사용할 가능성을 열 것”이라고 말했다.

 

출처: http://www.zdnet.co.kr/news/news_view.asp?artice_id=20180219101322 (ZD NET KOREA)