본문 바로가기 사이드메뉴 바로가기 주메뉴 바로가기

주메뉴영역

주메뉴영역

혁신으로 세상을 바꾸는 융복합 대학, DIGIST
Innovative University Changing the World through Convergence
이 페이지를 SNS로 퍼가기

Research

인간 뇌의 계산방식을 도입한 새로운 빅데이터 처리 기술 개발

  • 조회. 218
  • 등록일. 2020.12.21
  • 작성자. 홍보팀

- DGIST 김예성 교수 연구팀, 메모리 기반의 연산 구조 개발
- 메모리 기반 연산(In-Memory Computing) 아키텍쳐, 초차원(Hyperdimensional) 컴퓨팅 알고리즘을 통한 획기적인 데이터 처리 효율 달성해

 

김예성 대구경북과학기술원(DGIST) 정보통신융합전공 교수이다.

 

 DGIST 정보통신융합전공 김예성 교수 연구팀은 빅데이터 연산에 있어 기존 연산 방식의 성능과 효율성을 개선시킨 메모리 기반의 연산 구조를 개발했다. 이번 연구는 기존 컴퓨터 시스템에서 발생하는 계산 병목을 찾아 이를 메모리 기반의 계산방식으로 변경·개선한 것으로, 향후 빅데이터 처리 분야에서 긍정적인 효과를 줄 수 있을 것으로 기대된다.

 기존 컴퓨터 시스템은 메모리와 연산 장치(CPU)가 분리돼 있어, 빅데이터를 메모리와 CPU간에 송수신할 때 속도가 느려지는 병목현상이 종종 발생한다. 이러한 기존 송수신 방식을 비지도 군집화 기계 학습(Unsupervised Clustering) 알고리즘이라 하며, 이는 데이터 처리에 있어 연산량 및 데이터 처리량이 기하급수적으로 늘어 연산에 문제점을 갖고 있다. 이와 관련해 김예성 교수 연구팀도 빅데이터 처리과정에서의 메모리 대역폭 부족에 따른 병목현상을 발견했다.

 이에 따라 김예성 교수 연구팀은 부족한 메모리 대역폭 문제를 해결하고자 메모리 기반의 연산(In-Memory Computing) 컴퓨터 아키텍쳐를 활용했다. 기존의 아날로그 기반 하드웨어는 낮은 집적도1)로 인해 칩 공간 효율성이 떨어지는 문제가 있는데, 김예성 교수 연구팀이 개발한 컴퓨팅 시스템에서는 기존 아날로그 방식을 디지털화시켜 계산하는 새로운 메모리 설계방법을 적용했다.

 여기에, 김예성 교수 연구팀은 초차원(Hyperdimensional) 컴퓨팅 알고리즘도 함께 적용했다. 초차원 컴퓨팅 알고리즘은 뇌의 계산 방식을 모방한 알고리즘으로, 숫자로 구성된 기존 데이터를 패턴화된 수많은 비트열로 재구성해 병렬 고속 연산이 가능하다. 이로써 김예성 교수 연구팀은 메모리 기반 연산(In-Memory Computing) 아키텍쳐와 초차원(Hyperdimensional) 컴퓨팅 알고리즘을 통해 기존 대비 59배의 속도 향상과 251배의 향상된 에너지 효율성을 달성할 수 있었다.

 DGIST 정보통신융합전공 김예성 교수는 “이번 연구를 통해 메모리와 연산장치 간의 병목현상을 제거하고 군집화 알고리즘 처리 성능을 최대 수십 배 가량 향상할 수 있다”며 “향후 빅데이터와 인공지능 분야 등에서의 효율적인 데이터 학습에 혁신을 가져올 수 있는 연구를 지속할 계획이다”고 말했다. 

 한편 이번 연구는 美 어바인 캘리포니아 대학교(UCI)의 모센 이마니(Mohsen Imani) 교수팀과 美 샌디에이고 캘리포니아 대학교(UCSD) 타야나 로징(Tajana Rosing) 교수팀과의 공동 협력으로 진행됐다. 이번 연구의 논문은 지난 10월 17일부터 21일까지 진행된 국제 최우술 학술대회인 IEEE/ACM MICRO에 발표되었다.

---

1) 집적도(Degree of Integration): 하나의 칩에 논리 소자가 몇 개나 구성되어 있는지를 나타내는 정도. 즉 칩당 소자 수를 의미

 

 

 연구결과개요     

DUAL: Acceleration of Clustering Algorithms using
Digital-based Processing In-Memory

Mohsen Imani, Saikishan Pampana, Saransh Gupta, Minxuan Zhou,
Yeseong Kim, Tajana Rosing
(IEEE/ACM International Symposium on Microarchitecture, presented on October 21st, 2020) 


 오늘날의 애플리케이션은 많은 양의 데이터를 생성하고 이러한 빅 데이터는 종종 기계 학습 알고리즘를 통하여 처리하게 된다. 많은 수의 데이터들은 지도학습에 필요한 레이블을 가지고 있지 않기 때문에, 비지도 학습, 즉 군집화 방법(클러스터링)이 데이터 분석에 널리 사용되고 있다. 그러나 현존하는 연산 장치에서 동작하는 클러스터링 알고리즘은 빅 데이터를 처리하는데 많은 시간과 전력을 소모한다. 이에 대한 근본 원인은 메모리와 연산 장치 사이의 데이터 송수신 과정이 병목이 되기 때문이다.
 본 논문에서는 디지털 기반 비지도 학습을 가속하는 DUAL 컴퓨터 아키텍쳐를 제안하였다. DUAL은 원본 데이터를 고차원 공간에 매핑하는 뇌인지과학에 기반한 초차원 컴퓨팅을 활용한다. 초차원 컴퓨팅은 기존의 높은 복잡도를 가진 학습 과정을, 계산 친화적인 비트 패턴으로 변환한다. 변환된 비트열은 병렬화 및 확장화에 적합하기 때문에 메모리 내 연산 처리(In-Memory Processing)에서 큰 성능 향상을 기대할 수 있다. 본 논문에서는 DUAL 시스템 아키텍쳐를 대규모 데이터 세트에 대하여 광범위하게 사용되는 몇 가지 인기 있는 클러스터링 알고리즘과 비교 평가하였다. DUAL 시스템은 기존에 GPU에서 동작하는 클러스터링 알고리즘과 비교하여, 유사한 군집화 알고리즘 품질을 보장하면서, 59배의 속도 향상과 251배의 향상된 에너지 효율성을 제공하는 것을 실험을 통하여 밝혔다. DOI : 10.1109/MICRO50266.2020.00039

 

 

 연구결과문답     

Q. 이번 성과 무엇이 다른가?

기존의 클러스터링 알고리즘은 빅데이터를 처리하는데 기하급수적으로 연산량 및 데이터 처리량이 늘어나는 문제점을 가지고 있다. 본 연구에서 제안한 알고리즘은 초차원 컴퓨팅을 활용하여 이 문제를 해결한다. 이는 기존에 컴퓨터에서 연산해왔던 숫자 정보가 아닌 비트 패턴만을 가지고 계산을 하기 때문에, 병렬화에 최적화된 연산 장치를 개발 할 수 있다. 본논문에서는 특별히 메모리 기반 연산 장치를 함께 개발하여 수십배 성능 향상이 가능함을 보였다.

Q. 어디에 쓸 수 있나?

초차원 컴퓨팅은 다양한 기존 기계학습의 경량화 된 대안으로 활용할 수 있다. 또한, In-memory computing과 같은 아키텍쳐는 기존 병목을 크게 줄일 수 있기 때문에 빅데이터 처리와 클라우드 환경과 같은 대규모 학습 처리 사례들에 대해 활용될 수 있다.

Q. 실용화까지 필요한 시간과 과제는?

본 연구에서 제시된 알고리즘은 현재 출시되어 있는 GPU나 FPGA에 이식 가능한 수준까지 개발이 완료된 상태이다. 다만, 이를 보다 효율적으로 동작시키기 위해서는 In-memory computing과 같은 제품의 상용화가 필요한데, 이에 대해서는 추가적인 연구가 필요할 것으로 생각된다.


Q. 연구를 시작한 계기는?

기존 기계학습 및 인공지능 알고리즘들의 학습은 대규모의 GPU와 같은 컴퓨팅 인프라를 필요로 한다는 한계가 있다. 이에 대한 대안 방법을 연구하던 중 뇌인지 과학의 기억 계산 이론 모델을 접하게 되었는데, 이를 확장하여 새로운 인공지능 및 컴퓨팅 시스템을 구축할 수 있을 것으로 기대하여 연구를 시작하게 되었다.

Q. 어떤 의미가 있는가?

기존의 In-memory computing 연구는 기존에 존재하는 인공신경망과 같은 알고리즘을 얼마나 모사하는데 초점이 맞추어 있었지만, 설계상의 효율성이 크게 떨어지고 정확도를 담보하지 못하는 문제가 있다. 이번 연구에서는, 학계에서 활발히 논의되고 있는 In-memory computing 기술이 새로운 인공지능 알고리즘과 결합하면 그 효율성을 크게 끌어 올릴 수 있다는 것을 증명한 연구이다.

Q. 꼭 이루고 싶은 목표는?

초차원 컴퓨팅 및 In-memory computing은 활발히 연구가 되고 있지만 아직 풀어야 할 문제가 많다. 이러한 문제를 해결하여 상용화된 기술로 만드는 것이 현재의 목표이다.

 

 

 그림설명     

[그림 1] DUAL 소프트웨어 – 하드웨어 모식도

 

(그림설명) 사용된 알고리즘 및 하드웨어의 모식도. 원본 데이터를 뇌에서 처리하는 것으로 추정되는 비트열 패턴으로 변환하고 이를 가속하는 과정을 보여준다.


[그림 2] 군집화 알고리즘 결과 비교

 

(그림설명) 본 연구에서 제안한 초차원 컴퓨팅 기반의 알고리즘이 최신 군집화 알고리즘(Baseline)과 비슷한 결과를 도출함을 보여준다.

 

 

콘텐츠 담당 담당부서  :   홍보팀 ㅣ 053-785-1135