고성능 · 저전력 AI 반도체 탑재, 연산성능 4배 · 전력효율 7배 ↑
자율차, 클라우드, 데이터 센터 등 대규모 AI 서비스에 활용

ETRI 연구진이 아트브레인 서버를 점검하고 있다.

국내 연구진이 자체 개발한 인공지능(AI) 반도체를 활용해 초당 5000조 번을 연산, 학습과 추론을 가속할 수 있는 AI 시스템을 개발했다.  

한국전자통신연구원(ETRI·원장 김명준)은 자율주행차, 클라우드, 데이터센터, 사람·사물·음성 인식 등 AI 응용 서비스를 제공하는 고성능 서버에 적용하기 위해 지난해 개발한 NPU 기반의 고성능 AI 반도체 칩 '알데바란9(AB9)'을 활용, 낮은 전력으로 초당 약 5000조 회 연산이 가능한 AI 시스템을 개발했다고 2일 발표했다.

연구진은 AB9을 기반으로 독자적인 설계를 이뤄 부피가 작으면서도 전력 소모가 낮은 NPU 보드 'ABrain-S'를 개발했다. AI 알고리즘 처리를 위해 입출력 데이터를 16GB까지 저장할 수 있는 메모리와 데이터 이동 속도를 빠르게 하기 위한 인터페이스를 적용했다. 

고성능·고효율 서버를 구현하기 위해서는 NPU 보드를 최대치로 고집적화하는 것이 핵심이다. 하지만 현재 AI 알고리즘 처리 가속기로 많이 활용하는 GPU 보드는 GPU의 구조적 한계 때문에 부피가 커서 1개 서버 노드에 6~7대밖에 장착할 수 없고 전력 소모도 높다.

ETRI가 개발한 NPU 보드를 서버노드에 집약한 모습
ETRI가 개발한 NPU 보드를 서버노드에 집약한 모습

반면 ETRI 연구진이 AB9을 내장해 개발한 NPU 보드는 한 서버 노드에 최대 20개를 장착할 수 있다. 기존 시스템 대비 공간·전력효율을 개선하면서 가격도 낮췄다. 

AB9이 동전 크기에 불과해 초당 40조 회 연산 성능을 내면서도 전력 소모는 15W 수준으로 매우 낮기 때문이다. 연구진은 이를 바탕으로 서버 노드 8개를 쌓아 랙 서버 형태로 인공지능 시스템 '아트브레인K(ArtBrain-K)를 구성했다.

이렇게 개발한 AI 시스템은 최대 5페타플롭스(PF) 성능을 발휘한다. 서버 1개당 1초에 약 5000조 회 연산이 가능한 셈이다. 기존 GPU 기반 AI 서버와 비교하면 연산 성능은 약 4배, 전력효율은 7배나 높다.

아트브레인을 데이터센터 등에 적용하면 처리 용량과 속도가 대폭 개선된다. 트랜스포머 계열 AI 알고리즘 등 초거대 인공신경망(Huge Neural Network)과 같이 데이터 처리와 학습에 엄청난 컴퓨팅 자원이 필요한 곳에 활용할 수 있다.

ETRI는 AI 알고리즘을 쉽게 개발할 수 있도록 SW 개발환경도구 'AIwareRT'를 깃허브(Github)에 공개했다. 

프로그래밍에 필요한 기본적인 구조와 알고리즘, 시뮬레이터, 최적화 도구 등을 라이브러리 형태로 제공해 프로그래밍 언어에 생소한 사람들도 쉽게 사용해볼 수 있게 구성했다.

한진호 ETRI 인공지능프로세서연구실장은 "AI 반도체 자체 개발로 비메모리 반도체 분야 원천기술을 보유하고 있다"면서 "AI 반도체를 탑재한 NPU 보드와 NPU 서버시스템 및 관련 SW까지 개발해 우리가 개발한 기술의 경쟁력을 높이는 데 성공한 것"이라고 의의를 설명했다.

이 기술은 현재 반도체 및 하드웨어 기업 등에 기술이전해 공항 자동 출입국 시스템에 적용하고 있다. 낮는 전력에서 높음 성능을 내는 기술과 메모리 지연을 낮추는 기술 등은 총 32건의 특허를 출원 또는 등록했으며, 4건을 기술이전했다. 연구진은 향후 이 기술을 고도화 해 더 높은 성능을 지닌 서버·시스템을 구축할 예정이다. 딥러닝 적용 AI 분야 부품 국산화를 위한 지원도 진행한다.  

 

저작권자 © 테크데일리(TechDaily) 무단전재 및 재배포 금지