뉴스

SBS 뉴스 상단 메뉴

"전력 소모 엔비디아의 1/625"…국내 AI 반도체 기술 개발

"전력 소모 엔비디아의 1/625"…국내 AI 반도체 기술 개발
▲ 스파이킹 뉴럴 네트워크와 심층 인공신경망의 상보적 특성

전력 소모를 최소화하면서 초고속으로 거대언어모델(LLM)을 처리할 수 있는 인공지능(AI) 반도체 핵심 기술인 '상보형 트랜스포머'를 국내 연구진이 세계 최초로 개발했습니다.

과학기술정보통신부는 한국과학기술원(KAIST) PIM반도체 연구센터와 인공지능반도체대학원 유회준 교수 연구팀이 상보형 트랜스포머를 삼성전자 28나노 공정을 통해 개발했다고 밝혔습니다.

상보형 트랜스포머란 인간 뇌의 구조와 기능을 모방해 설계한 뉴로모픽 컴퓨팅 시스템의 일종인 '스파이킹 뉴럴 네트워크'와 '심층 인공신경망'을 선택적으로 사용해 트랜스포머 기능을 구현하는 기술입니다.

트랜스포머는 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망으로, 챗GPT의 원천 기술이기도 합니다.

거대언어모델은 그동안 다량의 그래픽처리장치(GPU)와 250와트의 전력 소모를 통해 구동해야 했지만, 연구팀은 4.5㎜×4.5㎜의 작은 AI 반도체 한 개에서 400밀리와트의 초저전력만 소모하면서도 초고속 구현에 성공했습니다.

AI 반도체 발전 방향

이번 연구 결과는 지난달 19∼23일 미국 샌프란시스코에서 열린 '반도체 설계 올림픽' 국제고체회로설계학회(ISSCC)에서 발표, 시연됐습니다.

연구팀은 상보형 심층신경망 기술을 거대언어모델에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 입증했으며, 이론에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현했다고 과기정통부는 설명했습니다.

연구진에 따르면 상보형 트랜스포머는 엔비디아 A100 GPU 대비 625분의 1 수준의 전력을 쓰면서 GPT-2 모델을 활용한 언어 생성에는 0.4초, T5 모델을 활용한 언어 번역에는 0.2초의 고속 동작이 각각 가능합니다.

연구팀은 향후 뉴로모픽 컴퓨팅을 언어모델에 국한하지 않고 다양한 응용 분야로 연구 범위를 확장할 예정입니다.

유회준 교수는 "뉴로모픽 컴퓨팅은 IBM, 인텔 같은 회사들도 구현하지 못한 기술로, 초저전력의 뉴로모픽 가속기를 갖고 거대모델을 돌린 것은 세계 최초라고 자부한다"고 말했습니다.

(사진=과학기술정보통신부 제공, 연합뉴스)
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

스브스프리미엄

스브스프리미엄이란?

    많이 본 뉴스