▲KAIST PIM반도체 연구센터와 인공지능반도체 대학원 유회준 교수 연구팀이 400mW 초저전력을 소모하면서 0.4초 초고속으로 GPT 등 거대언어 모델(LLM)을 처리할 수 있는 인공지능 반도체인 '상보형-트랜스포머(Complementary-Transformer)'를 삼성 28나노 공정을 통해 세계 최초로 개발했다. 사진은 유회준 교수(사진 오른쪽에서 두 번째)와 김상엽 박사(사진 왼쪽)가 이번에 개발한 상보형-트랜스포머를 시연하고 있는 모습.
유창재
400mW(밀리와트) 초저전력을 소모하면서 0.4초 초고속으로 GPT 등 거대언어 모델(Large Language Model, LLM)을 처리할 수 있는 인공지능(AI) 반도체인 '상보형-트랜스포머(Complementary-Transformer)'가 삼성 28나노 공정을 통해 세계 최초로 개발됐다.
과학기술정보통신부(장관 이종호, 아래 과기정통부)는 6일 오전 11시 정부세종청사에서 브리핑을 통해 "KAIST(총장 이광형) PIM반도체 연구센터와 인공지능반도체 대학원 유회준 교수 연구팀이 그동안 다량의 GPU와 250와트의 전력소모를 통해 구동되는 GPT 등 거대 언어 모델(LLM)을 4.5mm x 4.5mm의 작은 한 개의 AI 반도체 칩 상에서 초저전력으로 구현하는 것에 성공했다"고 밝혔다.
과기정통부는 "상보형 트랜스포머란 스파이킹 뉴럴 네트워크(SNN)과 심층 인공신경망(DNN)을 선택적으로 사용하여 트랜스포머 기능을 구현하는 것"이라며 "특히 인간 뇌의 구조와 동작을 모사하는 뉴로모픽 컴퓨팅(Neuromorphic Computing) 기술, 즉 스파이킹 뉴럴 네트워크(Spiking Neutral Network, SNN)을 활용하여 트랜스포머 동작을 구현한 것이 특징"이라고 설명했다.
스파이킹 뉴럴 네트워크(SNN)는 뉴로모픽 컴퓨팅의 한 형태로, 뇌의 뉴런이 스파이크라는 시간에 따른 신호를 사용해 정보를 처리하는 방식이며, 생물학적 뇌의 작동 방식에 가까워 에너지 효율이 높고, 실시간 처리와 복잡한 시계열 데이터 분석에 적합하다.