[시장동향②] 국산 NPU 생존 전략은 ‘레퍼런스 확보’

퓨리오사AI, 리벨리온 등 국산 NPU 실증 기회 확대 필요

2025-08-29     성원영 기자

[아이티데일리] 인공지능(AI) 산업이 고도화되면서 방대한 연산을 뒷받침하는 ‘AI 가속기’의 중요성이 커지고 있다. 이 시장에서 엔비디아(NVIDIA) 그래픽처리장치(GPU)는 전 세계 데이터센터 시장의 90% 이상을 차지할 정도로 압도적인 위치를 점하고 있다. 이에 맞서 AMD, 인텔(Intel) 등 글로벌 기업들이 AI 가속기를 내놓으며 경쟁 대열에 합류하고 있는 가운데, 국내에서도 팹리스 스타트업을 중심으로 NPU 시장이 형성되기 시작했다. 국내외 AI 가속기 시장 동향과 국산 NPU 산업의 성장 전략에 대해 짚어본다. 

글로벌 기업들이 AI 가속기를 내놓으며 엔비디아와의 경쟁 대열에 합류하는 가운데, 국내에서도 팹리스 스타트업을 중심으로 NPU 시장이 형성되는 추세다. (사진=픽사베이)

국내 NPU 쌍두마차, 퓨리오사AI와 리벨리온

국내 반도체 시장은 그동안 삼성전자와 SK하이닉스 등 대기업 중심의 메모리 반도체 분야가 강세였다. 최근 들어 스타트업을 중심으로 AI 가속기 시장이 새롭게 형성되고 있으며, 특히 NPU 개발에 집중하는 양상을 보이고 있다.

2020년대 초반 국내 팹리스 스타트업이 내놓은 AI 가속기의 경우, 정수 연산만 가능해 대규모언어모델(LLM)과 같은 복잡한 연산 대신 이미지 처리 위주로 활용됐다. 이후 2세대 칩 개발이 진행되며 실수 연산이 가능해지자 대규모 AI 연산까지 지원할 수 있게 됐고, 기술 고도화에 속도가 붙었다. 퓨리오사AI와 리벨리온 등 국내 NPU 중심 스타트업은 공통적으로 저전력과 에너지 절감을 핵심 가치로 내세우는 동시에 제조 공정이나 아키텍처에서 각기 다른 전략을 추구하고 있다.

먼저 퓨리오사AI는 지난 2021년 1세대 NPU ‘워보이(Warboy)’를 시장에 출시한 데 이어, 2세대 NPU ‘레니게이드(RNGD)’를 2024년 8월 공개했다. 레니게이드에는 8개의 연산 유닛이 탑재됐으며 FP8 기준 초당 512테라플롭스(TFLOPs)의 성능을 구현한다. 최대 전력 소비는 180와트(W) 수준이다.

퓨리오사AI의 ‘레니게이드’ (출처=퓨리오사AI)

레니게이드는 TSMC에서 생산을 맡았으며, 5나노미터(nm) 공정으로 생산된다. TSMC의 첨단 반도체 패키징 기술인 ‘칩 온 웨이퍼 온 서브 스트레이트(CoWoS)’도 적용됐다. CoWoS는 여러 개의 칩을 하나의 실리콘 인터포저(미세 배선이 내장된 얇은 연결판) 위에 나란히 배치하고, 이를 패키지 기판 위에 올려 완성하는 패키징 기술이다. 엔비디아 칩에도 적용되는 기술이다. 여러 칩을 한 패키지에 고밀도로 통합하고, 칩 간 데이터 이동속도를 높인다는 장점이 있다.

레니게이드는 텐서 축약 프로세서(TCP) 아키텍처를 적용해 연산 효율을 높였다. TCP는 특정 작업 처리에만 특화된 NPU의 한계를 극복하고자 대규모 병렬 작업이 가능하도록 지원하는 아키텍처다. 퓨리오사AI 관계자는 “LG AI연구원 ‘엑사원(EXAONE)’에 레니게이드 공급이 확정됐다”며 “3세대 칩 개발도 진행 중이나 아직 정확한 개발 완료 시기는 미정”이라고 밝혔다.

리벨리온 ‘아톰 맥스(ATOM-Max)’ (출처=SKT)

리벨리온은 지난 2023년 ‘아톰(ATOM)’에 이어, 지난 6월 대규모 AI 추론을 위한 ‘아톰-맥스(ATOM-Max)’를 출시했다. 리벨리온 관계자는 “아톰-맥스는 엔터프라이즈급 추론 워크로드를 안정적으로 처리할 수 있으며, 다수의 요청을 동시에 소화하는 데 최적화돼 있다”고 설명했다.

차세대 제품인 ‘리벨-쿼드(REBEL-Quad)’는 하이퍼스케일 데이터센터를 겨냥한 NPU다. 4개의 연산 칩을 고속 연결해 하나의 칩처럼 동작하도록 설계했다. 이를 통해 단일 서버에서부터 대규모 클러스터까지 확장할 수 있는 구조로 구현할 수 있다. 리벨리온은 리벨 쿼드를 데이터센터 규모와 서비스 특성에 맞춰 유연하게 활용할 수 있다고 강조했다. 본격적인 상용화 시기는 2026년으로 전망했다.

리벨리온은 독자적인 RSD(Rebellions Scalable Design) 아키텍처를 기반으로, 고객이 랙(rack) 단위의 AI 인프라를 최적화된 형태로 구성할 수 있도록 지원한다. 리벨리온 관계자는 “고객 입장에서는 결국 단일 서버가 아니라 랙 전체를 어떻게 효율적으로 운영하느냐가 핵심 과제”라며 “리벨리온은 카드–서버–랙까지 매끄럽게 확장되는 구조를 갖추고 있어 하이퍼스케일 데이터센터가 요구하는 수준의 AI 추론 인프라를 유연하게 구축할 수 있다”고 강조했다.

한편 리벨리온은 지난해 12월 AI 반도체 전문기업 사피온과의 합병을 완료했다. 리벨리온 관계자는 “해당 합병으로 인력, 자원, 파트너십을 결집해 본격적으로 글로벌 무대에서 경쟁할 수 있는 기업으로 도약하는 것이 가장 큰 목표”라며 “SKT·SK하이닉스 등 전략적 투자자와의 협력을 통해 AI 데이터센터 시장 진출과 글로벌 사업 확장하는 데 중점을 뒀다”고 설명했다. 현재 리벨리온은 SKT와 협력해 자사의 아톰 시리즈 NPU를 SKT의 주요 AI 서비스 환경에서 테스트하고 있다.

하이퍼엑셀의 ‘오리온’ 서버 (출처=하이퍼엑셀)

이 밖에 하이퍼엑셀은 LLM에 특화된 AI 가속기 LPU(LLM Processing Unit)를 개발하고 있다. 하이퍼엑셀은 한국과학기술원(KAIST) 전기및전자공학부 김주영 교수가 2023년에 창업한 스타트업이다. AMD와의 협업을 통해 자일링스(Xilinx)의 ‘알베오 U55C’ FPGA 카드에 하이퍼엑셀이 설계한 LPU 로직을 적용한 ‘오리온’ 서버를 출시했다.

하이퍼엑셀 안동우 수석은 “지난해 9월에는 네이버클라우드와 반도체 공동개발 협약을 맺고, 네이버클라우드의 요구 성능을 반영한 제품을 개발 중”이라며 “이를 기반으로 내년에 2세대 ASIC 반도체를 양산할 계획”이라고 밝혔다.
 

“AI 가속기 비즈니스 ‘레퍼런스 확보’ 관건”

광주광역시 인공지능산업융합집적단지 (사진=성원영 기자)

AI 가속기 비즈니스에서 반드시 필요한 것 중 하나로 ‘레퍼런스’를 꼽을 수 있다. 인공지능산업융합사업단(AICA) 기반조성본부 곽재도 본부장은 “AI는 수학적 공식처럼 100% 완벽한 답을 내지 못한다”며 “사람이 활용할 수 있을 정도의 답변을 꾸준히 제시해야 성능이 좋다고 평가받기 때문에, 고객들은 일정 기간의 레퍼런스를 요구한다”고 설명했다.

빅테크가 아닌 스타트업의 입장에서 레퍼런스를 확보하기란 어려운 일이다. 제품을 개발했어도 레퍼런스가 되어줄 고객사가 없기 때문이다. 이는 구직시장에서 경력 있는 신입을 원하는 상황과 비슷하다고 볼 수 있다.

이에 정부는 국내 스타트업에게 실증 기회를 지원해 비즈니스 성과를 창출할 수 있도록 광주광역시를 중심으로 국산 NPU 실증 지원사업을 마련했다. 해당 사업은 과학기술정보통신부와 광주광역시, 정보통신산업진흥원(NIPA) 및 인공지능산업융합사업단(AICA)이 추진했던 인공지능산업융합집적단지조성 사업의 일환으로 추진됐다. 

먼저 2021년부터 2022년까진 진행된 ‘AI반도체실증지원사업’은 NHN이 실증 인프라를 구축하고, SKT가 AI 반도체를 제공하며, AICA가 공공 서비스 실증 역할을 맡아 진행됐다. 실증 대상 반도체는 사피온의 ‘X220’이었다. 해당 NPU를 바탕으로 SKT의 AI·딥러닝 기반 미디어 품질 향상 솔루션 ‘수퍼노바(SUPERNOVA)’, NHN의 유사 상품 검색 ‘AI 패션(Fashion)’, 헬스허브(HETHHUB)의 심비대증 진단 보조 시스템 ‘CTR AI’ 등 AI 서비스 실증을 진행했다.

‘AI반도체실증지원사업’ 실증대상 NPU 카드들 (사진=성원영 기자)

2023년부터 2024년까지 진행된 ‘AI 반도체 시험‧검증 환경 조성’ 사업은 200억 원 규모로 이전 사업보다 한 층 확대됐다. 해당 실증사업은 국내 CSP와 AI 반도체 스타트업, AI 서비스 기업들이 컨소시엄 형태로 참여했다. 국산 AI 반도체를 클라우드 데이터센터에 적용하고 서비스까지 실증해 레퍼런스를 조기 확보할 수 있도록 지원한다는 전략이었다.

주요 실증 내용을 살펴보면 리벨리온의 ‘아톰’과 ‘아톰 플러스(ATOM+)’가 KT클라우드 데이터센터를 기반으로 슈퍼브에이아이(Superb AI)의 ‘음식물/영장제 모니터링 서비스’를 실증했다. 퓨리오사AI의 ‘워보이’와 ‘레니게이드’의 경우, 네이버클라우드 데이터센터 환경에서 두다지의 ‘산업현장 안전관제 서비스’와 엘리스의 ‘AI 튜터링 챗봇 서비스’를 실증했다. 사피온의 ‘X220 엔터프라이즈(Enterprise)’와 ‘X330 프라임(Prime)’은 NHN클라우드 데이터센터 환경에서 아이브스의 ‘광주 CCTV 관제 서비스’와 위시의 ‘군 제한구역 감시 서비스’를 실증했다. 해당 사업들은 ‘K-클라우드 프로젝트’ 1단계 세부 사업에 포함됐다.

AICA는 올해부터 2027년까지 ‘AI반도체 검증체계 구축’ 사업을 진행하며, 고도화된 AI 반도체 검증 핵심장비를 구축하고 국산 AI 반도체 검증 및 국제 인증 지원을 수행한다.

한편 K-클라우드 프로젝트는 초고속·저전력 국산 인공지능 반도체를 개발하고, 이를 데이터센터에 적용해 국내 클라우드 경쟁력을 강화하고자 마련된 정책이다. 2023년부터 2030년까지 총 8,262억 원을 투자할 계획이며, 실증사업도 함께 진행한다.

K-클라우드 프로젝트의 일환으로 올해부터 ‘국산 인공지능 반도체 기반 한국형-인터넷기반 자원공유 기술개발’ 사업이 추진된다. 해당 사업에 포함된 하드웨어 통합 및 사업 총괄과제는 하이퍼엑셀-리벨리온 연합체가 담당한다. 연구기간은 6년이다.

하이퍼엑셀 안동우 수석에 따르면 “이번 과제는 여러 팹리스 스타트업이 각기 다른 기능의 서버를 개발해 하나의 컴포저블 클러스터(여러 기능을 한 서버에 통합)로 만드는 것이 목표”라고 설명했다. 이어 그는 “해당 사업을 통해 완성된 서버는 향후 추진될 국가AI 컴퓨팅센터에 적용될 계획”이라고 덧붙였다.
 

실증 인프라 확대 및 안정적 투자 환경 필요

국내외 AI 가속기 기업의 관계자들은 향후 NPU 시장이 더욱 커질 것으로 전망했다. 특히 AI서비스가 보편화됨에 따라 추론 인프라 수요도 증가하는 추세이며, 이러한 증가세가 지속될 경우 단일 기업만으로 감당하기에는 어려울 것으로 예측했으며, 수요처 역시 종속성 탈피를 위해 GPU에서 NPU로의 전환이 가속화될 것으로 내다봤다.

업계 전문가들은 국내 NPU 업계가 이러한 흐름에 대응하기 위해 다양한 AI 서비스 수요를 기반으로 한 실증 기회가 확대돼야 한다고 입을 모았다. 특히 실증 과정에서 국가가 민간 기업 간의 협력을 연결해주는 역할도 필요하다고 강조했다.

한 업계 관계자는 “국내에는 아직 공공 실증 인프라와 공공 반도체 생산 인프라가 부족해 민간 반도체 설계 기업들이 대만 TSMC에 의존하고 있다”며 “NPU를 비롯한 국내 AI 반도체 산업의 자립성과 경쟁력 강화를 위해 이러한 공공 실증 및 생산 인프라 구축이 필요하다”고 제언했다.

더불어 리벨리온의 관계자는 “반도체 산업은 다른 분야보다 개발부터 상용화까지 보통 3년 이상의 긴 시간이 소요되기 때문에 기업들이 이를 견뎌낼 수 있도록 장기적이고 안정적인 투자 환경이 뒷받침돼야 한다”고 말했다.