[분석] 생성형 AI 리더 미국에 대한 중국의 역습…딥시크 뿐 아니다
[아이티데일리] 중국 스타트업 딥시크(DeepSeek)는 미국의 빅테크들이 개발한 생성형 AI 도구의 성능에 필적하는 대규모언어모델(LLM)을 출시하면서 기술계를 강타했다. 게다가 비용과 컴퓨팅 파워는 훨씬 낮았다.
항저우에 본사를 둔 딥시크는 이달 R1을 출시했다. 이는 오픈소스인 '추론' 모델로, 오픈AI의 가장 진보된 LLM인 o1과 비슷한 성능을 발휘해 업계를 놀라게 했다. 딥시크는 이어 재너스-프로-7B(Janus-Pro-7B)라는 또 다른 모델을 출시했다. 이 모델은 런던의 스태빌리티AI에서 만든 스테이블 디퓨전(Stable Diffusion) 및 오픈AI의 달리3(DALL-E 3)과 유사하게 텍스트 프롬프트에서 이미지를 생성할 수 있다.
중국 내 연구계는 딥시크의 성공은 예상된 것이었으며, 이는 중국 정부의 ‘AI 분야의 글로벌 리더’가 되고자 하는 욕구 및 정책에 부합하는 것으로 판단하고 있다. LLM을 개발하는 회사에 대한 막대한 투자와 AI를 포함한 과학, 기술, 공학 또는 수학 분야의 전문가가 다수 배출돼 딥시크와 같은 회사가 중국에서 나올 수밖에 없다는 것이다. "딥시크가 아니더라도 어차피 다른 중국 LLM이 나왔을 것이다"라는 것이다.
이미 딥시크와 유사한 솔루션은 여럿 나왔다. 우리 설날이었던 1월 29일 중국의 대표 기술기업 알리바바는 가장 발전된 LLM인 큐원2.5-맥스(Qwen2.5-Max)를 출시했다. 알리바바 측은 R1에 앞서 발표됐던 딥시크의 V3보다 성능이 뛰어나다고 주장했다. 문샷AI(Moonshot AI)와 바이트댄스(ByteDance)는 새로운 추론 모델인 키미(Kimi) 1.5와 1.5-프로를 출시했다. 두 회사는 이 모델이 일부 벤치마크 테스트에서 GPT o1보다 성능이 우수하다고 주장했다.
이들이 모두 미국의 생성형 AI를 위협하고 있다. 성능의 탁월함도 시장에서 좋은 평가를 받았지만, 무엇보다 모델을 사용하려는 수요자들이 값싼 가격에 환호하고 있다. 미국 유수 모델의 사용료에 비해 ‘터무니없을 정도로’ 저렴하기 때문이다.
지난 2017년 중국 정부는 2030년까지 중국이 AI 분야에서 글로벌 리더가 되겠다고 발표했다. 중국 정부는 2025년까지 ‘기술과 애플리케이션이 세계적 수준을 달성하도록’ 주요 AI 업계에 지시했다. 약속한 일정이 맞아떨어지고 있다. 글로벌 시장에서의 파장이 예상되는 대목이다.
네이처 온라인에 따르면 중국의 최우선 정책은 'AI 인재 파이프라인' 개발이었다. 워싱턴 DC 조지타운 대학교의 보안 및 신기술 센터(CSET) 보고서에 따르면 2022년까지 중국 교육부는 440개 대학에 AI 전문 학부를 개설했다. 시카고의 싱크탱크 마르코폴로에 따르면, 그 해에 중국은 세계적 AI 연구자의 거의 절반을 공급했다. 미국은 단 18%였다.
호주 시드니 공과대학의 과학 정책 연구원인 마리나 장은 "베이징에 있는 기술 회사 바이두가 이끄는 딥러닝 기술 및 응용을 위한 국가 공학 연구소와 같은 국가 지원 정책이 수천 명의 AI 전문가를 교육했다"고 말했다. 딥시크 설립자인 량원펑은 39세다. 그는 저장 대학교에서 컴퓨터 과학을 전공했다. 딥시크 설립은 불과 2년 전인 2023년이었다.
딥시크의 극적인 성공은 미국 정부의 수출 통제 속에서 이루어졌다는 점에서 주목된다. 2022년 이후 중국에 고급 AI 컴퓨팅 칩 공급이 끊긴 상태에서의 결실이었다. 딥시크는 V3를 훈련하기 위해 엔비디아의 H800 칩 약 2000개를 사용했다고 밝혔다.
반면 미국의 대표적인 빅테크 메타에서 7월 출시한 LLM인 라마(Llama) 3.1 405B는 1만 6000개 이상의 고급 H100 엔비디아 칩을 활용했다. 량원펑은 고급 반도체를 사용하지 못하는 환경에서 다양한 접근 방식을 사용해 모델의 효율성을 높였다고 말했다. 예를 들어, 회사가 구축한 '전문가 혼합' 아키텍처는 기존 기술보다 더 빠르게 모델을 학습시키고 매개변수를 줄이는 기계 학습 방법이다. 이를 통해 더 적은 칩으로 모델을 학습시킬 수 있다는 것이다. 또 모델이 더 적은 메모리로 더 많은 데이터를 저장할 수 있도록 하는 기술을 적용했다.
로이터 등 주요 언론들은 오픈AI 등 미국의 생성형 AI 모델 출시 회사들은 딥시크가 오픈AI GPT 등의 모델을 사용하여 R1 모델을 학습시켰다고 주장하고, 이를 조사할 방침이라고 전했다. 오픈AI는 다수의 미디어들로부터 지적 재산권 침해 혐의로 소송을 당했다. 스위스 베른의 오픈 사이언스 플랫폼 허깅페이스(Hugging Face)는 오픈AI 등의 주장이 사실이라 하더라도 R1을 만든 딥시크의 성과와 가치를 떨어뜨리지는 않을 것이라고 밝혔다.
딥시크를 비롯한 중국 기술 기업들의 AI 모델들은 대규모 LLM을 교육할 재정적 자원과 하드웨어가 부족한 국가나 기업에 청사진을 제공할 수 있을 것이라는 기대다.