에즈웰플러스 김지헌 이사 (AI 수석 컨설턴트)

에즈웰플러스 김지헌 이사 (AI 수석 컨설턴트)
에즈웰플러스 김지헌 이사 (AI 수석 컨설턴트)

[아이티데일리] 최근 미국 주식시장에서 가장 주목받고 있는 기업은 단연 AI 솔루션 기업인 엔비디아(NVIDIA)다. 엔비디아의 시가 총액은 미국 뉴욕 증권거래소에서 3위를 기록할 정도로 단기간에 상승, 인공지능(AI)에 대한 대중의 관심을 반영하고 있다.

AI 반도체 기업 엔비디아의 회사 이름은 그리스 신화에 나오는 ‘질투의 여신’ 이름인 라틴어 ‘인비디아(Invidia)’에서 따왔다고 한다. 엔비디아는 ‘모든 사람이 질투할 만한 회사를 만들겠다’는 목표로 젠슨 황 최고경영자(CEO)을 포함한 창업자 3인이 설립한 회사다.

지난 2월 23일 엔비디아는 뉴욕증권거래소에서 반도체 기업 최초로 시가 총액 2조 달러(한화 약 2,660조 원)를 돌파했다. 엔비디아는 시가 총액에서 구글과 아마존을 누르고 마이크로소프트(MS), 애플에 이어 3위에 올랐는데, 이는 지난해 6월 시총 1조 달러를 넘어선 지 8개월 만에 만들어 냈다는 점에서 세계의 주목을 받기에 충분했으며, 엔비디아에 대한 관심은 지금도 계속되고 있다.

2016년 3월에 있었던 구글 딥마인드가 개발한 AI 바둑 프로그램 ‘알파고(AlphaGo)’와 이세돌 9단과 바둑 대결은 AI의 화려한 등장을 예고한 사건이었다. 물론 AI에 대한 연구는 최근에 시작된 것은 아니다. 1960년 미국 메사추세츠공대(MIT)의 매카시 교수 연구팀이 AI 소프트웨어 개발을 위해 LISP라는 프로그래밍 언어를 발표하면서 본격적인 연구가 시작됐다고 할 수 있다. 연구에만 머물고 있던 AI가 실제 환경에 활용되는 단초가 된 알파고의 등장은 대중의 관심을 촉발했다.


오르고 또 오르는 엔비디아 주가

AI에 대한 관심이 폭발적으로 늘어난 또 다른 사건은 2022년 11월 오픈AI(OpenAI)의 챗GPT(ChatGPT) 발표라 할 수 있다. 2023년 2월 기준으로 전 세계 2억 명 이상이 사용하는 것으로 추정되는 대화형 인공지능 서비스인 챗GPT는 사회 전반에 걸쳐 많은 변화와 사고의 전환을 가져오고 있다.

이러한 발전을 뒷받침하고 있는 근간에 엔비디아라는 회사가 있다. 기존의 컴퓨터에 사용되는 CPU(중앙처리연산장치)로는 AI 개발에 한계가 있다. AI에는 필수적으로 GPU(그래픽 처리장치)를 사용해야 하는데, 이와 관련된 독보적인 기술력과 솔루션을 제공하는 회사가 바로 엔비디아다.

앞서 언급한 것처럼 엔비디아의 주가는 단기간에 급등하고 있다. 엔비디아의 지난 20년 동안의 시가 총액 변동 상황을 살펴보면, 2001년 상장 후 2013년까지는 소폭 증가했지만, 2014년을 기점으로 상승 폭을 키워가다가 2016년에는 224% 성장을 기록했다.

연도별로 살펴봤을 때, 2016년의 결과는 앞서 언급한 바와 같이 알파고의 등장으로 인해 AI에 대한 시장의 관심과 향후 관련 기술 발전에 대한 기대가 반영된 것이라 할 수 있다. 2016년부터 가파르게 상승한 엔비디아의 매출과 시가 총액은 2022년 챗GPT 등장으로 계속 이어지게 된다.

AI가 거의 모든 영역에 적용되고, 사회 모든 발전의 핵심 축으로 자리 잡아 가고 있음을 증명하면서 엔비디아의 주가는 일반인의 상상을 뛰어넘을 만큼 오르고, 또 오르고 있다.

그림 1. 엔비디아 시가총액 및 매출 추이 (출처 : https://ko.tradingeconomics.com/nvda:us:market-capitalization & https://kr.investing.com/equities/nvidia-corp-earnings)
그림 1. 엔비디아 시가총액 및 매출 추이 (출처 : https://ko.tradingeconomics.com/nvda:us:market-capitalization & https://kr.investing.com/equities/nvidia-corp-earnings)

이런 상황에서 엔비디아의 성장은 언제까지 계속될 것인지에 대한 의문이 들 수 있다. AI 기술의 추이와 방향을 알아보면 이 물음에 대한 답을 구할 수 있을 것이다.

엔비디아의 성장은 AI에 필수적인 머신러닝(Machine Learning, ML)에 소요되는 컴퓨팅(Computing) 소요 시간과 매우 밀접한 연관이 있다. 1957년 뉴럴 네트워크(Neural Network)의 알고리즘인 퍼셉트론(Perceptron)을 시작으로 AI 시스템 학습이 본격화됐다. 이후 2012년까지 훈련을 위해 매년 약 2배의 연산이 필요했음을 아래 <그림 2>를 통해 알 수 있다. 이를 AI 연산의 첫 번째 세대라 할 수 있다.

그림 2. 2020년대까지의 AI 시스템 학습 연산에서의 두 세대 (출처 : AI and compute (Amodei and Hernandez 2018), https://openai.com/research/ai-and-compute)
그림 2. 2020년대까지의 AI 시스템 학습 연산에서의 두 세대 (출처 : AI and compute (Amodei and Hernandez 2018), https://openai.com/research/ai-and-compute)

이후 2012년 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)에서 알렉스넷(AlexNet)이 CNN 아키텍처(Architecture) 기반으로 우승이라는 성과를 거뒀고, CV(Compute Vision)의 가장 영향력 있는 논문이 됐다. 알렉스넷은 연산에 많은 자원이 소요되는 Architecture나 GPU를 활용해 구현했고, 이를 계기로 GPU의 가속은 CV 영역의 필수 요소가 됐다고 할 수 있다. 이러한 변화는 AI의 시스템 학습 연산을 연간 8배씩 증가시키는 결과를 낳았고, 이 세대를 AI 연산의 새로운 세대라 이야기하고 있다.

이후, 또 다른 AI의 변곡점을 맞이하게 됐다. 2017년 구글 브레인(Google Brain)에서 발표한 ‘Attention Is All You Need’라는 논문에서 트랜스포머(Transformer)라는 구조를 설명했고, 이를 기점으로 AI의 수많은 연구와 논문들이 쏟아져 나왔다. 이에 대한 성과로 구글 버트(Google BERT), 오픈AI GPT 등의 거대언어모델(LLM)이 나오기 시작했다. 2022년 오AI가 발표한 GPT-3는 모든 산업 분야에 적용되면서 AI 산업의 활성화에 크게 기여했다. <그림 3>은 트랜스포머를 활용하는 연산의 요구사항이 2년마다 215배씩 증가하고 있다는 것을 보여준다.

그림 3. 새로운 AI의 학습을 위한 연산 요구사항 (출처: 엔비디아)
그림 3. 새로운 AI의 학습을 위한 연산 요구사항 (출처: 엔비디아)

결국 현재 AI의 동향은 엄청난 GPU 자원을 통해 만들어지고 있는 트랜스포머 기반의 다양한 생성 AI가 주류를 이루고 있으며, 이를 활용해 다양한 AI 서비스가 만들어지고 있다.

모델에서 많은 양의 파라미터(Parameter)를 요구하고 있어 이를 추론하는 데 많은 GPU의 자원이 필요하다. GPT-4의 경우 약 1조 개의 파라미터를 근간으로 하고 있다. 점점 더 많은 변수와 자료를 통한 추론, 다양한 환경과 분야에서의 활용 등으로 인해 더 많은 GPU가 요구될 것이 확실하기 때문에 이 시장을 독점하고 있는 엔비디아가 계속해서 더 큰 성장을 할 것으로 예상할 수 있다.

물론, GPU를 만드는 화사가 비단 엔비디아만 있는 것은 아니다. CPU 제조사로 알려진 인텔과 AMD도 AI 관련된 칩을 지속적으로 발표하고 있다. 인텔은 이전 버전인 ‘가우디2’보다 속도가 4배 빠르며, 고대역폭 메모리(HBM) 용량이 1.5배 늘어난 ‘가우디3’이라는 신형 AI 가속기를 최근 출시했다. AMD도 지난해 12월 엔비디아의 최신 그래픽처리장치인 H100에 대적하기 위해 M1300X 시리즈를 출시했다.

그러나 AI 시장에서의 주도권은 당분간 엔비디아가 계속해서 유지할 것으로 보인다. 거의 모든 AI 개발의 근간은 엔비디아의 쿠다(CUDA)이다. CUDA(Compute Unified Device Architecture)는 GPU에서 수행하는 병렬 처리 알고리즘을 C 프로그래밍 언어를 비롯한 산업 표준 언어를 사용해 작성할 수 있도록 하는 GPGPU (General-Purpose computing on Graphics Processing Units) 기술이다.

다시 말하면, 일반적으로 컴퓨터 그래픽스를 위해 계산만 맡았던 GPU를 전통적으로 CPU가 맡았던 응용 프로그램들을 계산하는 데 사용할 수 있게 하는 기술이다. 쿠다를 통해 개발자들은 GPU 내의 병렬 계산 요소 고유의 명령어 집합과 메모리에 접근할 수 있다. CPU와 달리 GPU는 병렬 다수 코어 구조를 가지고 있고, 각 코어는 수천 스레드를 동시에 실행시킬 수 있다.


엔비디아 시장 지배력 당분간 계속될 것

응용 프로그램이 수행하는 작업(계산)이 이러한 병렬처리연산에 적합할 경우, GPU를 이용함으로써 커다란 성능 향상을 기대할 수 있다. 쿠다 아키텍처를 사용하려면 엔비디아 GPU와 특별한 스트림 처리 드라이버가 필요하다.

쿠다를 사용해 AI와 관련된 개발을 하기 위해서는 엔비디아의 GPU가 필수적이기 때문에 타사의 GPU를 사용할 수 없다. 쿠다를 대체할 만한 개발 플랫폼을 거의 찾아보기 힘든 상황이다. 이러한 사실이 엔비디아의 시장 지배력이 계속될 것으로 전망되는 이유이다. 즉, 하드웨어 및 소프트웨어에서의 엔비디아의 장악력이 너무도 강하기 때문에, 엔비디아의 지속적인 성장이 예상된다는 것이다.

빠르게 변화되고 있는 AI 트랜드에 발맞춰 엔비디아의 신제품 출시도 계속되고 있다. 지난 2022년 9월 출시된 엔비디아의 호퍼 아키텍처(Hopper Architecture) 기반의 H100 GPU의 경우 트랜스포머 엔진이 내장돼 있어 트랜스포머 모델에 더욱 강력한 성능을 보여주고 있다. H100의 다음 버전인 H200도 곧 출시를 앞두고 있다. H200는 2021년에 출시된 A100보다 오픈AI의 GPT-3 추론에서 18배 빠른 성능을 보여줄 것으로 예상된다.


AI, 우려보다는 기대가 더 커

불과 4년도 되지 않은 기간에 그 성능이 18배 이상 증가했다는 사실은 이 분야에서의 기술 발전 속도가 얼마나 빠른지를 보여주고 있다. 보다 정확하고 신속한 추론을 위해서는 더 많은 파라미터에 근거해야 하고, 이를 근거로 추론하기 위해선 뛰어난 성능의 솔루션이 필요하다. 이런 요구사항을 적극적으로 수용하고 또한 그 흐름을 잘 파악해 신속하게 대응하고 있는 엔비디아는 ‘AI의 발전은 인프라스트럭처(Infrastructure)의 기술 대처가 기반이 돼야 한다’는 사실을 인지하고 신속하게 이에 대처할 수 있는 솔루션을 적시에 출시하고 있다.

이번 기고에서 AI 트랜드에 영향을 미치고 있는 GPU와 관련한 사항들을 엔비디아의 성장을 통해 살펴봤다.

얼마 전 오픈AI는 동영상 인공지능 플랫폼인 소라(Sora)를 공개했다. 소라(Sora)는 동영상을 만들기 위한 프롬프트만 입력하면 이와 관련된 동영상을 제작해 주는 플랫폼이다.

입력된 내용에 근거해 관련 동영상을 추론하고 생성하는 소라(Sora)는 AI의 발전과 확산의 영역에 대해 한계가 어디까지인지 추론할 수 없게 하는 또 다른 예시라 할 수 있다.

이미 인간의 실생활에 깊숙이 자리 잡은 AI에 대해 기대와 우려가 동시에 존재하고 있지만, 지금으로서는 우려보다는 기대가 크기 때문에 AI가 발전하는 모습에 사람들은 환호를 보내고 있다고 생각한다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지