5세대 에픽 프로세서, 인스팅트 MI325X 가속기 등 엔터프라이즈급 제품군 선봬
[아이티데일리] AMD는 미국 캘리포니아주 샌프란시스코에서 10일(현지시각) ‘어드밴싱 AI 2024(Advancing AI 2024)’를 개최해 차세대 엔터프라이즈급 AI 솔루션을 대거 공개했다고 밝혔다.
행사에서는 △5세대 AMD 에픽(AMD EPYC) 서버용 CPU △AMD 인스팅트 MI325X(AMD Instinct MI325X) 가속기 △AMD 펜산도 살리나 DPU(AMD Pensando Salina DPU) △AMD 펜산도 폴라라 400 NIC(AMD Pensando Pollara 400 NIC) △엔터프라이즈 AI PC용 프로세서인 AMD 라이젠 AI 프로 300(AMD Ryzen AI PRO 300) 시리즈 등이 발표됐다.
또한 AMD는 주요 파트너사와 함께 AMD AI 솔루션을 대규모로 배포하는 방안과 ‘AMD ROCm’ 개방형 AI 소프트웨어(SW)의 지속적인 생태계 성장에 대해 논의했다. AMD 인스팅트 가속기와 에픽 CPU 및 라이젠 프로 CPU를 기반으로 하는 광범위한 새로운 솔루션 포트폴리오도 선보였다.
AMD의 리사 수(Lisa Su) CEO는 “데이터센터와 AI는 AMD에 큰 성장 기회를 제공하고 있다. 고객군이 증가하는 가운데 에픽 및 AMD 인스팅트 프로세서에 대한 강력한 모멘텀이 형성되고 있다”며 “새로운 에픽 CPU, AMD 인스팅트 GPU 및 펜산도 DPU를 통해 고객의 중요하고 까다로운 워크로드를 구동하는 선도적인 컴퓨팅을 제공하고 있다. 앞으로 데이터 센터 AI 가속기 시장은 2028년까지 5천억 달러(한화 약 674조 5천억 원) 규모로 성장할 전망이다. 우리는 확장된 반도체 제품군, SW, 네트워크 및 클러스터 수준 솔루션을 통해 대규모의 개방형 기술 혁신을 제공하고자 최선을 다하고 있다”고 말했다.
차세대 데이터센터 솔루션 포트폴리오 발표
이번 행사에서 AMD는 새로운 AMD 에픽 9005 시리즈 프로세서를 발표했다. 최신 ‘젠 5(Zen 5)’ 아키텍처를 기반으로 하는 AMD 에픽 9005 시리즈 프로세서 제품군은 최대 192개의 코어가 탑재되며, 주요 OEM 및 ODM의 다양한 플랫폼에 탑재 및 공급된다.
또한 AMD는 매년 새로운 AI 가속기를 공개하는 연간 제품 발표 주기에 따라 새로운 AMD 인스팅트 MI325X를 출시한다고 밝혔다. 해당 제품은 가장 까다로운 AI 워크로드를 지원하는 높은 수준의 성능과 메모리 용량을 제공한다. AMD는 내년 하반기에 출시될 예정인 차세대 AMD 인스팅트 MI350 시리즈 가속기에 대한 새로운 세부 정보도 공유했다. 차세대 제품은 더욱 높은 용량의 메모리가 탑재돼 한층 확장된 생성형 AI 성능을 제공할 예정이다. 또 2026년 출시 예정인 ‘AMD CDNA 넥스트(AMD CDNA Next)’ 아키텍처 기반의 AMD 인스팅트 MI400 시리즈 가속기 개발도 순조롭게 진행 중이라고 발표했다.
아울러 AMD는 AMD ROCm SW 스택을 지속적으로 개선해 다양한 인기 AI 모델에서 AMD 인스팅트 MI300X 가속기의 추론 및 학습 성능을 두 배로 높였다고 강조했다. 현재 100만 개가 넘는 모델이 AMD 인스팅트에서 바로 원활하게 실행 가능하며, MI300X 출시 당시 지원했던 수의 세 배에 달하는 주요 모델에 대한 데이제로 지원이 제공된다는 설명이다.
특히 AMD는 AI 인프라와 관련해 진화하는 시스템 네트워킹 요구 사항을 충족하고자 고성능 네트워킹 포트폴리오를 확장했다. 이번에 공개된 AMD 펜산도 살리나 DPU는 AI 시스템용 고성능 프론트엔드 네트워크를 제공한다. 최초로 울트라 이더넷 컨소시엄(UEC)의 기술 표준을 지원하는 네트워크 인터페이스 컨트롤러(NIC)인 AMD 펜산도 폴라라 400은 보다 손쉬운 성능 튜닝과 생산 시간 단축을 지원한다.
파트너사와 개방형 AI 생태계 확장 논의
이번 행사에 참여한 다양한 AMD 파트너사는 AMD의 데이터센터 솔루션을 활용해 높은 수준의 생성형 AI 기능을 구현하고 클라우드 인프라를 제공하며 온프레미스 및 하이브리드 데이터 센터를 구동하는 방법 등에 대해서도 설명했다.
AMD 인스팅트 MI300X 가속기는 지난해 12월 출시 이후 주요 클라우드 선도기업, OEM 및 ODM 파트너를 통해 대규모 배포됐다. 이후 오픈AI(OpenAI)의 챗GPT(ChatGPT), 메타 라마(Meta Llama) 및 허깅 페이스(Hugging Face) 플랫폼의 100만 개 이상의 오픈소스 모델을 포함, 다양한 주요 AI 모델에서 매일 수백만 명의 사용자에게 서비스를 제공하고 있다.
구글(Google)은 AI ROI를 극대화하도록 설계된 슈퍼컴퓨팅 아키텍처인 AI 하이퍼컴퓨터(AI Hypercomputer) 사례를 비롯, AMD 에픽 프로세서가 AI, 고성능, 범용 및 기밀 컴퓨팅을 위한 다양한 인스턴스를 어떻게 지원하고 있는지 설명했다. 또한 에픽 9005 시리즈 기반 가상머신(VM)이 내년 초 출시될 예정이라고 발표했다.
오라클 클라우드 인프라스트럭처(OCI)는 AMD 에픽 CPU, AMD 인스팅트 가속기 및 펜산도 DPU를 활용해 우버(Uber), 레드불 파워트레인(Red Bull Powertrains), 페이팔(PayPal) 및 파이어웍스 AI(Fireworks AI)와 같은 고객에게 빠르고 에너지 효율적인 컴퓨팅 및 네트워킹 인프라를 제공하는 방법을 공유했다. OCI는 에픽 9005 프로세서로 구동되는 새로운 E6 컴퓨팅 플랫폼도 공개했다.
데이터브릭스(Databricks)는 모델과 워크플로우가 AMD 인스팅트 및 ROCm에서 원활하게 실행되는 방식을 강조했으며, 자체 테스트 결과 AMD 인스팅트 MI300X GPU의 대용량 메모리와 컴퓨팅 기능이 라마와 데이터브릭스 독점 모델에서 성능을 50% 이상 개선하는 데 도움이 된다고 밝혔다.
마이크로소프트(Microsoft)의 사티야 나델라(Satya Nadella) CEO는 제품 공급 및 인프라 전반에 걸쳐 AMD와 오랫동안 협력하고 함께 혁신을 이뤄 왔으며, MI300X는 마이크로소프트 애저(Microsoft Azure) 및 GPT 워크로드에서 강력한 성능을 제공한다고 강조했다. AMD와 MS 양사 CEO는 AMD 인스팅트 로드맵과 관련, 긴밀한 파트너십에 대해 언급하고 MS가 MI350 시리즈 등 차세대 AMD 인스팅트 가속기를 활용해 AI 애플리케이션에 대한 높은 가격 대비, 전력 대비 성능을 제공할 예정이라고 밝혔다.
메타(Meta)는 AMD 에픽 CPU와 AMD 인스팅트 가속기가 AI 배포 및 서비스 전반에 걸친 컴퓨팅 인프라를 구동하는 방법을 설명했으며, MI300X가 라마 405B에서 모든 라이브 트래픽을 제공한다고 언급했다. 또한 반도체와 시스템 및 네트워킹에서 SW 및 애플리케이션에 이르기까지 AI 성능을 최적화하고자 AMD와 협력하고 있다고 강조했다.
OEM 부문의 선도 기업인 델(Dell), HPE, 레노버(Lenovo) 및 슈퍼마이크로(Supermicro)는 AI 시대의 데이터 센터 현대화를 목표로 설계된 새로운 플랫폼에 높은 성능과 에너지 효율성을 갖춘 AMD 에픽 프로세서 기반 라인업을 확장 도입하고 있다고 밝혔다.
아울러 AMD는 AMD ROCm 개방형 SW 스택을 확장해 개발자가 AMD 인스팅트 가속기의 성능을 최대로 활용하는 한편, 최신 AI 모델에 대한 빠르고 손쉬운 지원을 제공할 수 있도록 지원한다고 강조했다. 에센셜 AI(Essential AI), 파이어웍스 AI(Fireworks AI), 루마 AI(Luma AI), 레카(Reka AI)의 담당자들은 AMD 하드웨어(HW) 및 SW에서 각 모델을 최적화하는 방안에 대해 설명했다.
또한 AMD는 MS, 오픈AI, 메타, 코히어(Cohere), xAI 등 AI 개발자 생태계 전반의 기술 리더가 참석한 개발자 이벤트도 개최했다. 트라이톤(Triton), 텐서플로우(TensorFlow), vLLM 및 페이지드 어텐션(Paged Attention), 패스트챗(FastChat) 등 주요 AI 프로그래밍 언어, 모델 및 프레임워크의 개발자가 주최한 다수의 전문가 프레젠테이션이 진행됐다. 이를 통해 개발자가 독립적인 프로그래밍 언어를 활용해 AI 성능 최적화하고 AMD 인스팅트 가속기에서 모델을 가속화하는 방법, ROCm SW로 손쉽게 이식하는 방법에 대해 공유하며 생태계가 개방형 소스 접근 방식을 통해 얻는 이점과 혜택에 대해서도 설명했다.
AI PC용 프로세서 ‘라이젠 AI 프로 300 시리즈’ 발표
AMD는 기업 환경에서 사용할 수 있는 MS 코파일럿+(Microsoft Copilot+) 노트북 프로세서인 ‘AMD 라이젠 AI 프로 300 시리즈’도 발표했다. 라이젠 AI 프로 300 시리즈 프로세서 제품군은 기업 사용자를 위한 엔터프라이즈급 보안 및 관리 기능을 추가로 제공해 높은 성능과 배터리 수명 등을 지원한다.
새로운 기업용 프로세서인 라이젠 AI 프로 300 시리즈 프로세서는 AMD 젠 5 및 AMD XDNA 2 아키텍처가 탑재됐다. 해당 제품군 중 라이젠 AI 9 HX 프로 375 프로세서는 55 NPU TOPS의 AI 성능을 제공해 로컬 AI 작업 처리를 지원한다.
이와 관련 MS는 윈도우 11 코파일럿+와 라이젠 AI 프로 300 시리즈가 새로운 생산성 및 보안 기능, 차세대 AI 경험을 제공한다고 강조했다. 또 HP와 레노버를 비롯한 OEM 파트너는 라이젠 AI 프로 300시리즈 프로세서로 구동되는 새로운 PC를 통해 기업용 제품 포트폴리오를 확대하고 있으며, 내년까지 100개 이상의 플랫폼을 출시할 예정이다.


