최첨단 HPC 클러스터 ‘카디널’ 통해 과학 및 연구 분야 AI 혁신 지원

인텔이 오하이오 슈퍼컴퓨터 센터에 새로운 HPC 클러스터로 AI 처리 능력을 2배 향상시켰다.
인텔이 오하이오 슈퍼컴퓨터 센터에 새로운 HPC 클러스터로 AI 처리 능력을 2배 향상시켰다.

[아이티데일리] 인텔은 델 테크놀로지스(Dell Technologies), 엔비디아(Nvidia), 오하이오 슈퍼컴퓨터 센터(Ohio Supercomputer Center, 이하 OSC)와 협업한 결과인 최첨단 고성능 컴퓨팅(HPC) 클러스터 ‘카디널(Cardinal)’을 공개했다고 23일 밝혔다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 특별히 설계됐다.

인공지능(AI)과 머신러닝(ML)은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수적으로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다.

카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족할 수 있는 하드웨어를 갖추고 있다. 기능과 용량 모든 면에서 이번 새로운 클러스터는 2016년에 출시된 오웬스 클러스터(Owens Cluster)를 대체할 시스템보다 더 대규모의 업그레이드가 될 것으로 알려졌다.

카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성(portability) 및 에코시스템 채택을 촉진하는 기반이 되는 ‘델 파워엣지(Dell PowerEdge)’ 서버와 고대역폭 메모리(HBM)를 갖춘 ‘인텔 제온 CPU 맥스 시리즈(Intel Xeon CPU Max Series)’를 활용한 이기종 시스템이다.

해당 시스템은 △총 39,312 CPU 코어를 제공하는 756개 맥스 시리즈(Max Series) CPU 9470 프로세서 △128 기가바이트(GB) HBM2e 및 노드 당 512 GB의 DDR5 메모리 등이 특징이다.

단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춘 해당 클러스터는 광범위한 사용 케이스를 처리하고 쉽게 도입 및 배포할 수 있도록 지원한다. 이를 통해 OSC의 처리 능력을 두 배 이상 향상시킬 수 있다.

이 시스템은 또한 △32개의 노드로 104개의 코어, 1테라바이트(TB)의 메모리, 4개의 NV링크(NVLink) 연결로 상호 연결된 94GB HBM2e 메모리를 갖춘 엔비디아 호퍼 아키텍처 기반 H100 텐서 코어(H100 Tensor Core) GPU 4개 탑재 △초당 400기가비트(Gbps)의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2(Nvidia Quantum-2) 인피니밴드(InfiniBand)로 대규모 AI 기반 과학 애플리케이션을 위한 500페타플롭(petaflop)의 최고 AI 성능(희소성 포함 FP8 텐서 코어)을 제공 △16개의 노드에 104개의 코어, 128GB HBM2e 및 2TB DDR5 메모리를 탑재해 대규모 대칭형 멀티프로세싱(SMP) 스타일 작업 처리 가능 등도 특징이다.

인텔 데이터 센터 AI 솔루션 제품군 총괄 오기 브르기치(Ogi Brkic) 부사장은 “인텔 제온 CPU 맥스 시리즈는 가장 널리 채택된 AI 프레임워크와 라이브러리를 활용해 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지”라며 “이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것이다. 핵심 분야에서 기존 및 미래 데이터의 분석 속도를 크게 높여주는 솔루션으로 OSC와 생태계를 지원하게 돼 기쁘다”고 밝혔다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지