엔비디아 ‘파스칼’ 아키텍처 기반 ‘테슬라 P100’ 스케일아웃 확장 가능

 
[아이티데일리] 슈퍼마이크로 한국 공식 총판 디에스앤지시스템(대표 서정열)은 딥러닝에 최적화된 엔비디아(NVIDIA) ‘파스칼(Pascal)’ GPU를 장착한  슈퍼마이크로 서버를 출시한다고 15일 밝혔다.

딥러닝은 최근 인공지능 분야에 있어 가장 주목받고 있는 기계학습 방법으로, 올해 엔비디아는 딥러닝에 적합한 ‘파스칼’ 아키텍처 기반의 ‘테슬라(Tesla) P100’ GPU 가속기를 선보인 바 있다. ‘파스칼’ GPU는 보다 정밀하며 빠른 컴퓨팅을 가능하게 해 딥러닝의 핵심인 분류 및 결과 도출에 최적화돼 있다. 특히 신기술인 ‘NV링크(NVLink)’는 GPU 가속 컴퓨팅을 위한 초고속 인터커넥트(Interconnect) 기술로 최대 80GB/s의 대역폭을 통해 GPU 간 직접 커뮤니케이션이 가능하다.

엔비디아는 ‘테슬라 P100’을 기존 PCI-E 방식과 보드의 GPU 전용 소켓에 직접 장착하는 ‘SXM2’ 방식등 크게 2가지 타입으로 선보였는데, 슈퍼마이크로는 ‘파스칼’ GPU의 성능을 극대화하는 동시에 다수의 ‘파스칼’ GPU 노드로 확장이 가능한 전용 시스템을 총 3가지 모델로 출시했다.

먼저 SXM2 타입 서버는 ‘SYS-1028GQ-TXR’과 ‘SYS-4028GR-TXR’ 2가지 모델로 구성되며, 각각 4개 및 8개의 ‘테슬라 P100’을 지원한다. NV링크를 통해 PCI-E 인터페이스에 비해 더욱 빠른 GPU 간 연결을 제공하며, PCI-E 스위치와 NIC(네트워크 인터페이스 카드)를 직접 연결함으로써 다수의 GPU 노드로 스케일아웃(Scale-out) 확장도 가능하다(RDMA; Remote Direct Memory Access 방식 활용). 

PCI-E 타입 ‘파스칼’ GPU 서버는 ‘SYS-4028GR-TR2’ 모델 1종으로 GPU 간 커뮤니케이션 시 CPU QPI(QuickPath Interconnect)를 한 번 더 거쳐야 했던 기존 ‘SYS-4028GR-TR’ 모델과는 달리 단일 경로(Single Root)를 통한 저지연성을 제공한다. 이러한 이점은 엔비디아 ‘GTX’ 시리즈를 통해서도 누릴 수 있어, 보다 비용 효율적인 GPU 서버 구축도 가능하다.

디에스앤지시스템 관계자는 “슈퍼마이크로의 파스칼 GPU 최적화 서버는 딥러닝을 이루기 위한 충분한 하드웨어적 뒷받침을 제공한다”면서, “무엇보다 슈퍼마이크로와 엔비디아가 높은 협력관계를 유지하고 있어 이 같은 솔루션을 선도적으로 개발할 수 있었다”고 설명했다.

그는 이어 “딥러닝은 보다 정확한 학습 및 적용을 위해 빅데이터와의 협력이 필연적인데, 디에스앤지시스템은 하둡 및 빅데이터의 실질적 표준인 호튼웍스와의 파트너십을 통해 딥러닝 솔루션의 모든 것을 제공한다”고 덧붙였다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지