30% 많은 머신러닝 모델 훈련 가능, 인공신경망 모델 테스트 속도 2배 향상

▲ 페이스북의 차세대 AI 서버 ‘빅베이슨’에 탑재된 엔비디아 ‘테슬라 P100’

[아이티데일리] 엔비디아(CEO 젠슨 황)는 자사 ‘파스칼(Pascal)’ 아키텍처 기반 ‘테슬라 P100(Tesla P100)’ GPU 가속기가 페이스북의 차세대 인공지능(AI) 서버 ‘빅베이슨(Big Basin)’에 활용된다고 16일 밝혔다.

‘빅베이슨’ 서버에 탑재된 8개의 ‘테슬라 P100’ GPU는 향상된 성능을 통해 페이스북 내 게재된 이미지의 사물이나 사람의 얼굴을 인식하고, 실시간 텍스트 번역을 비롯해 사진 및 동영상 콘텐츠 내용을 보다 정확히 이해할 수 있도록 지원한다.

엔비디아 ‘테슬라 P100’은 이전 세대인 ‘맥스웰(Maxwell)’ 기반 솔루션보다 12배 향상된 뉴럴 네트워크(neural networks) 트레이닝 성능을 보여주는 하이퍼스케일 데이터센터 가속기다. 빅데이터 작업을 위해 HBM2(고대역폭 메모리)을 탑재한 CoWoS(Chip on Wafer on Substrate) 형태의 메모리 디자인을 통해, 이전 서버 대비 3배 이상 높은 초당 720GB의 메모리 대역폭 성능을 제공한다. 진보된 성능과 확장성, 프로그래밍 효율성으로 연산 집약적인 AI 및 HPC(고성능컴퓨팅) 데이터센터 애플리케이션에 최적화된 효율성을 보인다는 게 엔비디아 측 설명이다.

‘빅베이슨’은 엔비디아의 초고속 ‘NV링크(NVLink)’ 인터커넥트 기술을 지원하는 ‘테슬라P100’ GPU로 확장성을 극대화했으며, 메모리 용량도 이전 시스템의 12GB에서 16GB로 증가시켜 향상된 연산 능력을 갖췄다. 이에 따라 ‘빅베이슨’은 이전 대비 30% 이상 많은 머신러닝 모델을 훈련할 수 있으며, 표준화된 인공신경망 모델 테스트에서는 2배가량 향상된 처리속도를 달성한 바 있다는 게 엔비디아 측 주장이다.

엔비디아 ‘테슬라 P100’이 활용된 ‘빅베이슨’ 서버 디자인은 데이터센터 하드웨어 및 소프트웨어에 관한 협력 및 공유를 지원하는 페이스북의 ‘오픈 컴퓨트 프로젝트(OCP)’에 따라 가까운 시일 내 일반 대중에게 공개될 예정이다.

한편, 현재 엔비디아의 GPU는 다양한 분야에 활발히 활용되고 있다. 2015년 페이스북이 선보인 이전 세대 서버 시스템인 ‘빅서(Big Sur)’에도 엔비디아의 ‘테슬라 M40’ GPU가 적용된 바 있으며, 엔비디아 ‘테슬라 P100’ GPU는 얼마 전 일본의 초고속 AI 슈퍼컴퓨터 ‘츠바메(TSUBAME) 3.0’ 및 ‘구글 클라우드 플랫폼(GCP)’에 탑재됐다고 발표된 바 있다. 이 밖에도 IBM, HP, 델, 크레이 등이 엔비디아 ‘테슬라 P100’을 탑재한 서버 완성품을 이번 1분기부터 공급할 계획이다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지