전체 ML 모델 개발 라이프사이클 효율화해 AI 모델 개발 속도 향상 가능
[아이티데일리] 스노우플레이크는 자사 플랫폼에 머신러닝(ML) 워크플로우를 직접 가속화할 수 있도록 엔비디아 쿠다-X(NVIDIA CUDA-X) 라이브러리를 통합했다고 19일 밝혔다.
이번 라이브러리 통합은 스노우플레이크 ML에 오픈소스 라이브러리인 엔비디아 쿠다-X를 사전 탑재한 것이다. 스노우플레이크 고객들은 GPU 가속 알고리즘을 ML 워크플로우에 즉시 활용할 수 있다. 전체 ML 모델 개발 라이프사이클을 단순·효율화함으로써 데이터 사이언티스트들은 코드 수정을 하지 않아도 주요 파이썬 라이브러리 기반 모델의 개발 속도를 크게 높일 수 있다.
상세하게는 엔비디아 쿠다-X 데이터 사이언스(CUDA-X DS) 생태계에서 제공되는 ‘엔비디아 cuML’, ‘엔비디아 cuDF 라이브러리’를 스노우플레이크 ML에서 활용할 수 있다. scikit-learn, pandas, UMAP, HDBSCAN 등 라이브러리의 개발 사이클을 별도의 코드 변경 없이 단축할 수 있다.
또한 엔비디아 고객들도 쿠다-X 데이터 사이언스 생태계에서 스노우플레이크 컨테이너 런타임(Snowflake Container Runtime)를 직접 활용할 수 있게 됐다. 스노우플레이크 컨테이너 런타임은 대규모 ML 개발을 위한 사전 구축 환경으로, 고난도 연산 작업을 효율적으로 처리할 수 있게 한다.
예를 들어 기업은 수백만 건의 제품 리뷰와 같은 대규모 테이블 데이터를 처리 및 클러스터링하는 시간을 CPU 기준 수 시간에서 GPU 기반 수 분으로 단축할 수 있다. 또한 컴퓨터 유전체학(Computational Genomics) 연구에서도 GPU 수준을 높여 방대한 고차원 시퀀스 분석 속도를 높이고 분류 작업을 신속하게 해 인사이트 도출에 집중할 수 있게 한다.
양사는 이번 통합을 통해 AI 데이터 클라우드 내 생성형 AI 역량을 한층 강화했다. 스노우플레이크는 전통적인 ML 모델 개발부터 엔터프라이즈급 LLM 배포에 이르기까지 고객이 고도화된 GPU 가속 도구를 활용할 수 있도록 협력 관계를 넓혀간다는 계획이다.
스노우플레이크 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석부사장은 “스노우플레이크는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 하며 엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정”이라며 “쿠다-X 라이브러리를 스노우플레이크 플랫폼에 통합함으로 데이터 사이언티스트가 인프라 관리에 쓰는 시간을 줄이고 비즈니스 인사이트 도출과 성과 창출에 집중할 수 있게 될 것”이라고 말했다.
엔비디아 팻 리(Pat Lee) 엔터프라이즈 전략 파트너십 부문 부사장은 “인텔리전스를 실현하는 원시 데이터를 인사이트로 전환하는 과정이 생성형 AI와 에이전트 AI의 핵심”이라며 “엔비디아 cuDF와 cuML 라이브러리를 스노우플레이크 ML 플랫폼에 직접 통합해 고객은 기존 파이썬 워크플로우 그대로 가속 컴퓨팅을 활용할 수 있게 됐으며, 이를 통해 기업들은 더욱 쉽게 AI 개발에 집중할 수 있어 개발 속도가 획기적으로 향상될 것”이라고 밝혔다.


