규모∙성능∙비용 효율성∙지속 가능성 높아 대규모 머신러닝 모델 훈련 혁신 기대

[아이티데일리] 구글 클라우드는 맞춤형 머신러닝 HW 가속기 ‘클라우드 TPU(Tensor Processing Unit)’의 4세대 버전 ‘TPU v4포드(Pod) 기반 머신러닝 클러스터’를 발표했다고 31일 밝혔다.

구글 클라우드에 따르면, ‘클라우드TPU v4포드’로 구동되는 구글 클라우드의 ‘머신러닝 클러스터’는 연구원과 개발자가 AI분야의 최전선에서 혁신성을 높일 수 있도록 지원한다. ‘머신러닝 클러스터’를 이용해 정교해지는 대규모 자연어처리(NLP), 추천 시스템, 컴퓨터 비전 모델용 워크로드를 ‘클라우드TPU v4’에서 훈련할 수 있게 됐다.

특히 ‘클라우드 TPU v4 기반 머신러닝 클러스터’는 대규모 모델의 고속 훈련이 가능하다. 각각의 ‘클라우드TPU v4’ 포드는 4,096개의 칩이 상호 연결된 고속 네트워크로 구성돼있어 호스트 당 6Tbps(초당 테라비트) 대역폭을 지원한다.

구글 클라우드 머신러닝 클러스터는 모델 훈련에 필요한 비용을 절감할 수 있다. ‘클라우드TPU v4칩’은 ‘클라우드TPU v3’ 대비2.2배 향상된 피크 플롭스(peak FLOPS)를 지원하며, 달러 당 피크 플롭스도 1.4배 높아졌다. 특히 ‘클라우드TPU v4’는 수천 개의 칩으로 머신러닝 모델의 훈련 능력을 향상시킬 수 있으며, 높은 네트워크 대역폭과 컴파일러(compiler) 최적화로 타 시스템 대비 활용도도 높다. 이를 통해 기업은 모델 훈련 시간을 단축하며 비용 효율성을 높일 수 있다는 것이다.

환경에도 친화적이다. 미국 오클라호마 데이터센터에서 구동되는 ‘머신러닝 클러스터’는 동일한 전력망 안에서 시간 당 90%의 무탄소에너지로 운영된다. 구글은 지속 가능성을 위한 노력의 일환으로 2017년부터 데이터센터 및 클라우드 리전의 연간 에너지 소비량과 재생 에너지 구매량을 100%로 동일하게 맞추고 있으며, 2030년까지 전체 비즈니스의 무탄소에너지 운영을 목표로 하고 있다.

구글 클라우드는 지난해 ‘구글I/O 2021’에서 ‘클라우드TPU v4’를 처음 발표한 후 LG AI 연구원, 카카오브레인, 메타AI(Meta AI), 세일즈포스리서치(Salesforce Research), 코히어(Cohere) 등 국내‧외 유수의 AI 연구팀에 ‘클라우드TPU v4포드’의 얼리 액세스 버전을 제공한 바 있다.

구글 클라우드 측은 “연구팀들은 ‘클라우드TPU v4’의 성능과 확장성을 긍정적으로 평가했다. ‘클라우드TPU v4’는 빠른 상호연결 및 최적화된 소프트웨어 스택, 새로운 TPU VM 아키텍처로 자체 인터랙티브 개발 환경을 설정할 수 있는 기능, JAX∙파이토치(PyTorch)∙텐서플로우(Tensorflow) 등 머신러닝 프레임워크 선택의 유연성 등을 제공한다”면서, “ AI연구팀은 ‘클라우드TPU v4’의 가격 대비 우수한 성능을 바탕으로 최첨단 대규모 머신러닝 모델을 훈련하며 AI 연구 영역을 한 단계 더 확장하고 있다”고 설명했다.

LG AI 연구원은 구글 클라우드의 전략적 연구 파트너로서 구글의 최신 머신러닝 슈퍼컴퓨터인 ‘TPU v4’가 상용화되기 전 테스트에 참여해 3,000억 개 매개변수 규모의 초거대 AI인 ‘LG 엑사원(EXAONE)’을 학습하기도 했다.

LG AI연구원 배경훈 원장은 “멀티모달 기능을 갖춘 ‘LG 엑사원’은’TPU v4’를 활용해 6,000억 개 이상의 말뭉치와 2억 5,000만 개 이상의 이미지로 구성된 방대한 데이터를 학습하고 있으며, 커뮤니케이션, 생산성, 창의성 등의 측면에서 인간 전문가를 뛰어넘는 것을 목표로 하고 있다”며, ”’TPU v4’의 성능은 동급 최고의 컴퓨팅 아키텍처를 능가할 뿐만 아니라 고객 지원도 좋았다. 더 나은 삶을 위해 AI를 발전시킨다는 LG AI 연구원의 궁극적인 비전을 달성할 수 있도록 구글과 전략적 파트너십을 굳건히 이어나갈 것”이라고 말했다.

카카오브레인 또한 ‘클라우드TPU v4’의 대규모 데이터 학습 테스트에 참여해 초거대AI언어 모델 ‘KoGPT’의 연구개발 역량을 강화했다. 카카오브레인은 기존의 GPU 서버 환경에 클라우드TPU를 추가로 도입해 대규모 모델 학습 시 발생하는 네트워크 병목 현상을 해결하고 60억 개의 파라미터와 2,000억 개 토큰에 달하는 한국어 데이터를 빠르게 처리했다. 이를 통해 언어 모델 연구 및 개발에 소요되는 시간을 단축하고 효율적인 모델 학습 프로세스를 구축할 수 있었다.

구글 클라우드 코리아 장화진 사장은 “구글 클라우드는 구글 검색, 유튜브와 같은 구글 제품에 실제로 사용되는 업계 최고 수준의 AI 성능을 구글 클라우드 고객에게 클라우드 TPU를 통해 제공하고 있다”며, “‘클라우드TPU v4’의 강력한 성능과 기술력을 바탕으로 국내 기업 및 연구 기관이 차세대 AI 및 머신러닝 혁신을 가속화할 수 있도록 적극 지원하겠다”고 밝혔다

저작권자 © 아이티데일리 무단전재 및 재배포 금지