구글 클라우드, 6세대 TPU ‘트릴리움’ 출시…“AI 비전 실현하는 핵심 HW”
‘레츠 토크 AI’ 세션 진행…HW·SW 통합한 ‘AI 하이퍼컴퓨터’ 아키텍처 공개
[아이티데일리] 구글 클라우드가 자체 개발한 6세대 텐서처리장치(TPU) ‘트릴리움(Trillium)’과 이를 기반으로 한 하드웨어(SW)·소프트웨어(SW) 통합 레이어인 ‘AI 하이퍼컴퓨터(AI Hypercomputer)’를 앞세워 AI 시장 점유율 확대에 나선다.
16일 구글 클라우드는 ‘레츠 토크 AI(Let’s Talk AI)’ 온라인 세션을 개최, 최근 출시한 자사 차세대 TPU 트릴리움과 AI 포트폴리오 및 컴퓨팅 아키텍처를 선보였다.
트릴리움, 이전 세대 대비 학습 능력 4배, 추론 처리량 3배↑
트릴리움 TPU는 지난해 12월 구글 클라우드가 출시한 AI칩이다. AI를 구동하는 핵심 머신러닝 가속기 엔진으로, AI 학습·연산·추론에 특화돼 있다. 구글 클라우드는 구글 본사 연구개발(R&D) 조직과 함께 비용효율적이면서도 AI 운용에 따른 데이터센터 부하를 감당할 수 있는 TPU를 고안해 자체 개발 중이다. 유튜브(Youtube)와 포털 검색 등 구글 내부 서비스 접목을 시작으로, 현재는 다양한 기업들의 AI 솔루션 개발을 지원하고 있다.
이날 발표를 맡은 구글 클라우드 모한 피치카(Mohan Pichika) 그룹 프로덕트 매니저는 “3세대 제품인 TPU v3는 업계 최초로 액체냉각 방식을 도입했으며, 100페타플롭스(PF) 성능을 갖췄다. 나아가 4세대 칩은 1엑사플롭스(EF)에 달하는 연산 능력을 보유하게 됐다. 5세대 TPU는 비용효율성에 특화된 TPU v5e와 성능에 중점을 둔 TPU v5p로 제공했다”며 “구글 클라우드는 구글 본사의 연구 조직과 힘을 합쳐 HW부터 SW까지 AI와 관련된 모든 기술을 개발하고 있다. 이를 토대로 구글 클라우드 플랫폼(GCP) 이용 고객들에게 가장 혁신적이고 실질적인 서비스들을 지원하고 있다”고 말했다.
6세대 TPU 트릴리움은 이전 세대 대비 많은 개선을 이뤘다. 구글 클라우드에 따르면, 학습 성능은 4배 이상 향상됐으며, 추론 처리량도 최대 3배 증가했다. 칩 당 최대 컴퓨팅 성능 4.7배 향상됐다. 또한 액체냉각 기술을 갖추는 등 에너지 효율성은 67% 향상됐다. 뿐만 아니라, 고대역폭 메모리(HBM) 용량과 인터칩 인터커넥트(ICI) 대역폭 역시 2배 증가했다.
텍스트 기반의 거대언어모델(LLM)을 비롯 이미지·비디오처리 등 멀티모달 AI 모델 학습에도 강점을 갖췄으며, 기계번역과 자연어처리(NLP)와 같은 용도로 활용 가능하다.
구글은 자사의 최신 AI 모델 ‘제미나이 2.0(Gemini 2.0)’의 학습·추론에 트릴리움을 활용했다. 또 미드저니(Midjourney)와 21랩스(21Labs)와 같은 AI 전문기업의 솔루션 개발은 물론, 바이어(Bayer)와 딥제노믹스(Deep genomics) 등 제약·의료 분야 기업의 AI 구축에도 핵심 인프라로 사용됐다. 국내 기업 중에서는 카카오가 새로운 AI 어시스턴트 ‘카나나(Kanana)’의 컴퓨팅 자원으로 트릴리움을 이용 중이다.
HW·SW 통합 아키텍처 ‘AI 하이퍼컴퓨터’로 시장 공략 박차
구글 클라우드는 고도화하는 HW에 SW까지 통합한 AI 하이퍼컴퓨터 아키텍처를 전면 배치해 AI 시장 점유율 확대에 박차를 가한다. 모한 피치카 매니저는 “AI가 진정한 힘을 발휘하려면 HW와 SW가 통합된 스택이 필요하다. 이에 구글 클라우드는 AI 애플리케이션 구축에 필요한 모든 기술 요소를 원스톱으로 제공하는 엔드투엔드 아키텍처 AI 하이퍼컴퓨터를 제공하고 있다”고 강조했다.
구글 클라우드의 AI 하이퍼컴퓨터는 △CPU, GPU, TPU 등 워크로드에 최적화된 HW △구글 쿠버네티스 엔진(GKE)과 통합된 머신러닝 프레임워크 및 오픈소스 SW △동적 작업량 스케줄러 도구가 포함된 고객지원 서비스 등 3개의 레이어로 구성된다.
구체적으로 HW 영역에서는 트릴리움 TPU를 포함한 컴퓨팅 리소스와 블록·파일·오브젝트 스토리지, 네트워킹 서비스를 제공한다. 그 윗단의 SW 영역에서는 구글의 머신러닝 프레임워크 ‘JAX’와 오픈소스 머신러닝 라이브러리 ‘파이토치(PyTorch)’ 등을 지원한다. 최상위 레이어에서는 고객이 이러한 서비스들을 유연하게 이용·조정할 수 있는 소비 모델을 지원한다.
모한 피치카 매니저는 “우리의 TPU와 AI 하이퍼컴퓨터는 시장에서 이미 의미있는 영향력을 끼치고 있다. 고객들이 기대할 수 있는 TPU 고도화 로드맵을 준비 중이며, SW와의 시너지 창출을 지속적으로 계획하고 있다. 이것이 구글 클라우드만의 차별화 전략이라고 자신한다”며 “앞으로도 구글 전사가 참여하는 큰 프레임워크 내에서 HW와 SW의 공동 디자인·개발을 진행해 나가, 칩부터 솔루션 개발까지 AI 관련 전 영역을 지원하겠다”고 밝혔다.