레드햇, ‘레드햇 AI’ 최적화 발표…엔터프라이즈 AI 배포 가속화 지원

더 높은 성능의 일관된 AI 애플리케이션 구현

2025-05-26     성원영 기자

[아이티데일리] 글로벌 오픈소스 솔루션 기업 레드햇(RedHat)은 ‘레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server)’, ‘레드햇 AI 서드파티 검증 모델 및 라마 스택(Llama Stack)’과 모델 컨텍스트 프로토콜(MCP) API의 통합 그리고 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 진행했다고 26일 발표했다.

레드햇은 이번 개발을 통해 조직이 AI 도입을 가속화하는 데 필요한 역량과 하이브리드 클라우드 환경을 바탕으로 생성형 AI 제품 배포에 있어 고객의 신뢰도를 높이는 것이 목표라고 밝혔다.

특히  새로운 레드햇 AI 인퍼런스 서버의 경우, 하이브리드 클라우드 환경 전반에서 더 빠르고 비용 효율적인 추론을 제공한다. 이 기능은 ‘레드햇 오픈시프트 AI(Red Hat OpenShift AI)’ 및 ‘레드햇 엔터프라이즈 리눅스 AI(RHEL AI)’의 최신 출시에 통합됐으며, 독립형 솔루션으로도 제공돼 지능형 애플리케이션을 더 효율적이고 높은 성능으로 배포할 수 있다.

허깅페이스(Hugging Face)에서 제공되는 ‘레드햇 AI 서드파티 검증 모델’은 기업이 특정 요구사항에 적합한 모델을 쉽게 찾을 수 있도록 지원한다. 레드햇 AI는 검증된 모델 컬렉션과 배포 가이드를 제공해 모델 성능 및 결과 재현성(reproducibility)에 대한 고객 신뢰를 높인다. 레드햇으로 최적화된 일부 모델은 모델 압축 기술을 활용해 크기를 줄이고 추론 속도를 높여 자원 소비와 운영 비용을 최소화한다. 

더불어 레드햇 AI는 메타(Meta)가 처음 개발한 라마 스택과 앤트로픽(Anthropic)의 MCP를 통합해 AI 애플리케이션 및 에이전트 구축과 배포를 위한 표준화된 API를 제공한다. 현재 레드햇 AI에서 개발자 프리뷰로 제공되는 라마 스택은 모든 생성형 AI모델 전반에서 가상 대규모 언어 모델(vLLM) 추론, 검색 증강 생성(RAG) 등의 기능에 액세스할 수 있는 통합 API를 제공한다.

레드햇 AI 사업 부문  조 페르난데스(Joe Fernandes) 부사장은 “더 빠르고 효율적인 추론이 생성형 AI 혁신의 새로운 의사 결정 포인트로 부상하고 있다”며 “레드햇 AI는 레드햇 AI 인퍼런스 서버를 통한 향상된 추론 기능과 새로운 검증된 서드파티 모델 컬렉션을 갖춰 조직이 필요한 곳에 원하는 방식으로 고유한 요구 사항에 가장 적합한 구성 요소를 활용해 지능형 애플리케이션을 배포할 수 있도록 지원한다”고 말했다.