AI 모델에 높은 의존도를 가진 조직을 공격
남용 조작 시도로부터 기본적 보호 지원

[아이티데일리] 커넥티비티 클라우드 기업인 클라우드플레어(Cloudflare)는 거대언어모델(LLM)을 상대로 한 남용과 공격을 식별하는 새로운 보호 레이어(layer)인 ‘AI용 방화벽(Firewall for AI)’을 선보인다고 5일 밝혔다.

클라우드플레어는 자사 세계 최대 규모 글로벌 네트워크를 기반으로, AI용 방화벽을 통해 고객이 LLM 내에 있는 기능, 주요 데이터, 영업 비밀을 노리는 공격에 대응할 수 있도록 지원한다는 방침이다.

최근 실시된 한 조사에 따르면, 최고 경영진 4명 중 1명만이 자신의 조직이 AI로 인한 위험에 대비하고 있다고 확신하는 것으로 나타났다. LLM을 보호하는 데 있어 사용자 상호작용을 제한하는 것은 거의 불가능하다. 또한 LLM은 동일한 입력 값이 주어져도 다양한 결과물을 생성할 수 있는 등, 사전 설계에 의해 미리 결정되지 않는다는 점으로 인해 처음부터 적절한 보안 시스템을 구축하는 것이 어렵다. 이 때문에 LLM은 위협 행위자에게 무방비 상태가 되어 조직이 모델 조작, 공격 및 남용에 취약한 상태로 노출되는 결과를 야기한다.

클라우드플레어 공동 창업자인 매튜 프린스(Matthew Prince) CEO는 “새로운 유형의 애플리케이션이 등장하면 새로운 유형의 위협도 빠르게 뒤따르기 마련이다. AI 기반 애플리케이션도 마찬가지다”라며 “클라우드플레어는 자사 AI용 방화벽을 통해 AI 환경의 보안 구축을 처음부터 돕고 있다. AI 모델을 위한 최초의 보호막 중 하나를 제공해 기업이 기술 발전이 선사하는 기회를 활용함과 동시에 보호받을 수 있도록 지원하고자 한다”고 말했다.

조직의 보안 팀은 클라우드플레어의 AI용 방화벽을 통해 AI 모델의 무기로 사용될 수 있는 잠재적 취약성으로부터 LLM 애플리케이션을 보호할 수 있다. 클라우드플레어는 다음과 같은 방식으로 고객을 지원한다.

ㆍ신속한 위험요소 탐지: AI용 방화벽은 클라우드플레어의 워커스AI (Workers AI)에서 실행되는 모든 LLM 앞에 배포 가능하다. 사용자가 제출한 프롬프트(prompts)를 스캔하고 평가하여 모델을 악용하고 데이터를 추출하려는 시도를 더 잘 식별할 수 있다.

ㆍ사람의 개입 없이 위협을 자동으로 차단: 클라우드플레어의 글로벌 네트워크를 기반으로 구축된 AI용 방화벽은 엔드 유저와 가까운 곳에 배포되기 때문에 모델의 남용으로부터 거의 즉각적으로 보호할 수 있는 전례 없는 기능을 제공한다.

ㆍ기본적인 무료 보안 제공: 클라우드플레어의 워커스AI에서 LLM을 실행하는 모든 고객은 AI용 방화벽을 통해 무료로 보호를 받을 수 있으며, 이를 통해 프롬프트 주입 및 데이터 유출 등의 우려 사항을 방지할 수 있다.

시장 조사 기관 가트너(Gartner)에 따르면, 생성형 AI 애플리케이션은 단독으로 보호할 수 없으며, 생성형 AI 전용 보안 제어 기능을 계획하고 배포하기 전에 반드시 클라우드, 데이터 및 애플리케이션 보안의 견고한 기반이 마련돼야 한다. 클라우드플레어는 자사의 AI용 방화벽이 기존의 포괄적인 보안 플랫폼에 레이어를 추가해 새로운 기술로 인한 위협을 궁극적으로 차단한다고 밝혔다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지