외부 시스템 및 LLM, 에이전트 간 연동·협력 ‘초점’…기술·운영 측면 과제도
[아이티데일리] 인공지능(AI)의 최종 목적지는 어디일까. 아마 많은 사람들은 그 해답을 영화에 등장하는 AI 슈퍼컴퓨터 ‘스카이넷(SKYNET)’, 혹은 가상 인격을 갖춘 개인 AI 비서 ‘자비스(JARVIS)’에서 찾을지 모르겠다. 인간의 개입이 가장 완벽하게 배제되고 자율적 사고를 실행으로까지 옮길 수 있는 영역이 아닐까 싶다.
이처럼 완전한 자율성과 실행력을 갖춘 AI를 현실화하기 위해서는 단순히 데이터를 학습해 답을 내놓는 수준을 넘어, 외부 시스템과의 연결 그리고 여러 AI 간의 협업이 필수적이다. AI가 의미 있는 작업을 수행하기 위해선 다양한 도구와 데이터를 활용하고, 다른 에이전트와 유기적으로 소통할 수 있어야 한다.
AI 에이전트 초입에 들어선 현재, 이러한 요구에 부응하는 두 가지 핵심 기술이 부상하고 있다. 바로 앤트로픽이 출시한 MCP(Model Context Protocol)와 구글이 공개한 A2A(Agent-to-Agent)다. 두 기술은 AI 에이전트가 자율적으로 실행과 협업을 구현하는 근간이 되고 있다. 총 4회에 걸쳐 AI 에이전트 새 지평 여는 ‘MCP’와 ‘A2A’를 상세히 조명해본다.
[MCP-A2A ①] AI 실행력 확대 위한 통신 표준 ‘MCP’
[MCP-A2A ②] A2A, 역할 분담과 협업으로 집단 지능 실현
[MCP-A2A ③] 기술·운영상 문제 해결도
[MCP-A2A ④] 5년 내 중견·중소기업으로 활용 확대 전망
기술·운영상 문제 해결해야
MCP와 A2A는 AI 에이전트 기술의 혁신을 이끌고 있다. 그러나 이를 안전하게 활용하기 위해선 여러 기술적·운영적 과제를 해결해야 한다는 문제점도 존재한다.
우선 상호 운용성과 표준화가 미비해 통합에 한계가 있다. AI 에이전트 간, 그리고 AI와 기존 시스템 간 원활한 통신을 목표로 하는 A2A와 MCP는 서로 다른 조직별로 독자적인 구현체를 이루고 있다. 이로 인해 에이전트 간 프로토콜 불일치 문제가 발생한다. 앤트로픽의 MCP 기반 에이전트는 구글 A2A 프로토콜과 메시지 포맷이 다르기 때문에 두 플랫폼 간 AI 에이전트가 자유롭게 협업하기 어렵다.
현재 이러한 문제를 해결하고자 업계에서는 ISO, IEEE와 같은 국제 표준화 기구나 기업 간 컨소시엄을 통한 MCP·A2A 프로토콜 표준을 제정하고자 노력 중이다. 특히 누구나 볼 수 있도록 소스코드가 공개된 표준 사례도 필요하다.
다음은 보안 및 프라이버시 문제다. 이 두 기술은 개방형 표준을 지향하는 만큼, 보안 위협에 노출될 수 있다. 우선 MCP는 이해하기 쉬운 형태로 만들어진 개방형 표준이기에 보안에 대한 문제가 발생할 수 있다. 일례로 암호화되지 않은 프로토콜로 원격지의 MCP 서버와 통신할 경우, 중간자 공격(MITM)에 의해 응답이 변조되거나 민감 정보가 유출될 수 있으며, 관리자 권한을 부여받은 MCP 서버에 의해 LLM은 사용자의 데이터를 삭제하거나 외부로 유출할 수 있다.
새로운 기술의 등장으로 생태계를 확산하는 데 역점을 두고 있지만, 엔터프라이즈 환경에서 중요 영역에 적용되기 시작하면 얼마나 신뢰할 수 있는 MCP 서버와 LLM을 사용하는지에 대한 인증 시스템 및 외부 통신에 대한 보안 채널 구성이 중요한 요소로 부각되고 있다.
A2A 역시 다중 AI 에이전트가 민감한 데이터를 주고받으며 외부 도구를 호출하는 과정에서, 데이터 유출 및 악의적인 공격이 발생할 위험이 크다. 의료 분야를 예로 들어보자. 환자 개인정보가 포함된 데이터를 AI 에이전트들이 처리하는데, 이 과정에서 적절한 암호화와 권한 분리가 없다면 법적 문제가 발생할 여지가 있다. 이를 해결하기 위해선 AI가 정말 믿을 만한 프로그램인지 확인하는 ‘에이전트 인증’ 절차와 개인정보를 비식별화하는 ‘데이터 비식별화’, 정보를 보여주지 않고 본인임을 증명할 수 있는 ‘영지식증명’과 같은 보안기술 도입과 함께 산업별 컴플라이언스를 준수해야 한다.
이와 관련해 국내 대학의 한 교수는 “AI 에이전트가 외부 도구 및 시스템과 자유롭게 연동하는 구조는, 동시에 보안 취약점을 내포한다. 민감한 데이터가 에이전트 간 주고받는 과정에서 유출되거나 변조될 위험이 크다”면서 “인증되지 않은 에이전트가 네트워크에 침투하거나, 악의적 행위자가 데이터 조작 시도도 가능할 것으로 보인다”고 말했다.
이어 “일례로 금융 기관의 AI 에이전트가 고객 정보를 조회하는 과정에서, 해킹으로 인한 데이터 유출 사고가 발생하면 막대한 피해가 초래된다. 이를 해결하기 위해서는 강력한 인증 체계, 데이터 암호화, 행위 모니터링 및 이상 탐지 시스템 구축이 필수다. 또한 AI 에이전트의 의사결정 과정을 추적할 수 있게 만들어 책임 소재를 명확히 해야 한다”고 설명했다.
아울러 시스템 복잡도 및 성능, 운영비가 증가할 수 있다는 점도 해결해야 할 문제다. 다중 에이전트 협업 체계는 시스템 아키텍처가 복잡하고, 도구를 호출하는 횟수가 늘어나면 리소스의 확장성에 문제가 발생할 수 있고 소모량도 늘어날 수 있다. 에이전트 수가 늘어날수록 각 에이전트 간 상호 통신량이 기하급수적으로 증가해, 전체 시스템의 관리와 조율이 어려워진다. 예를 들어 10개의 에이전트가 있을 때보다 100개, 1,000개로 늘어나면 각 에이전트가 주고받는 메시지와 데이터가 폭증하면서 네트워크 지연, 처리 병목, 동기화 오류 등이 발생할 수 있다.
이러한 리소스 폭증은 결국 비용 부담으로 연결된다. 에이전트 수가 늘어나면 API 호출, 데이터 처리, 모델 실행이 모두 증가해 클라우드 자원 소모가 커진다. AWS, 구글 클라우드 등 주요 퍼블릭 클라우드 환경에서 다중 에이전트 시스템을 도입한 후 예상보다 높은 인프라 비용이 발생하는 사례도 존재한다.
또한 사용자 경험(UX)에 따른 도입 장벽도 존재한다. AI 에이전트 시스템이 아무리 기술적으로 완성도가 높아도, 실제 사용자들이 쉽고 편리하게 접근하지 못하면 도입이 쉽지 않다. 복잡한 설정, 불친절한 인터페이스, 맞춤화 어려움 등은 비전문가의 접근을 막게 된다. 중소기업에서 AI 에이전트 도입 시, IT 인력이 부족해 초기 구성과 유지관리에 큰 어려움을 겪을 수 있다는 것이다. 이를 해결하기 위해서는 직관적 UI/UX 설계, 자동화된 에이전트 배포·관리 도구, 맞춤형 솔루션 제공 및 교육 강화가 필수다.
윤리적·법적 책임도 고려해야 한다. AI 에이전트가 자율적으로 의사결정을 내리는 상황에서 오류, 편향, 부작용 등이 야기될 수 있는데, 이러한 잘못된 판단이 사회적 피해로 이어질 경우 책임 소재가 불분명하다는 문제가 발생할 수 있다.
변화하는 환경 및 비정형 문제 활용 한계 극복해야
가장 중요한 문제가 있다. 바로 ‘급변하는 환경과 비정형 문제에 대한 활용 한계’다. MCP와 A2A 구조는 주로 사전 정의된 역할과 도구를 활용하나, 급변하는 환경과 비정형 문제에 대해서는 활용성이 제한적이다.
자연어 이해나 멀티모달 상황 인식에서 인간처럼 유연한 대응을 위해서는 지속적인 메타러닝과 강화학습이 통합돼야 한다. 쉽게 말하면, 새로운 도구가 추가되거나 업무 프로세스가 바뀌거나 예측하지 못한 데이터가 들어왔을 때 MCP와 A2A 구조의 에이전트가 유연하게 대응하지 못한다는 것이다. 이를 지속적인 메타러닝(Learning to Learn)과 강화학습(Reinforcement Learning)과 같은 지속적인 자기학습을 통해 해결해야 한다.
구글과 앤트로픽 역시 이 부분을 차세대 연구 과제로 삼아 다양한 학습 알고리즘을 실험 중이다. 구글 딥마인드는 ‘알파이볼브(AlphaEvolve)’라는 진화형 LLM 기반 에이전트 시스템을 개발했다. 이 시스템은 LLM이 다양한 문제 상황에서 스스로 새로운 알고리즘과 해결책을 탐색·진화시키며, 자동 평가 시스템을 통해 가장 효과적인 전략을 선택·개선할 수 있다.
실제로 알파이볼브는 구글 데이터센터 운영, 대규모 코드 최적화, 수학·과학 문제 해결 등에서 기존 고정형 에이전트보다 뛰어난 적응성과 문제해결력을 입증했다. 또한 A2A 환경에서 에이전트가 실시간 피드백을 받아 스스로 행동 전략을 바꾸고, 새로운 상황에 맞춰 학습하는 강화학습·메타러닝 기반 알고리즘을 실험중에 있다.
앤트로픽은 MCP의 동적 컨텍스트와 메타러닝 실험을 이어가고 있다. 앤트로픽은 단순히 정해진 도구만 쓰는 것이 아니라, 에이전트가 상황에 따라 어떤 도구를 쓸지 스스로 판단하고 새로운 도구가 추가되면 자동으로 탐색·연동하는 ‘동적 컨텍스트 관리’ 기능을 강화하고 있다. LLM이 새로운 업무나 데이터 유형이 등장했을 때 기존 경험을 바탕으로 빠르게 적응하는 ‘메타러닝’ 기술도 MCP 구조에 접목되고 있다.
아울러 MCP 기반 연동·확장이 가능하도록 SDK, 자동화 툴 그리고 레퍼런스 서버 등을 지속적으로 개발·공개하고 있다. 레퍼런스 서버와 관련해 AI 기업 한 관계자는 “MCP 사례를 실제로 구현한 사례다. 누구나 참고해 표준에 맞는 시스템을 쉽게 만들 수 있도록 지원하는 가이드”라고 설명하며 “깃허브에 공개된 ‘modelcontextprotocol/servers’가 MCP 레퍼런스 서버 모음이다. 파일 시스템, 데이터베이스, 웹 API 등 다양한 예제 서버가 포함돼 개발자들이 바로 참고하고 사용할 수 있다. 이 외에도 MCP코어(MCPCore), 노드MCP(NodeMCP), 러스트MCP(RustMCP) 등 각각 파이썬, 자바스크립트, 러스트 등 언어로 만든 MCP 레퍼런스 서버가 존재하며 연구, 웹 서비스, 고성능 컴퓨팅 등 용도에 맞게 활용되고 있다”고 설명했다.


