[MCP-A2A ②] A2A, 역할 분담과 협업으로 집단 지능 실현
외부 시스템 및 LLM, 에이전트 간 연동·협력 ‘초점’…기술·운영 측면 과제도
[아이티데일리] 인공지능(AI)의 최종 목적지는 어디일까. 아마 많은 사람들은 그 해답을 영화에 등장하는 AI 슈퍼컴퓨터 ‘스카이넷(SKYNET)’, 혹은 가상 인격을 갖춘 개인 AI 비서 ‘자비스(JARVIS)’에서 찾을지 모르겠다. 인간의 개입이 가장 완벽하게 배제되고 자율적 사고를 실행으로까지 옮길 수 있는 영역이 아닐까 싶다.
이처럼 완전한 자율성과 실행력을 갖춘 AI를 현실화하기 위해서는 단순히 데이터를 학습해 답을 내놓는 수준을 넘어, 외부 시스템과의 연결 그리고 여러 AI 간의 협업이 필수적이다. AI가 의미 있는 작업을 수행하기 위해선 다양한 도구와 데이터를 활용하고, 다른 에이전트와 유기적으로 소통할 수 있어야 한다.
AI 에이전트 초입에 들어선 현재, 이러한 요구에 부응하는 두 가지 핵심 기술이 부상하고 있다. 바로 앤트로픽이 출시한 MCP(Model Context Protocol)와 구글이 공개한 A2A(Agent-to-Agent)다. 두 기술은 AI 에이전트가 자율적으로 실행과 협업을 구현하는 근간이 되고 있다. 총 4회에 걸쳐 AI 에이전트 새 지평 여는 ‘MCP’와 ‘A2A’를 상세히 조명해본다.
[MCP-A2A ①] AI 실행력 확대 위한 통신 표준 ‘MCP’
[MCP-A2A ②] A2A, 역할 분담과 협업으로 집단 지능 실현
[MCP-A2A ③] 기술·운영상 문제 해결도
[MCP-A2A ④] 5년 내 중견·중소기업으로 활용 확대 전망
역할 분담과 협업으로 집단 지능 실현하는 A2A
MCP와 함께 AI 에이전트의 또 다른 핵심 축이 바로 A2A(Agent to Agent)다. MCP가 단일 AI를 외부 환경과 연결해 AI의 도구 사용을 확장하는 구조라면, A2A는 여러 개의 AI가 함께 일하며, 집단 지능을 발휘하는 구조다. A2A는 단일 AI가 처리하기 어려운 복합적인 문제를 분업과 협업을 통해 해결하는 다중 에이전트 시스템이다. 하나의 거대한 LLM보다 다양한 역할에 특화된 에이전트들이 서로의 출력을 입력으로 삼아 의사결정과 실행을 반복하는 구조다. A2A를 개발한 구글은 A2A를 “역할 기반 에이전트의 대화 프로토콜”이라고 정의했다.
디노티시아 한병전 상무는 “A2A는 특정 기능에 특화된 에이전트가 동료 에이전트와 유연하게 협업할 수 있게 만들어 주는 표준이다. 특히 에이전트 간 통신은 작업 위임 및 상태 공유 등 네트워크 또는 시스템에서 모든 노드(장치, 서버, 에이전트 등)가 서로 직접 연결된 풀 메쉬(Full Mesh) 구조다. 이를 표준화하기 위해 MCP와 마찬가지로 다양한 플레이어들이 협업할 수 있는 표준을 제시한 것이 A2A다”라고 설명했다.
이어 한 상무는 “A2A를 통해 AI 에이전트 생태계가 확장된다면, 우리 AI 산업이 직면한 LLM 스케일-업 한계를 돌파할 수 있는 해결책이 될 수 있다. 초지능 AI는 몇몇 세계적인 업체가 지배하고 있으며 보다 강력한 GPU 자원을 요구한다. A2A 생태계가 활성화된다면 다양한 분야의 전문가 모델들이 서로 협업하는 윈윈(Win-Win) 전략을 가져갈 수 있고, 도메인 특화된 학습 데이터를 토대로 각자의 영역에서 작은 언어모델을 통한 에이전트도 경쟁력을 가질 수 있게 된다”고 덧붙였다.
병렬적 피드백 루프 구조로 성능 향상
A2A의 기술 구성은 △역할 기반 프롬프트 스페이스(Role-based Prompt Spaces) △구조화된 메시지 패싱 아키텍처(Structured Message Passing) △집단적 의사결정 루프(Collaborative Planning and Replanning)로 이뤄진다.
역할 기반 프롬프트 스페이스 단계에서는 각 에이전트가 자신만의 특화된 프롬프트 및 응답을 내놓는다. 예를 들어 ‘연구자(Researcher)’는 최신 데이터를 조사하고, ‘분석가(Analyst)’는 이를 해석하고, ‘작성자(Writter)’는 문장으로 재구성한다. 이 구조는 사람들이 팀을 구성해 협업하는 구조와 유사하다. 각 역할이 명확히 구분되기 때문에 책임 추적이 가능해 신뢰성도 높다.
구조화된 메시지 패싱 아키텍처는 AI 에이전트들 간의 정보를 주고받을 때의 표준 메시지 포맷을 의미한다. 대체로 JSON 파일을 기반으로 사용한다. 요청(Request), 결과(Result), 피드백(Feedback) 등 의사소통 유형을 표준화해 에이전트 간 오해를 줄이는 과정이다. 이는 API 호출에서의 표준 메시지 포맷 개념을 AI 간 통신으로 확장한 것이다.
쉽게 설명하면 AI 에이전트들이 서로 대화하거나 정보를 주고받을 때, 자유롭게 아무 방식이나 사용하면 오류가 발생할 수 있다. 이를 해결하고자 모든 에이전트가 약속된 형식(JSON 파일 형태)으로 메시지를 주고받는다는 것이다. 예를 들어 글쓰기 에이전트가 디자인 에이전트에게 그림 제작 요청을 보내고, 그에 대한 결과물이나 피드백을 정해진 틀에 맞춰 주고받는 식이다. 이렇게 하면 에이전트들이 서로 무슨 말을 하는지 헷갈릴 일이 줄어들고, API에서 표준 메시지 형식으로 통신하는 것처럼, AI끼리도 쉽게 정보를 주고받을 수 있다.
집단적 의사결정 루프는 하나의 문제가 각 역할 간 피드백을 거쳐 여러 차례 개선되면서 점점 완성되는 방식이다. 단순한 직렬 처리가 아닌 병렬적 피드백 루프를 통해 전체 성능을 향상한다.
이에 대해 한국교통대학교 곽정한 교수는 “여러 AI 에이전트가 한 팀처럼 협업할 때, 한 번에 정답을 내는 것이 아닌 각 역할을 맡은 에이전트들이 서로 의견을 주고받으며 결과를 점점 더 다듬어 간다. 예를 들어 한 에이전트가 초안을 만들면, 다른 에이전트가 그걸 보고 수정하거나 의견을 내는 등 피드백이 여러 번 오가면서 결과물이 계속 개선되는 방식이다. 이 과정은 한 줄로 차례대로 처리하는 게 아니라, 여러 에이전트가 동시에 피드백을 주고받아 최종 결과의 품질과 정확도를 높일 수 있다”고 부연했다.
실행과 협업의 완성형 AI 에이전트 생태계
A2A는 AI 에이전트들이 팀을 구성해 구동하는 방식이다. 팀 구성 내 개별 에이전트가 외부 도구를 사용하기 위해서는 앞서 설명한 MCP와의 연동이 필수적이다. MCP와 A2A는 표면적으로는 상이한 기술처럼 보이지만, 실상은 서로 부족한 부분을 보완하고 있다. A2A는 다중 에이전트의 유기적 소통과 협업을 지원하고, MCP는 각 에이전트의 외부 도구 활용 및 실행을 담당한다. 즉, A2A가 조율자라면 MCP는 실행자라 할 수 있다.
우선 사용자의 요청이 발생할 경우, A2A는 에이전트를 역할별로 요청을 분해하고 분배한다. 이후 MCP를 기반으로 에이전트가 실행된다. 이때 에이전트는 MCP를 통해 외부 도구를 사용해, 기존 레거시 시스템에 접근하게 된다. 이후 A2A로 다시금 넘어와 결과를 피드백하고 개선하는 과정을 거쳐 답변을 제시한다. 이 같은 구조를 통해 MCP와 A2A는 유기적으로 연결되고 하나의 최종 결괏값을 도출하기 위해 보완한다.
예를 들어 법률 문서를 요약하는 시스템을 구현한다면, A2A는 역할을 분배하고 MCP는 문서를 열람하고 요약하며 외부 판례 DB를 조회하는 데 사용된다. 이러한 유기적인 구조는 특정 AI 모델 하나가 모든 것을 처리하지 않아도 되게 만들며, 여러 개의 특화된 AI가 팀처럼 유기적으로 일하게 만드는 기반을 제공한다.
MCP와 A2A 기반의 AI 에이전트는 산업 전반에 서서히 녹아들며 작업 방식의 패러다임을 전환하고 있다.
가장 대표적인 분야가 ‘지식노동 자동화’다. 회의 정리, 초안 작성, 번역 등 반복적 작업을 AI가 분업과 실행을 통해 처리한다. 단일 LLM으로 수행하는 것보다 높은 정확도와 유연성을 확보할 수 있다. 개발 파이프라인 최적화코드 생성, 테스트, 리뷰, 배포까지 역할 기반 AI 팀이 수행하며, 각각의 실행은 MCP가 담당한다. 이는 기존 데브옵스 파이프라인에 지능적 자동화를 도입하는 방식으로 진화하고 있다.
사례로는 커서(Cursor)와 깃허브(Github), 세일즈포스(Salesforce), 워크데이(Workday) 등 기업이 있다. 커서는 코드 생성, 테스트, 리뷰, 배포 등 개발 파이프라인 자동화에 MCP를 적용했다. 커서의 AI 코딩 어시스턴트는 MCP를 통해 깃허브나 지라 등 다양한 개발 도구와 연동돼 개발 생산성을 향상할 수 있다.
깃허브 역시 ‘깃허브 코파일럿 X(GitHub Copilot X)’를 통해 MCP 기반 코드 리뷰, 배포 자동화 등 개발자 워크플로우에 AI 자동화를 지원하고 있으며, 세일즈포스와 워크데이는 MCP와 A2A를 활용해 인사(HR) 자동화, 온보딩, 복리후생 관리 등 지식노동 프로세스를 혁신하고 있다. 예를 들어, 채용 에이전트가 워크데이의 인사 데이터를 MCP로 조회하고, 온보딩 에이전트가 서비스나우와 연동해 IT 계정 개설을 자동화할 수 있다.
클라우드 인프라 분야에서는 아마존웹서비스(AWS)가 대표적이다. AWS는 MCP 서버를 통해 인프라 관리, 배포, 모니터링, 비용 최적화 등 클라우드 운영 자동화에 활용하고 있다. MCP 서버는 각각의 역할을 맡은 AI 에이전트들과 연결돼 복잡한 클라우드 운영을 훨씬 더 효율적으로 만들 수 있도록 돕는다.
이와 관련해 클라우드 기업 한 관계자는 AWS 클라우드 사례를 들어 설명했다. 이 관계자는 “배포 에이전트는 ‘테라폼’이라는 자동화 도구의 설정 파일을 읽어와서 서버나 네트워크 등 필요한 자원을 자동으로 배포하도록 구성하고, 모니터링 에이전트는 실시간으로 서버 상태나 비용, 성능 지표를 수집해 MCP 서버에 전달하도록 만든다. 이 정보로 시스템의 상태를 파악할 수 있다. 다음으로 비용 에이전트를 통해 자원이 적절하게 쓰이고 있는지, 불필요한 비용이 발생하지 않는지 분석해서, 필요한 경우 자원 할당을 줄이거나 늘리도록 다른 에이전트에게 요청하도록 구성할 수 있다”고 소개했다.
이와 유사한 사례로 베스핀글로벌의 ‘헬프나우 오토MSP’가 있다. 베스핀글로벌은 헬프나우 오토MSP 솔루션 개발 과정에 MCP를 적용했다.
이와 관련 베스핀글로벌 구상원 티바나AI 개발팀장은 “헬프나우 오토MSP를 개발하는 과정에서 MCP를 적용했다. 이를 통해 복잡한 외부 시스템 연동 작업을 표준화하고, 반복적인 코딩 작업을 크게 줄일 수 있었다. 특히 앤트로픽의 ‘클로드 코드(Claude Code)’를 통해 개발 자동화 및 결과 보고서 생성에 소요되는 시간을 기존 2주에서 8시간으로 단축했다”고 부연했다.
이어 구상원 팀장은 “앤트로픽의 클로드 코드는 개발자들이 일상적으로 하는 코드 작성, 수정, 테스트, 디버깅, 문서화 등 다양한 작업을 AI가 대신하거나 도와주는 도구다. 명령어 한 번으로 코드베이스 전체를 분석해 구조를 파악하고, 문제점을 찾아내거나, 필요한 코드를 자동으로 작성한다. 여러 파일에 걸친 오류 수정이나 반복적인 작업도 AI가 알아서 처리한다. 여기에 MCP라는 표준을 적용하면, AI가 다양한 외부 데이터나 도구와 쉽게 연결돼 더 많은 정보를 활용할 수 있게 된다. 복잡한 개발 환경에서도 AI가 필요한 자료를 바로바로 찾아 쓰면서 작업을 빠르게 진행할 수 있게 된다”고 덧붙였다.
국내 기업인 올거나이즈의 경우 MCP를 활용해 ‘알리(Alli)’의 ‘다트 에이전트(DART Agent)’를 개발해 제공하고 있다. 올거나이즈 신기빈 CAIO는 “알리 다트 에이전트는 공개된 다트 MCP 서버에서 노출되는 툴들과 웹 서치 툴, 그리고 문서를 만들기 위한 docx 툴들까지 넣고 에이전트를 개발했다”고 설명했다.
국내 AI 스타트업 디노티시아는 벡터 DB 및 임베딩 모델을 서빙해 MCP 연동을 지원하는 벡터 DB 서비스 ‘씨홀스 클라우드(Seahorse Cloud)’를 제공하고 있다. 디노티시아 한병전 상무는 “우리가 제공하는 씨홀스 클라우드는 벡터 DB 기반의 RAG 스튜디오 기능을 갖추고 있다. 이를 토대로 사용자의 데이터를 벡터화해서 씨홀스 DB에 넣고, 씨홀스 DB에서 검색하는 기능을 MCP 서버로 제공할 수 있다. 이를 통해서 MCP 에이전트 사용자는 벡터DB에 있는 데이터를 토대로 답변을 제공받고 리포트를 작성할 수 있다”고 설명했다.
이어 한 상무는 “다만 A2A의 경우 구체적인 방향성이 확립된 것은 아니지만, 자체 파운데이션 모델을 학습할 수 있는 기술을 보유한 만큼 시장성이 보이는 에이전트 개발의 기회가 생긴다면 언제든 MCP와 A2A 기반 에이전트 서비스 제공사로 변신할 채비를 갖추고 있다”고 말했다.