A2A 또는 Agent2Agent 프로토콜은 AI 에이전트, 클라이언트 및 도구 간의 구조화된 커뮤니케이션을 가능하게 하는 개방형 표준입니다. 이 튜토리얼에서는 채팅 클라이언트가 사용자 쿼리를 처리하여 A2A 호환 서버에서 실행되는 AI 에이전트로 전송하는 에이전트 시스템을 구축할 수 있습니다.
대부분의 에이전틱 AI 애플리케이션은 구성 요소 간의 사용자 지정 커뮤니케이션(예: ChatDev의 ChatChain)을 구현하므로 여러 애플리케이션에서 동일한 에이전트를 재사용하거나 외부 도구를 통합하는 것이 어렵습니다. 이러한 표준화가 부족하면 상호 운용성이 저해되고 더 광범위한 에이전트 에코시스템의 개발이 제한됩니다.
A2A는 HTTP, JSON-RPC 2.0 및 서버 전송 이벤트(SSE)를 기반으로 구축된 표준화된 프로토콜을 통해 에이전트 논리에서 통신 계층을 분리함으로써 이러한 한계를 해결합니다. 이러한 분리를 통해 에이전트는 사용자 지정 통합 코드 없이 다른 에이전트와 협업하고, 클라이언트 요청을 처리하고, 외부 도구에 액세스할 수 있습니다.
A2A는 팀이 클라이언트 코드를 손상시키지 않고 AI 시스템을 점진적으로 발전시킬 수 있도록 하는 분산형 아키텍처를 지원합니다. 팀은 복잡한 워크플로에서 일관된 인터페이스를 유지하면서 도구를 업데이트하고, 모델을 교체하고, 에이전트 행동을 수정할 수 있습니다.
에이전트는 명확성과 일관성으로 에이전트 상호 작용을 강화하는 메타데이터를 포함하는 JSON-RPC 형식으로 구성된 메시지로 정보를 교환합니다. 각 A2A 서버는 에이전트의 능력을 구조화된 JSON 데이터로 설명하는 잘 알려진 엔드포인트(.well-known/agent-card.json)에 AgentCard를 노출합니다. 따라서 클라이언트는 API 문서에서 사용 가능한 엔드포인트를 설명하는 방식과 유사하게 에이전트가 수행할 수 있는 작업을 동적으로 발견할 수 있습니다.
다음을 활용하여 A2A 에이전트 시스템을 구축 및 실행하고 실무 경험을 쌓으세요.
참고: ACP(에이전트 통신 프로토콜)로 작업한 적이 있다면 유사점을 인식할 수 있습니다. 원래 IBM의 BeAIAI가 개발한 ACP는 Linux Foundation에서 Google A2A와 협력하게 되었습니다. BeeAI는 이제 A2A 어댑터(A2AServer 및 A2AAgent)를 사용하여 A2A 호환 커뮤니케이션을 제공합니다. 또한 A2A는 MCP(모델 컨텍스트 프로토콜)와 함께 작동하여 에이전트가 데이터 소스 및 도구와 상호 작용할 수 있도록 지원하여 상호 운용 가능한 에이전트 에코시스템을 구축합니다.
이 프로젝트는 A2A를 통해 클라이언트 인터페이스와 에이전트 논리를 깔끔하게 분리할 수 있는 방법을 보여줍니다.
워크플로는 다음과 같은 순서를 따릅니다.
이 워크플로는 챗봇, 작업 자동화, 고객 지원 에이전트, 툴 오케스트레이션을 갖춘 연구 어시스턴트 등 구조화된 클라이언트-에이전트 통신이 필요한 사용 사례에 적용할 수 있는 재사용 가능한 워크플로 패턴을 보여줍니다.
이 프로젝트는 여러 기능을 갖춘 단일 AI 에이전트를 사용합니다. 더 복잡한 시스템에서는 각각 특정 도메인이나 작업에 초점을 맞춘 여러 특수 에이전트를 배포할 수 있습니다.
RequirementAgent(BeeAI): 사용자의 요청에 따라 여러 도구를 동적으로 선택하고 조정하는 선언적 에이전트입니다. 다음을 사용합니다.
A2A 서버(
2. 에이전트 설정: 에이전트 수명 주기를 처리하기 위한 도구와 메모리가 포함된 RequirementAgent를 생성합니다.
3. 서버 구성: A2A 호환 HTTP 엔드포인트를 통해 에이전트를 노출합니다.
서버는 에이전트의 능력을 설명하고 에이전트 구성을 검증하는 데 도움이 되는 /.well-known/agent-card.json에 자동으로 AgentCard를 노출합니다.
A2A 클라이언트(
연결 설정: A2A 클라이언트 어댑터 생성
이러한
메시지 교환: 비동기 프롬프트를 보내고 응답을 처리합니다.
이러한
이 프로젝트를 실행하기 위한 시스템 요구 사항은 다음과 같습니다.
시작하기 전에 이 프로젝트에 필요한 도구에 대한 개요는 다음과 같습니다.
이 프로젝트에서는 AI 에이전트의 모델 공급자로 Ollama를 사용합니다. Ollama를 설정하려면 다음 단계를 따르세요.
참고: 환경 변수를 설정해 Ollama와 호환되는 모든 모델을
이 프로젝트를 실행하려면 https://github.com/IBM/ibmdotcom-tutorials.git을 HTTPS URL로 사용하여 GitHub 리포지토리를 복제합니다. 리포지토리 복제 방법은 GitHub 문서를 참고하세요.
이 튜토리얼은 리포지토리의 프로젝트 디렉터리 내에서 찾을 수 있습니다.
터미널 내부에서 이 튜토리얼의 디렉토리로 이동합니다.
이 프로젝트에는 서버용과 클라이언트용의 두 개의 별도 Python 스크립트를 동시에 실행해야 합니다. 두 개의 터미널 창 또는 탭을 열어야 합니다.
현재 터미널을 열어둔 상태에서 두 번째 터미널을 열고 둘 다 올바른 프로젝트 디렉터리(
IDE를 사용하시나요?
Visual Studio Code와 같은 IDE를 사용하는 경우 분할 터미널 기능을 사용하여 여러 터미널을 나란히 관리할 수 있습니다.
그렇지 않으면 두 개의 독립 실행형 터미널 창을 열고 각각 프로젝트 디렉터리로 이동합니다.
가상 환경은 종속성을 분리하고 유지 관리하는 데 도움이 됩니다. 서버 및 클라이언트 종속성을 분리하려면 각 구성 요소에 대한 가상 환경을 만듭니다.
서버의 경우:
디렉토리
Python 3.11로 가상 환경을 만듭니다.
가상 환경을 활성화합니다.
Windows 사용자를 위한 참고 사항: venv\Scripts\activate를 사용하여 가상 환경을 활성화합니다.
클라이언트의 경우:
디렉토리
가상 환경을 생성하고 활성화합니다.
각 터미널에서 다음 코드를 실행하여 각 구성 요소에 필요한 종속성을 설치합니다.
터미널에서
첫 번째 터미널에서 A2A 에이전트 서버를 시작합니다.
다음 사항이 표시됩니다.
이제 서버가 클라이언트 애플리케이션으로부터 들어오는 요청을 수신 대기 중이며 에이전트 간 커뮤니케이션을 지원할 준비가 되었습니다.
다른 터미널에서 A2A 클라이언트를 시작합니다.
입력하라는 메시지가 표시됩니다.
클라이언트 터미널에 메시지를 입력하고
서버 터미널에서 푸시 알림과의 통신을 보여주는 A2A 프로토콜 로그를 볼 수 있습니다.
첫 번째 요청은 에이전트의 능력을 설명하는 AgentCard를 검색합니다. 두 번째 요청은
참고: LLM의 아웃풋은 확률적이며 동일한 입력을 사용하더라도 워크플로를 실행할 때마다 달라질 수 있습니다.
다양한 유형의 쿼리를 실험하여 에이전트의 다양한 도구를 테스트합니다.
브라우저에서 https://0.0.0.0:9999/.well-known/agent-card.json로 이동하여
이 JSON 문서에서는 다음을 설명합니다.
이 AgentCard를 사용하면 A2A를 준수하는 모든 클라이언트는 구현 세부 사항에 대한 사전 지식 없이도 에이전트를 검색하고 에이전트와 상호 작용할 수 있습니다.
이 튜토리얼에서 클라이언트-에이전트 통신을 위한 구조화된 인터페이스를 노출하는 A2A-complaint 서버를 사용하여 채팅 시스템을 구축했습니다. 메시징 계층을 내부 논리에서 분리함으로써 Agent2Agent 프로토콜을 통해 팀은 클라이언트 코드를 변경하지 않고도 에이전트 능력을 업데이트하고, 모델을 교체하거나, 도구 구성을 수정할 수 있습니다. 이러한 유연성은 입력이 필요한 작업을 조정하거나, 작업 상태를 추적하거나, 각 작업을 개별 작업 단위로 취급할 때 특히 유용합니다.
A2A는 규정을 준수하는 모든 구성 요소가 이해할 수 있는 공통 메시지 형식을 정의하여 자율 에이전트가 다른 에이전트와 협업할 수 있도록 합니다. 프로토콜 사양은 상호 작용 전반에서 일관성과 명확성을 보장하기 위해 메시지가 JSON-RPC 형식으로 구조화되고 메타데이터로 보강되는 방식을 정의합니다.
이 튜토리얼은 A2A 샘플 리포지토리에서 제공하는 기본 예시를 기반으로 합니다. 원래 구현에 대한 자세한 내용은 A2A 호환 시스템 구축에 대한 자세한 컨텍스트와 예시를 제공하는 리포지토리의 readme 파일을 참조하세요.
실제 배포의 경우 A2A 서버는 인증 메커니즘을 구현하여 에이전트 엔드포인트를 보호하고, 스트리밍 응답에 서버 전송 이벤트를 사용하며, 프로덕션 워크플로를 처리할 수 있도록 확장할 수 있습니다. 이 워크플로를 통해 명령줄 클라이언트가 표준화된 프로토콜을 통해 AI 에이전트와 상호 작용하여 에이전트가 여러 도구를 조정하고 상황에 맞는 응답을 제공할 수 있는 방법을 살펴보았습니다. 이 접근 방식은 유지 관리 가능하고 확장 가능하며 유연한 AI 시스템을 가능하게 하는 A2A의 힘을 보여줍니다.
시스템 실험을 마치면 다음 단계에 따라 실행 중인 모든 구성 요소를 완전히 종료합니다.
각 터미널 창에서 Ctrl+C를 눌러 실행 중인 프로세스를 중지합니다.
아웃풋이 다음과 같이 표시되어야 합니다.
서버가 응답하지 않거나 종료 시 중단되면 강제로 중지할 수 있습니다.
프로세스 ID(PID)를 찾습니다.
중지하려는 프로세스의 PID를 식별합니다.
프로세스를 종료합니다.
필요한 경우 각 서버에 대해 이 프로세스를 반복합니다.
이제 A2A를 준수하는 완벽한 채팅 시스템을 성공적으로 실행했습니다.
생성형 AI로 워크플로와 프로세스를 자동화하는 강력한 AI 어시스턴트 및 에이전트를 구축, 배포, 관리하세요.
믿을 수 있는 AI 솔루션으로 비즈니스의 미래를 설계하세요.
IBM Consulting AI 서비스는 기업이 AI 활용 방식을 재구상하여 혁신을 달성하도록 지원합니다.