Neste tutorial, você usará os Agent Communication Protocols (ACP) para explorar um fluxo de trabalho de IA multiagentes e multiplataformas, que demonstra a colaboração dos agentes em tempo real com o BeeAI e o crewAI. O ACP funciona como uma camada de mensagens compartilhada e de padrão aberto que permite que agentes de diferentes frameworks se comuniquem e coordenem sem lógica de integração personalizada.
O ACP é especialmente valioso para ambientes de IA corporativos, onde as equipes muitas vezes precisam criar agentes e fluxos de trabalho em diversas plataformas, ferramentas e infraestruturas. Ao oferecer uma camada de mensagens padronizada, o ACP possibilita a colaboração escalável, segura e modular de agentes, atendendo às demandas dos sistemas de IA corporativos modernos.
Este projeto demonstra a interoperabilidade de agentes, permitindo que agentes orientados por IA colaborem em silos de frameworks, combinando recursos de agentes como pesquisa, geração de conteúdo e feedback em um fluxo de trabalho unificado.
A maioria dos frameworks de IA agêntica lida com a comunicação usando sistemas personalizados ou fechados. Essa arquitetura dificulta a conexão de agentes em cadeias de ferramentas, equipes ou infraestruturas, especialmente quando se combinam componentes de diferentes sistemas de IA.
O ACP introduz um formato de mensagens padronizado e independente de framework sobre como os agentes autônomos enviam, recebem e interpretam mensagens. As mensagens são estruturadas, geralmente em JSON, e contêm metadados para enriquecer as interações dos agentes com clareza e consistência.
Ao desacoplar a comunicação da lógica interna de um agente, o ACP permite que as equipes combinem agentes criados com diferentes frameworks de agentes de IA, como o BeeAI, crewAI, CrewAI, LangChain ou LangGraph, sem a necessidade de um código de integração personalizado. Essa abordagem aumenta a escalabilidade, simplifica a automação e proporciona compatibilidade com o projeto de sistemas modulares transparentes que se alinham aos padrões modernos do setor.
Até o final deste tutorial, você terá visto um exemplo prático do ACP e terá experiência prática no uso das seguintes tecnologias:
Este projeto demonstra um fluxo de trabalho multiagentes que mostra como o ACP (por meio do acp-sdk) pode agilizar a colaboração coerente e observável em todos os ecossistemas de agentes.
O fluxo de trabalho começa quando o usuário fornece uma URL. A partir daí, um sistema modular e independente de framework de agentes especializados transforma o conteúdo da página da web em um artefato criativo (uma música original) acompanhado por uma crítica de estilo profissional. Todos os componentes trabalham em conjunto para combinar essas saídas em um único relatório Markdown unificado e legível para seres humanos. Esse resultado final representa uma transformação completa dos dados originais, combinando geração criativa com insights analíticos.
Esse fluxo de trabalho de composição musical ilustra como o ACP permite que um sistema de IA agêntica multiagentes coordene a colaboração entre agentes desenvolvidos com dois frameworks distintos: BeeAI e crewAI, por servir como uma camada de comunicação compartilhada em todo o sistema.
Ao separar a comunicação da implementação, o sistema permanece modular e extensível, capaz de orquestrar agentes entre frameworks enquanto produz produções saídas coesas de ponta a ponta a partir de conteúdo da web não estruturado.
Agentes do ACP
Este projeto utiliza quatro agentes de IA especializados:
Fluxo de trabalho do projeto de composição musical e crítica
Em todo o fluxo de trabalho, as mensagens trocadas entre agentes são estruturadas como objetos JSON enriquecidas com metadados. Esses metadados orientam a compreensão de cada agente sobre o conteúdo da mensagem, o contexto e as respostas esperadas.
Esse fluxo de trabalho demonstra um padrão reutilizável aplicável a qualquer caso de uso que exija a orquestração de pipelines de transformação de dados e análise multiagentes.
O ACP fornece um sistema de mensagens comum que permite que os agentes criados com diferentes frameworks troquem informações de maneira padronizada. Esse protocolo aberto permite que os agentes interoperem sem a necessidade de integrações personalizadas ou lógica interna compartilhada.
O cliente do ACP (
Visão geral do fluxo de trabalho do cliente do ACP
A
Principais funções de
Exemplo de uso do cliente:
Estes são os requisitos do sistema para executar este projeto:
Antes de começar, aqui está uma visão geral rápida das ferramentas e dos serviços de provedor de que você precisará.
A lista a seguir abrange os principais frameworks, plataformas e APIs necessários para o fluxo de trabalho multiagentes.
Nas seções subsequentes, você encontrará instruções passo a passo para instalar, configurar e usar cada ferramenta e provedor, para que você possa configurar seu ambiente.
O BeeAI e o CrewAI são projetados para trabalhar com uma variedade de provedores de modelos de linguagem, tornando-os flexíveis para diferentes ambientes e casos de uso. In this tutorial, o OpenRouter é o provedor de LLMs para o agante do BeeAI, enquanto o Ollama ié usado para agentes do crewAI localmente.
Ambos os frameworks são independentes do provedor; portanto, você pode alternar para outros serviços de LLM atualizando as definições de configuração. Sua configuração pode variar dependendo do provedor de LLMs escolhido. Além disso, este tutorial inclui uma configuração opcional e pré-configurada para usar o IBM watsonx.ai como um provedor alternativo baseado na nuvem.
Você também pode usar seu provedor e modelo de LLM preferido; no entanto, observe que apenas as configurações mostradas neste tutorial foram testadas. Outros provedores e modelos podem exigir configuração ou ajustes adicionais.
Os seguintes requisitos são para os três provedores compatíveis com este projeto:
Você precisará de uma chave de API do OpenRouter para usar o servidor de agentes do BeeAI pré-configurado com modelos de linguagem baseados em nuvem.
Para usar o OpenRouter como seu provedor de LLMs para o agente do BeeAI, siga estas etapas:
Observação: o modelo gratuito pode ser diferente dependendo de quando este tutorial for executado. Para modelos gratuitos, confira a lista de modelos de pacote gratuito do OpenRouter.
Se você planeja usar o Ollama como seu provedor de LLMs para o agente do crewAI, siga estas etapas:
Para usar o IBM watsonx.ai como seu provedor de LLMs para o servidor do crewAI, siga estas etapas:
O IBM watsonx.ai é usado como um provedor de LLMs em nuvem opcional para agentes do crewAI neste tutorial.
O AgentOps é um serviço opcional para rastrear, monitorar e visualizar seus fluxos de trabalho multiagentes.
Se você quiser usar o AgentOps neste projeto, siga estas etapas:
O AgentOps não é necessário para executar o fluxo de trabalho, mas pode ajudar a monitorar a atividade dos agentes e depurar as interações multiagentes.
Para executar esse projeto, clone o repositório do GitHub usando https://github.com/IBM/ibmdotcom-tutorials.git como a URL HTTPS. Para ver etapas detalhadas sobre como clonar um repositório, consulte a documentação do GitHub.
Este tutorial pode ser encontrado dentro do diretório de projetos do repo.
Dentro de um terminal, navegue até o diretório deste tutorial:
Este projeto exige três scripts Python separados a serem executados simultaneamente para cada componente do sistema multiagentes. Consequentemente, você precisará abrir três janelas ou guias de terminal.
Comece mantendo o terminal atual aberto e, em seguida, abra mais dois terminais e certifique-se de que todos os três sejam direcionados para os diretórios corretos (conforme mostrado na próxima etapa).
Usando um IDE?
Se estiver usando um IDE como o Visual Studio Code*, você pode usar a funcionalidade Dividir terminal para gerenciar vários terminais lado a lado.
Caso contrário, abra três janelas de terminal independentes e navegue em cada uma até o subdiretório apropriado.
Navegação em terminais
Cada terminal é responsável por um dos seguintes componentes:
Cada componente é executado em seu próprio ambiente virtual para garantir um gerenciamento de dependências limpo. Este tutorial usa o UV, um gerenciador de pacotes Python baseado no Rust para gerenciar e sincronizar ambientes.
Observação: certifique-se de que o Python 3.11 ou posterior esteja instalado antes de continuar.
Instale o UV
Se você ainda não o fez, instale o UV usando o Homebrew (recomendado para macOS e Linux):
Observação para usuários do Windows: instale o WSL (Subsistemas do Windows para Linux) e siga as instruções do Linux no seu terminal WSL.
Criar e ativar um ambiente virtual (em cada terminal)
Em cada terminal (BeeAI, CrewAI e cliente do ACP), execute o seguinte código:
Esta etapa criará e ativará uma
Em execução
Agora instale dependências em cada terminal usando:
Essa etapa instala as dependências listadas no
Com o BeeAI instalado, use o CLI para iniciar a plataforma BeeAI no
Observação: na primeira execução, essa etapa pode levar vários minutos.
Configure seu provedor de LLM (OpenRouter)
Execute o seguinte comando para configurar o provedor e o modelo de LLM por meio da CLI interativa:
Siga os prompts para selecionar o OpenRouter e inserir sua chave de API e os detalhes do modelo.
Para confirmar suas configurações, use:
Essa etapa deve produzir seus configurados
Como alternativa, usuários avançados podem editar manualmente um
Exemplo de .env para o OpenRouter
Para verificar se o BeeAI está funcionando, envie um prompt de teste:
Uma resposta válida confirma que a plataforma está ativa.
Resolução de problemas
Se necessário, você pode atualizar ou reiniciar a plataforma:
No
Aberto
Você também pode personalizar seu próprio provedor usando os documentos de configuração do LLM do crewAI.
Atualize o código dos agentes do CrewAI
Em
Certifique-se de que os nomes das variáveis de ambiente em seus
Depois que o BeeAI e o crewAI estiverem configurados, inicie os servidores dos agentes em seus respectivos terminais.
Inicie o servidor de agentes do BeeAI
No terminal beeai_agent_server :
Você deverá ver uma saída confirmando que o servidor foi iniciado em
O terminal deve registrar pings de integridade em intervalos de alguns segundos. Um
Inicie o servidor dos agentes do crewAI
No terminal crewai_agent_server :
Você deverá ver o servidor em execução em
Confirme se todos os agentes estão em execução
Agentes compatíveis com o ACP criados localmente são automaticamente reconhecidos pelo BeeAI. Use a CLI do BeeAI para confirmar s todos os agentes locais estão registrados e íntegros (esta etapa pode ser executada em qualquer terminal disponível):
Você deverá ver entradas para:
Se todos estiverem listados e acessíveis, poderemos confirmar que esses agentes foram interoperados com sucesso!
No terminal dedicado ao servidor acp-client (dentro do
Dentro do terminal, será solicitado que você insira uma URL. Essa entrada aciona o fluxo de trabalho multiagentes.
Com todos os agentes e o cliente/servidor em execução, você está pronto para iniciar o projeto do ACP!
Observação: as saídas de grandes modelos de linguagem (LLMs) são probabilísticas e podem variar cada vez que você executa o fluxo de trabalho, mesmo com a mesma entrada.
Neste tutorial, você conectou dois frameworks multiagentes diferentes por meio de um cliente/servidor ACP, que expôs endpoints para os agentes de IA colaborarem para gerar e transformar dados. Ao separar a comunicação do comportamento do agente, o ACP permite que os agentes criados com o BeeAI, crewAI, LangChain e outros frameworks trabalhem juntos sem a necessidade de usar a lógica de integração personalizada. Essa abordagem melhora a modularidade, a escalabilidade e a interoperabilidade.
O ACP é uma iniciativa aberta impulsionada pela necessidade de os agentes enviarem, receberem e interpretarem mensagens. As mensagens no ACP são estruturadas, geralmente em formatos como JSON, e enriquecidas com metadados para garantir a consistência e a clareza nas interações dos agentes. Não importa se você está usando agentes com tecnologia OpenAI, Anthropic ou outros modelos de IA, o ACP fornece uma camada de mensagens compartilhada compatível com a interoperabilidade independente de framework.
Ao seguir esse fluxo de trabalho, você viu como agentes criativos e analíticos podem trabalhar em harmonia, transformando conteúdo não estruturado da web em uma música, crítica profissional e um relatório Markdown unificado. Essa abordagem demonstra o poder do ACP para permitir sistemas de IA multiagentes contínuos, escalável e flexíveis.
Quando você terminar de experimentar o sistema, siga estas etapas para encerrar corretamente todos os componentes em execução:
1. Interrompa todos os servidores em execução
Em cada janela de terminal, pressione
Você deverá ver a saída como:
2. Se o servidor travar durante o desligamento
Se um servidor deixar de responder ou travar ao ser desligado (por exemplo, preso em
Encontre a ID do processo (PID)
Execute o seguinte comando para localizar o processo do servidor:
Identifique a PID do processo que você está tentando interromper. Por exemplo:
Encerre o processo. Use a PID para pará-lo de forma forçada:
repita esse processo para cada servidor, se necessário.
É isso! Você executou com sucesso um sistema multiagentes completo entre plataformas usando o ACP.
Crie, implemente e gerencie assistentes e agentes de IA potentes que automatizam fluxos de trabalho e processos com a IA generativa.
Construa o futuro do seu negócio com soluções de IA em que você pode confiar.
Os serviços de IA da IBM Consulting ajudam a reinventar a forma como as empresas trabalham com IA para gerar transformação.