In diesem Tutorial verwenden Sie Agent Communication Protocols (ACP), um einen plattformübergreifenden KI-Workflow mit mehreren Agenten zu erkunden, der die Zusammenarbeit von Echtzeit-Agenten mit BeeAI und crewAI demonstriert. ACP fungiert als gemeinsame Messaging-Ebene mit offenem Standard, die es Agenten aus verschiedenen Frameworks ermöglicht, ohne benutzerdefinierte Integration zu kommunizieren und zu koordinieren.
ACP ist besonders wertvoll für KI-Umgebungen in Unternehmen, in denen Teams häufig Agenten und Workflows für verschiedene Plattformen, Tools und Infrastrukturen erstellen müssen. Durch die Bereitstellung einer standardisierten Messaging-Ebene ermöglicht ACP eine skalierbare, sichere und modulare Zusammenarbeit von Agenten, die den Anforderungen moderner KI-Unternehmenssysteme gerecht wird.
Dieses Projekt demonstriert die Interoperabilität von Agenten, indem es KI-gestützten Agenten ermöglicht, über Framework-Silos hinweg zusammenzuarbeiten und Agentenfunktionen wie Recherche, Inhaltserstellung und Feedback in einem einheitlichen Workflow zu kombinieren.
Die meisten agentischen KI Frameworks wickeln die Kommunikation über benutzerdefinierte oder geschlossene Systeme ab. Diese Architektur erschwert die Verbindung von Agenten über Toolchains, Teams oder Infrastrukturen hinweg, insbesondere wenn Komponenten aus verschiedenen KI-Systemen kombiniert werden.
ACP bietet ein standardisiertes, Framework-unabhängiges Nachrichtenformat, das bestimmt, wie autonome Agenten Nachrichten senden, empfangen und interpretieren. Die Nachrichten sind strukturiert, in der Regel in JSON, und enthalten Metadaten, um die Interaktion der Agenten mit Klarheit und Konstanz zu bereichern.
Durch die Entkopplung der Kommunikation von der internen Logik eines Agenten ermöglicht ACP den Teams, KI-Agenten, die mit verschiedenen Frameworks wie KI-Agent-Frameworks, BeeAI, crewAI, LangChain oder LangGraph erstellt wurden, zu kombinieren und zu integrieren, ohne dass benutzerdefinierter Integrationscode erforderlich ist. Dieser Ansatz erhöht die Skalierbarkeit, vereinfacht die Automatisierung und unterstützt ein modulares, transparentes Systemdesign, das modernen Branchenstandards entspricht.
Am Ende dieses Tutorials haben Sie ein praktisches Beispiel für ACP gesehen und praktische Erfahrung mit den folgenden Technologien erlangt:
Dieses Projekt demonstriert einen Workflow, der zeigt, wie ACP (über das acp-sdk) die kohärente und beobachtbare Zusammenarbeit über Ökosysteme hinweg optimieren kann.
Der Workflow beginnt, wenn der Benutzer eine URL angibt. Anschließend verwandelt ein modulares, Framework-unabhängiges System spezialisierter Agenten den Inhalt der Webseite in ein kreatives Artefakt – ein Originallied – begleitet von professioneller Beurteilung. Alle Komponenten arbeiten zusammen, um diese Ausgaben in einem einzigen, einheitlichen, für Menschen lesbaren Markdown-Bericht zu kombinieren. Dieses Ergebnis stellt eine vollständige Transformation der Originaldaten dar, bei der kreative Generierung mit analytischen Erkenntnissen vereint wird.
Dieser Workflow veranschaulicht, wie ACP es einem agentischen Multi-Agent-KI-System ermöglicht, die Zusammenarbeit zwischen Agenten zu koordinieren, die mit zwei unterschiedlichen Frameworks entwickelt wurden (BeeAI und crewAI), indem es als gemeinsame Kommunikationsschicht im gesamten System dient.
Durch die Trennung von Kommunikation und Implementierung bleibt das System modular und erweiterbar. Es kann Agenten über Frameworks hinweg orchestrieren und gleichzeitig aus unstrukturierten Webinhalten zusammenhängende End-to-End-Ergebnisse erzeugen.
ACP-Agenten
Dieses Projekt verwendet vier spezialisierte KI-Agenten:
Workflow für Songwriting und Beurteilung
Während des gesamten Workflows werden die zwischen den Agenten ausgetauschten Nachrichten als mit Metadaten angereicherte JSON-Objekte strukturiert. Diese Metadaten helfen jedem Agenten, den Inhalt der Nachricht, den Kontext und die erwarteten Antworten zu verstehen.
Dieser Workflow demonstriert ein wiederverwendbares Muster, das für jeden Anwendungsfall geeignet ist, der die Orchestrierung von Datenkonvertierungs- und Analysepipelines mit mehreren Agenten erfordert.
ACP bietet ein gemeinsames Nachrichtensystem, mit dem Agenten, die mit verschiedenen Frameworks erstellt wurden, Informationen auf standardisierte Weise austauschen können. Dieses offene Protokoll ermöglicht es Agenten, ohne benutzerdefinierte Integration oder gemeinsame interne Logik zusammenzuarbeiten.
Der ACP-Client (
Übersicht über den ACP-Client-Workflow
Das
Schlüsselrollen von
Beispiel für eine Client-Nutzung:
Hier sind die Systemanforderungen zum Ausführen dieses Projekts:
Bevor Sie beginnen, finden Sie hier einen kurzen Überblick über die Tools und Anbieterdienste, die Sie benötigen.
Die folgende Liste enthält die wichtigsten Frameworks, Plattformen und APIs, die für den Multi-Agent-Workflow erforderlich sind.
In den folgenden Abschnitten finden Sie Schritt-für-Schritt-Anleitungen für die Installation, Konfiguration und Verwendung der einzelnen Tools und Anbieter, damit Sie Ihre Umgebung einrichten können.
BeeAI und crewAI sind beide so konzipiert, dass sie mit einer Vielzahl von Sprachmodellanbietern zusammenarbeiten und so flexibel für unterschiedliche Umgebungen und Anwendungsfälle sein können. In diesem Tutorial istOpenRouter der LLM-Anbieter für den BeeAI-Agenten, während Ollama lokal für die crewAI-Agenten verwendet wird.
Beide Frameworks sind unabhängig vom Anbieter, sodass Sie durch Aktualisieren der Konfigurationseinstellungen zu anderen LLM-Services wechseln können. Ihre Einrichtung kann je nach gewähltem LLM-Anbieter variieren. Darüber hinaus enthält dieses Tutorial ein optionales, vorkonfiguriertes Setup für die Verwendung von IBM watsonx.ai als alternativen Cloud-Anbieter.
Sie können auch Ihren bevorzugten LLM-Anbieter und Ihr bevorzugtes Modell verwenden. beachten Sie jedoch, dass nur die in diesem Tutorial gezeigten Konfigurationen getestet wurden. Bei anderen Anbietern und Modellen sind möglicherweise zusätzliche Einrichtungs- oder Anpassungsmaßnahmen erforderlich.
Die folgenden Anforderungen gelten für die drei unterstützten Anbieter in diesem Projekt:
Sie benötigen einen OpenRouter API-Schlüssel, um den vorkonfigurierten BeeAI-Agentenserver mit Cloud-Sprachmodellen verwenden zu können.
Führen Sie die folgenden Schritte aus, um OpenRouter als LLM-Anbieter für den BeeAI-Agenten zu verwenden:
Hinweis: Das kostenlose Modell kann je nachdem, wann dieses Tutorial ausgeführt wird, abweichen. Informationen zu kostenlosen Modellen finden Sie in der Liste der OpenRouter-Modelle mit kostenlosem Kontingent.
Wenn Sie Ollama als LLM-Anbieter für den crewAI-Agenten verwenden möchten, führen Sie die folgenden Schritte aus:
Führen Sie die folgenden Schritte aus, um IBM watsonx.ai als LLM-Anbieter für den crewAI-Server zu verwenden:
IBM watsonx.ai wird in diesem Tutorial als optionaler Cloud-LLM-Anbieter für crewAI-Agenten verwendet.
AgentOps ist ein optionaler Service zur Verfolgung, Überwachung und Visualisierung Ihrer Multi-Agent-Workflows.
Wenn Sie AgentOps in diesem Projekt verwenden möchten, führen Sie die folgenden Schritte aus:
AgentOps ist für die Ausführung des Workflows nicht erforderlich, kann Ihnen aber bei der Überwachung von Agentenaktivitäten und dem Debugging von Multi-Agent-Interaktionen helfen.
Um dieses Projekt auszuführen, klonen Sie das GitHub-Repository, indem Sie https://github.com/IBM/ibmdotcom-tutorials.git als HTTPS-URL verwenden. Detaillierte Schritte zum Klonen eines Repository finden Sie in der GitHub-Dokumentation.
Dieses Tutorial finden Sie im Projektverzeichnis des Repos.
Navigieren Sie in einem Terminal zum Verzeichnis dieses Tutorials:
Für dieses Projekt sind drei separate Python-Skripte erforderlich, die für jede Komponente des Multi-Agent-Systems gleichzeitig ausgeführt werden können. Sie müssen daher drei Terminalfenster oder Tabs öffnen.
Lassen Sie zunächst Ihr aktuelles Terminal geöffnet, öffnen Sie dann zwei weitere Terminals und stellen Sie sicher, dass alle drei in die richtigen Verzeichnisse navigiert sind (wie in den nächsten Schritten gezeigt).
Verwenden Sie ein IDE?
Wenn Sie ein IDE wie Visual Studio Code* verwenden, können Sie das Funktion Split Terminal verwenden, um mehrere Terminals nebeneinander zu verwalten.
Andernfalls öffnen Sie drei eigenständige Terminalfenster und navigieren jedes zum richtigen Unterverzeichnis.
Terminalnavigation
Jedes Terminal ist für eine der folgenden Komponenten zuständig:
Jede Komponente wird in einer eigenen virtuellen Umgebung ausgeführt, um ein sauberes Abhängigkeitsmanagement zu gewährleisten. Dieses Tutorial verwendet UV, einen auf Rust basierenden Python-Paketmanager zum Verwalten und Synchronisieren von Umgebungen.
Hinweis: StellenSie sicher, dass Python 3.11 oder höher installiert ist, bevor Sie fortfahren.
UV installieren
Falls noch nicht geschehen, installieren Sie UV mit Homebrew (empfohlen für macOS und Linux):
Hinweis für Windows-Benutzer: Installieren Sie WSL (Windows Subsystems for Linux) und folgen Sie den Linux-Anweisungen in Ihrem WSL-Terminal.
Erstellen und Aktivieren einer virtuellen Umgebung (in jedem Terminal)
Führen Sie in jedem Terminal (BeeAI, crewAI und ACP-Client) den folgenden Code aus:
Dieser Schritt erstellt und aktiviert eine
Die Ausführung
Installieren Sie nun Abhängigkeiten in jedem Terminal, indem Sie Folgendes verwenden:
In diesem Schritt werden die Abhängigkeiten installiert, die in der
Wenn BeeAI installiert ist, verwenden Sie die CLI, um die BeeAI-Plattform im zu starten
Anmerkung: Bei der ersten Ausführung kann dieser Schritt einige Minuten dauern.
Richten Sie Ihren LLM-Anbieter ein (OpenRouter)
Führen Sie den folgenden Befehl aus, um den LLM-Anbieter und das Modell über die interaktive CLI zu konfigurieren:
Folgen Sie den Anweisungen, um OpenRouter auszuwählen, und geben Sie Ihren API-Schlüssel und Ihre Modelldetails ein.
Um Ihre Einstellungen zu bestätigen, verwenden Sie:
Dieser Schritt sollte Ihre Konfiguration ausgeben
Alternativ können fortgeschrittene Benutzer auch manuell eine
Beispiel .env für OpenRouter
Um zu überprüfen, dass BeeAI funktioniert, senden Sie einen Testprompt:
Eine gültige Antwort bestätigt, dass die Plattform aktiv ist.
Fehlerbehebung
Bei Bedarf können Sie die Plattform aktualisieren oder neu starten:
Im
Offen
Sie können auch Ihren eigenen Anbieter anpassen, indem Sie die crewAI LLM-Konfigurationsdokumente verwenden.
crewAI-Agentencode aktualisieren
In
Stellen Sie sicher, dass die Namen der Umgebungsvariablen in Ihrem
Sobald sowohl BeeAI als auch crewAI konfiguriert sind, starten Sie die Agentenserver in ihren jeweiligen Terminals.
Starten Sie den BeeAI-Agentenserver
Im beeai_agent_server Terminal:
Sie sollten eine Ausgabe sehen, die bestätigt, dass der Server gestartet wurde
Das Terminal sollte alle paar Sekunden Zustandsprüfungs-Pings protokollieren. Ein
Starten Sie den crewAI-Agentenserver
Im crewai_Agent_Server-Terminal:
Sie sollten sehen, wie der Server läuft
Vergewissern Sie sich, dass alle Agenten ausgeführt werden
Lokal erstellte ACP-konforme Agenten werden von BeeAI automatisch erkannt. Verwenden Sie die BeeAI-CLI, um zu bestätigen, dass alle lokalen Agenten registriert und in einwandfreiem Zustand sind (dieser Schritt kann in jedem kostenlosen Terminal ausgeführt werden):
Sie sollten Einträge für Folgendes sehen:
Wenn alle aufgeführt und erreichbar sind, können wir bestätigen, dass diese Agenten erfolgreich zusammengearbeitet haben!
Im Terminal, das dem acp-Client-Server zugewiesen ist (in
Im Terminal werden Sie dazu aufgefordert, eine URL einzugeben. Diese Eingabe löst den Multiagenten-Workflow aus.
Wenn alle Agenten und der Client/Server laufen, können Sie das ACP-Projekt starten!
Hinweis: Die Ausgaben von großen Sprachmodellen (LLMs) sind probabilistisch und können jedes Mal, wenn Sie den Workflow ausführen, variieren, selbst mit derselben Eingabe.
In diesem Tutorial haben Sie zwei verschiedene Frameworks über einen ACP-Client/Server verbunden, der Endpunkte für die Zusammenarbeit der KI-Agenten bei der Generierung und Transformation von Daten bereitstellt. Durch die Trennung der Kommunikation vom Agentenverhalten ermöglicht ACP es Agenten, die mit BeeAI, crewAI, LangChain und anderen Frameworks erstellt wurden, um ohne eine benutzerdefinierte Integration zusammenzuarbeiten. Dieser Ansatz verbessert die Modularität, Skalierung und Interoperabilität.
ACP ist eine offene Initiative, die von der Notwendigkeit geprägt ist, dass Agenten Nachrichten senden, empfangen und interpretieren können. Nachrichten in ACP sind strukturiert – in der Regel in Formaten wie JSON – und mit Metadaten angereichert, um Konstanz und Klarheit bei allen Agenteninteraktionen zu gewährleisten. Unabhängig davon, ob Sie Agenten verwenden, die auf OpenAI, Anthropic oder anderen KI-Modellen basieren, bietet ACP eine gemeinsame Messaging-Ebene, die Framework-unabhängige Interoperabilität unterstützt.
Wenn Sie diesem Workflow folgen, haben Sie gesehen, wie kreative und analytische Agenten harmonisch zusammenarbeiten können und unstrukturierte Webinhalte in einen Titel, professionelle Kritik sowie einen einheitlichen Markdown-Bericht verwandeln. Dieser Ansatz zeigt die Leistungsfähigkeit von ACP, nahtlose, flexible und skalierbare Multi-Agent-KI-Systeme zu ermöglichen.
Wenn Sie mit dem Experimentieren mit dem System fertig sind, führen Sie die folgenden Schritte aus, um alle laufenden Komponenten sauber herunterzufahren:
1. Stoppen Sie jeden laufenden Server
Drücken Sie in jedem Terminalfenster
Sie sollten eine Ausgabe wie die folgende sehen:
2. Wenn der Server beim Herunterfahren hängt
Wenn ein Server nicht mehr reagiert oder beim Herunterfahren hängen bleibt (z. B. wenn er bei der
Ermitteln Sie die Prozess-ID (PID).
Führen Sie den folgenden Befehl aus, um den Serverprozess zu finden:
Identifizieren Sie die PID des Prozesses, den Sie stoppen möchten. Zum Beispiel:
Beenden Sie den Vorgang. Verwenden Sie die PID, um ihn zwangsweise zu stoppen:
Wiederholen Sie diesen Vorgang bei Bedarf für jeden Server.
Das war's! Sie haben mit ACP erfolgreich ein vollständiges plattformübergreifendes Multi-Agent-System ausgeführt.
Entwickeln, implementieren und verwalten Sie leistungsstarke KI-Assistenten und -Agenten, die Workflows und Prozesse mit generativer KI automatisieren.
Gestalten Sie die Zukunft Ihres Unternehmens mit KI-Lösungen, denen Sie vertrauen können.
Die KI-Services von IBM Consulting unterstützen Sie dabei, die Art und Weise, wie Unternehmen mit KI arbeiten, neu zu denken.