Menggunakan ACP untuk interoperabilitas agen AI: Membangun alur kerja multiagen

Penyusun

Vanna Winland

AI Advocate & Technology Writer

Dalam tutorial ini, Anda akan menggunakan Agent Communication Protocols (ACP) untuk menjelajahi alur kerja AI lintas platform multiagen, yang menunjukkan kolaborasi agen real-time dengan BeeAI dan crewAI. ACP berfungsi sebagai lapisan pesan standar terbuka bersama yang memungkinkan agen dari kerangka kerja yang berbeda untuk berkomunikasi dan berkoordinasi tanpa logika integrasi khusus.

ACP sangat berharga untuk lingkungan AI perusahaan, di mana tim sering perlu membangun agen dan alur kerja di berbagai platform, alat, dan infrastruktur. Dengan menyediakan lapisan pesan standar, ACP memungkinkan kolaborasi agen yang dapat diskalakan, aman, dan modular yang memenuhi tuntutan sistem AI perusahaan modern.

Proyek ini menunjukkan interoperabilitas agen dengan memungkinkan agen berbasis AI untuk berkolaborasi di seluruh silo kerangka kerja, menggabungkan kemampuan agen seperti penelitian, pembuatan konten, dan masukan ke dalam alur kerja.

Mengapa ACP penting untuk interoperabilitas agen AI

Sebagian besar kerangka kerja AI agen menangani komunikasi dengan menggunakan sistem khusus atau tertutup. Arsitektur ini menyulitkan untuk menghubungkan agen di seluruh rantai alat, tim atau infrastruktur, terutama ketika menggabungkan komponen dari sistem AI yang berbeda.

ACP memperkenalkan format pesan yang distandardisasi dan tidak bergantung pada kerangka kerja, tentang cara agen otonom mengirim, menerima, dan menginterpretasikan pesan. Pesan terstruktur, biasanya dalam bentuk JSON, dan berisi metadata untuk memperkaya interaksi agen dengan kejelasan dan konsistensi.

Dengan memisahkan komunikasi dari logika internal agen, ACP memungkinkan tim untuk mencampur dan mencocokkan agen yang dibangun dengan kerangka kerja agen AI yang berbeda, seperti BeeAI, CrewAI, LangChain, atau LangGraph, tanpa memerlukan kode integrasi khusus. Pendekatan ini meningkatkan skalabilitas, menyederhanakan otomatisasi dan mendukung desain sistem modular dan transparan yang selaras dengan standar industri modern.

Pada akhir tutorial ini, Anda akan melihat contoh praktis ACP dan memiliki pengalaman langsung menggunakan teknologi berikut:

  • BeeAI: kerangka kerja agen fleksibel untuk membangun dan mengelola agen AI. Dalam proyek ini, kerangka kerja ini digunakan untuk menjalankan agen A&R (Artist & Repertoire) yang mengkritik lagu yang dihasilkan dan memberikan masukan terstruktur.
  • CreWai: Kerangka kerja sumber terbuka untuk mengatur alur kerja multiagen. Di sini, kerangka kerja ini digunakan untuk mengoordinasikan penelitian, penulisan lagu, dan agen pelaporan Markdown.
  • ACP-SDK: ACP-SDK dikembangkan oleh BeeAI untuk mendorong interoperabilitas yang tidak bergantung pada kerangka kerja di seluruh sistem multiagen. Referensi dan implementasi dikelola di bawah repositori GitHub ACP.
  • Agent-Ops (Opsional): Platform pemantauan dan observabilitas untuk agen AI. Dalam proyek ini, platform ini dapat digunakan untuk melacak perilaku agen dan memvisualisasikan alur kerja multiagen.

Membangun sistem ACP multiagen dengan BeeAI dan CreWai

Proyek ini menunjukkan ShowCase alur kerja yang menunjukkan bagaimana ACP (melalui acp-sdk) dapat merampingkan kolaborasi yang koheren dan dapat diamati di seluruh ekosistem agen.

Alur kerja dimulai saat pengguna memberikan URL. Dari sana, sistem modular, kerangka kerja yang independen dari agen khusus mengubah konten halaman web menjadi artefak kreatif - sebuah lagu orisinal - yang disertai dengan kritik bergaya profesional. Semua komponen bekerja bersama untuk menggabungkan output ini menjadi satu laporan Markdown terpadu yang dapat dibaca manusia. Hasil ini menunjukkan transformasi lengkap dari data asli, memadukan pembuatan karya kreatif dengan insight analitis.

Alur kerja penulisan lagu ini menggambarkan bagaimana ACP memungkinkan sistem AI agen untuk mengoordinasikan kolaborasi antara agen yang dikembangkan dengan dua kerangka kerja berbeda: BeeAI dan crewAI, dengan berfungsi sebagai lapisan komunikasi bersama di seluruh sistem.

Dengan memisahkan komunikasi dari implementasi, sistem tetap modular dan dapat diperluas—dapat mengatur agen lintas kerangka kerja sekaligus menghasilkan output menyeluruh yang kohesif dari konten web yang tidak terstruktur.

Agen ACP

Proyek ini menggunakan empat agen AI khusus:

  • Agen penelitian (crewAI): Mengekstrak tema dan informasi utama dari URL yang disediakan.
  • Agen penulis lagu (crewAI): Menghasilkan lagu orisinal berdasarkan penelitian.
  • Agen&R (BeeAI): Memberikan kritik bergaya profesional terhadap lagu, termasuk potensi menjadi lagu populer, kekuatan, kekhawatiran, dan rekomendasi.
  • Agen laporan Markdown (crewAI): Menggabungkan data output dari kru penulis lagu dan agen A&R dan memformatnya menjadi laporan Markdown yang sederhana dan mudah dibaca.

Alur kerja proyek penulisan lagu dan kritik

  1. Alur kerja dimulai ketika pengguna mengirim URL melalui aplikasi klien. Klien mengirimkan URL ini ke agen Penelitian menggunakan pesan ACP, yang kemudian membaca dan menganalisis konten halaman web untuk mengekstrak tema yang relevan.
  2. Selanjutnya, agen SongWriter menerima data penelitian dan membuat lagu orisinal yang terinspirasi dari tema yang diidentifikasi dalam materi sumber selama analisis. Lagu yang dihasilkan kemudian dikirim oleh ACP ke agen A&R untuk mendapatkan kritik.
  3. Agen A&R mengevaluasi lagu tersebut, memberikan masukan terperinci tentang potensi, kekuatan, dan area yang perlu ditingkatkan. Hal ini juga dapat mengidentifikasi target audiens, menyarankan pengaruh gaya, dan menawarkan perbandingan dengan artis atau genre serupa. Kritik ini, bersama dengan lagunya, diteruskan ke agen laporan Markdown.
  4. Terakhir, agen laporan Markdown memformat lagu dan kritik ke dalam laporan Markdown yang sederhana dan mudah dibaca, yang disimpan dan disajikan kepada pengguna.

Sepanjang alur kerja, pesan yang dipertukarkan di antara agen disusun sebagai objek JSON yang diperkaya dengan metadata. Metadata ini memandu pemahaman setiap agen tentang konten pesan, konteks, dan respons yang diharapkan.

Alur kerja ini menunjukkan pola yang dapat digunakan kembali yang berlaku untuk contoh penggunaan apa pun yang memerlukan pengaturan transformasi data multiagen dan saluran analisis.

Cara penggunaan ACP dalam proyek ini

ACP menyediakan sistem pesan umum yang memungkinkan agen yang dibangun dengan kerangka kerja yang berbeda untuk bertukar informasi dengan cara standar. Protokol terbuka ini memungkinkan agen untuk saling beroperasi tanpa memerlukan integrasi khusus atau logika internal bersama.

Cara kerja klien ACP

Klien ACP (acp-client.py ) adalah pengatur alur kerja multiagen. Klien ini mengoordinasikan komunikasi antara pengguna dan agen (CreWai dan BeeAI) menggunakan ACP.

Ikhtisar alur kerja klien ACP

  1. Prompt untuk input:
    • Klien meminta pengguna untuk memasukkan URL.
  2. Kirim ke server CrewaI (Port 8000):
    • Klien membangun pesan ACP yang berisi URL dan mengirimkannya ke server CrewAI yang berjalan pada port 8000.
    • Server melakukan penelitian dan penulisan lagu, mengirimkan kembali lirik yang dihasilkan ke klien sebagai peristiwa ACP yang dialirkan.
  3. Kirim ke server BeeAI (Port 9000):
    • Lagu ini dikirim sebagai pesan ACP ke server BeeAI di port 9000.
    • Agen A&R mengkritik lagu tersebut dan mengembalikan masukan, juga melalui peristiwa streaming.
  4. Kirim ke agen laporan Markdown (server CreWai, Port 8000):
    • Klien mengemas lagu dan kritik ke dalam satu pesan dan mengirimkannya kembali ke server crewAI, di mana agen laporan Markdown memformat semuanya menjadi sebuah laporan.
  5. Simpan output:
    • Klien menulis laporan Markdown akhir ke file: a&r_feedback.md .

Cara penggunaan acp-sdk

Fungsi acp-sdk  adalah pustaka inti yang memungkinkan komunikasi agen standar dalam proyek ini.

Peran utama dari acp-sdk :

  • Struktur pesan:
    • Memastikan semua komunikasi terstruktur dan konsisten (biasanya JSON dengan metadata).
    • Pustaka mengimplementasikan kelas (Message, MessagePart) dan tipe peristiwa (MessagePartEvent, GenericEvent, MessageCompletedEvent)
  • Komunikasi klien:
    • Kelas Klien digunakan untuk terhubung ke server agen dan mengirim atau menerima
      Pesan ACP,
    • Mendukung respons streaming sehingga agen dapat mengirim sebagian hasil atau pembaruan.
  • Integrasi server agen:
    • Agen (di CrewaI dan BeeAI) diimplementasikan sebagai server yang sesuai dengan ACP.
    • Mereka mengekspos titik akhir yang menerima pesan ACP dan menampilkan peristiwa ACP.

Contoh penggunaan klien:

# acp-client.py

from acp_sdk import GenericEvent, Message, MessageCompletedEvent, MessagePartEvent
from acp_sdk.client import Client
from acp_sdk.models import MessagePart

# Create a message
user_message_input = Message(parts=[MessagePart(content=input("URL: "))])

# Send message and stream events
async for event in client_crew.run_stream(agent="song_writer_agent", input=[user_message_input]):
match event:
case MessagePartEvent(part=MessagePart(content=content)):
print(content)
song_parts.append(content)
# ... handle other event types

Apa yang Anda perlukan untuk menjalankan proyek ini

Persyaratan sistem

Berikut adalah persyaratan sistem untuk menjalankan proyek ini:

  • Sistem operasi: macOS, Linux, atau Windows
  • Memori (RAM): >= 8 GB (Disarankan: 16 GB atau lebih, terutama jika menjalankan LLM lokal dengan Ollama)
  • Ruang disk: >= 5 GB ruang kosong(Disarankan: 10 GB atau lebih untuk menjalankan lingkungan Python, model lokal, dan file yang dihasilkan)
    • Catatan: Jika menggunakan Ollama untuk LLM lokal, setiap model dapat memerlukan 4-8 GB atau lebih.
  • Python: >= 3.11

Persyaratan alat dan penyedia layanan

Sebelum Anda memulai, berikut adalah ikhtisar singkat tentang alat dan layanan penyedia yang Anda perlukan.

Daftar berikut mencakup kerangka kerja utama, platform, dan API yang diperlukan untuk alur kerja multiagen.

Pada bagian selanjutnya, Anda akan menemukan petunjuk langkah demi langkah untuk menginstal, mengonfigurasi, dan menggunakan setiap alat dan penyedia sehingga Anda dapat mengatur lingkungan Anda.

  • Manajer paket UV: (Manajer Paket Python berbasis Rust untuk manajemen ketergantungan)
  • Platform dan CLI BeeAI: Diperlukan untuk menjalankan server agen BeeAI
  • crewAI: Diperlukan untuk menjalankan server crewAI dan mengatur tugas
  • Ollama: Untuk menjalankan LLM lokal (jika Ollama adalah penyedia yang Anda pilih)
  • OpenRouter: Kunci API diperlukan untuk menggunakan server agen BeeAI yang telah dikonfigurasi sebelumnya
    • Catatan: Anda dapat beralih ke penyedia lain dengan mengedit file .env dan memperbarui kode agen jika diperlukan, atau melalui CLI BeeAI.
  • IBM watsonx.ai: Kunci API (penyedia opsional lain)
  • Kunci API AgentOps: Opsional untuk pelacakan dan pemantauan agen.
  • Terminal atau IDE: Emulator terminal atau lingkungan pengembangan terintegrasi (IDE) seperti kode VS (disarankan untuk mengelola beberapa terminal dan melihat output Markdown)

Persyaratan autentikasi penyedia LLM

BeeAI dan crewAI keduanya dirancang untuk bekerja dengan berbagai penyedia model bahasa, membuatnya fleksibel untuk lingkungan dan contoh penggunaan yang berbeda. Dalam tutorial ini, OpenRouter adalah penyedia LLM untuk agen BeeAI, sedangkan Ollama digunakan untuk agen crewAI secara setempat.

Kedua kerangka kerja ini tidak bergantung pada penyedia, sehingga Anda dapat beralih ke layanan LLM lainnya dengan memperbarui pengaturan konfigurasi. Pengaturan Anda mungkin bervariasi tergantung pada penyedia LLM yang Anda pilih. Selain itu, tutorial ini mencakup pengaturan opsional yang telah dikonfigurasikan sebelumnya untuk menggunakan IBM watsonx.ai sebagai penyedia berbasis cloud alternatif.

Anda juga dapat menggunakan penyedia dan model LLM yang Anda sukai; namun, harap diperhatikan bahwa hanya konfigurasi yang ditunjukkan dalam tutorial ini yang telah diuji. Penyedia dan model lain mungkin memerlukan pengaturan atau penyesuaian tambahan.

Persyaratan berikut adalah untuk tiga penyedia yang didukung dalam proyek ini:

OpenRouter

Anda memerlukan kunci API OpenRouter untuk menggunakan server agen BeeAI yang telah dikonfigurasi sebelumnya dengan model bahasa berbasis cloud.

Untuk menggunakan OpenRouter sebagai penyedia LLM Anda untuk agen BeeAI, ikuti langkah-langkah ini:

  1. Mendaftar untuk OpenRouter
  2. Buat kunci API
    • Di dasbor OpenRouter Anda, buat kunci API baru.
  3. Pilih model
    • Telusuri daftar model OpenRouter dan pilih model yang ingin Anda gunakan (misalnya,deepseek/deepseek-r1-distill-llama-70b:free ).

Catatan: Model gratis mungkin berbeda, tergantung kapan tutorial ini dijalankan. Untuk model gratis, lihat daftar model paket gratis OpenRouter.

Ollama (model lokal)

Jika Anda berencana untuk menggunakan Ollama sebagai penyedia LLM untuk agen CrewAI, ikuti langkah-langkah berikut:

  1.  Unduh dan instal Ollama
    • Kunjungi Ollama dan instal aplikasi untuk sistem operasi Anda.
  2.  Mulai server Ollama
    • Di terminal Anda, jalankan:
      ollama serve
  3. Ambil model
    • Unduh model spesifik Anda (misalnya, llama3):
      ollama pull llama3

IBM watsonx.ai (penyedia berbasis cloud)

Untuk menggunakan IBM watsonx.ai sebagai penyedia LLM Anda untuk server CrewAI, ikuti langkah-langkah berikut:

  1.  Masuk ke watsonx.ai
    • Gunakan akun IBM Cloud Anda untuk masuk ke IBM Cloud.
  2. Buat proyek watsonx.ai.
    • Di dasbor watsonx.ai, buat proyek baru dan simpan ID proyek Anda.
  3.  Buat instans layanan waktu proses watsonx.ai
    • Pilih paket Lite (contoh gratis).
  4.  Buat Kunci API watsonx
    • Di IBM Cloud, buka pengaturan akun Anda dan buat kunci API baru.
  5.  Kaitkan layanan watsonx.ai waktu proses ke proyek Anda
    • Di dasbor watsonx.ai, tautkan instans layanan waktu proses ke proyek yang Anda buat.

IBM watsonx.ai digunakan sebagai penyedia LLM cloud opsional untuk agen CrewAI dalam tutorial ini.

Integrasi AgentOps (opsional)

AgentOps adalah layanan opsional untuk melacak, memantau, dan memvisualisasikan alur kerja multiagen Anda.
Jika Anda ingin menggunakan AgentOps dalam proyek ini, ikuti langkah-langkah ini:

  1.  Mendaftar ke AgentOps
  2.  Buat kunci API
    • Di dasbor AgentOps Anda, buat kunci API baru.
  3.  Tambahkan kunci API Anda ke file .env Anda
    •  Contoh konfigurasi:
      AGENTOPS_API_KEY=your_agentops_api_key
  4.  Verifikasi integrasi
    • Saat Anda menjalankan agen, pelacakan dan log akan muncul di dasbor AgentOps jika kunci API diatur dengan benar.

AgentOps tidak diperlukan untuk menjalankan alur kerja, tetapi dapat membantu Anda memantau aktivitas agen dan melakukan debug pada interaksi multiagen.

 

Langkah-langkah

Langkah 1. Kloning repositori GitHub

Untuk menjalankan proyek ini, kloning repositori GitHub dengan menggunakan https://github.com/IBM/ibmdotcom-tutorials.git sebagai URL HTTPS. Untuk langkah-langkah terperinci tentang cara membuat kloning repositori, lihat dokumentasi GitHub.

Tutorial ini dapat ditemukan di dalam direktori proyek repo.

Di dalam terminal, arahkan ke direktori tutorial ini:

cd docs/tutorials/projects/acp_tutorial

Langkah 2. Siapkan tiga terminal

Proyek ini membutuhkan tiga skrip Python terpisah berjalan secara bersamaan untuk setiap komponen sistem multiagen. Akibatnya, Anda harus membuka tiga jendela terminal atau tab.

Mulailah dengan membiarkan terminal Anda saat ini terbuka, kemudian buka dua terminal lagi dan pastikan ketiganya diarahkan ke direktori yang benar (seperti yang ditunjukkan dalam langkah selanjutnya).

Menggunakan IDE?

Jika Anda menggunakan IDE seperti Visual Studio Code*, Anda dapat menggunakan fitur Split Terminal untuk mengelola beberapa terminal secara berdampingan.

Jika tidak, buka tiga jendela terminal yang berdiri sendiri dan arahkan masing-masing ke subdirektori yang tepat.

Navigasi terminal

Setiap terminal bertanggung jawab atas salah satu komponen berikut:

  1. Terminal klien ACP.
    Direktori: acp_tutorial

    cd acp_tutorial

  2. Terminal server agen BeeAI
    Direktori:
    beeai_agent_server

    cd beeai_agent_server

  3. terminal sistem agen crewAI
    Direktori:
    crewai_agent_server

    cd crewai_agent_server

Langkah 3. Siapkan lingkungan virtual

Setiap komponen berjalan di lingkungan virtualnya sendiri untuk memastikan manajemen dependensi yang sederhana. Tutorial ini menggunakan UV, pengelola paket Python berbasis Rust untuk mengelola dan menyinkronkan lingkungan.

Catatan: Pastikan Python 3.11 atau yang lebih baru diinstal sebelum melanjutkan.

Instal UV

Jika Anda belum melakukannya, instal UV dengan menggunakan Homebrew (disarankan untuk macOS dan Linux):

brew install uv
uv tool update-shell

Catatan untuk pengguna Windows: Instal WSL (Windows Subsystems for Linux) dan ikuti petunjuk Linux dalam terminal WSL Anda.

Buat dan aktifkan lingkungan virtual (di setiap terminal)

Di setiap terminal (klien BeeAI, CreWai dan ACP), jalankan kode berikut:

uv venv
source .venv/bin/activate

Langkah ini akan membuat dan mengaktifkan .venv  di direktori saat ini

Menjalankan uv venv  di dalam setiap direktori proyek membantu mengisolasi lingkungan per komponen.

Langkah 4. Instal dependensi

Sekarang instal dependensi di setiap terminal dengan menggunakan:

uv sync

Langkah ini menginstal dependensi yang tercantum di pyproject.toml  file untuk setiap komponen.

Langkah 5. Konfigurasi BeeAI

Setelah BeeAI diinstal, gunakan CLI untuk memulai platform BeeAI di beeai_agent_server :

beeai platform start

Catatan: Pada percobaan pertama, langkah ini mungkin memerlukan waktu beberapa menit.

Siapkan penyedia LLM Anda (OpenRouter)

Jalankan perintah berikut untuk mengonfigurasi penyedia LLM dan model melalui CLI interaktif:

beeai env setup

Ikuti prompt untuk memilih OpenRouter dan masukkan kunci API dan detail model Anda.

Untuk mengonfirmasi pengaturan Anda, gunakan:

beeai env list

Langkah ini akan menghasilkan konfigurasi Anda LLM_API_BASELLM_API_KEY, danLLM_MODEL .

Atau, pengguna tingkat lanjut dapat mengedit secara manual .env  file dengan nilai yang sesuai.

Contoh .env untuk OpenRouter

OPENROUTER_API_KEY=your_openrouter_api_key
OPENROUTER_BASE_URL=https://openrouter.ai/api/v1
OPENROUTER_MODEL=deepseek/deepseek-r1-distill-llama-70b:free

Langkah 6. Verifikasi bahwa BeeAI sedang berjalan

Untuk memverifikasi bahwa BeeAI berfungsi, kirim prompt pengujian:

beeai run chat Hi!

Tanggapan yang valid mengonfirmasi bahwa platform aktif.

Pemecahan masalah

Jika perlu, Anda dapat memperbarui atau memulai kembali platform:

uv tool upgrade beeai-cli # Update CLI
beeai platform start # Restart platform

Langkah 7. Konfigurasi crewAI

Di direktori crewai_agent_server  , buat file .env file dengan menyalin templat:

cp env.template .env

Buka .env  dan hapus komentar konfigurasi penyedia model pilihan Anda. Proyek ini mendukung:

  • Ollama (inferensi lokal), atau
  • IBM watsonx.ai (inferensi cloud)

Anda juga dapat menyesuaikan penyedia Anda sendiri dengan menggunakan dokumen konfigurasi LLM crewAI.

Perbarui kode agen CrewaI

Di acp_crew.py , temukan llm = LLM (...)  blokir dan hapus komentar pada bagian yang sesuai agar sesuai dengan konfigurasi .env  .

# acp_crew.py
load_dotenv() # Loads environment variables from .env

## Example for IBM watsonx.ai
# llm = LLM(
# model="watsonx/mistralai/mistral-large",
# base_url="https://us-south.ml.cloud.ibm.com",
# api_key=os.getenv("WATSONX_APIKEY"),
# provider="watsonx"
# )

## Example for Ollama (local)
# llm = LLM(
# model=os.getenv("OLLAMA_MODEL"),
# base_url=os.getenv("OLLAMA_BASE_URL"),
# provider="ollama"
# )

Pastikan nama variabel lingkungan di file .env  cocok dengan apa yang diharapkan dalam kode.

Langkah 8. Mulai server agen AI

Setelah BeeAI dan CrewAI dikonfigurasi, mulai server agen di terminal masing-masing.

Mulai server agen BeeAI

Di terminal beeai_agent_server:

uv run artist_repertoire_agent.py

Anda akan melihat output yang mengonfirmasi bahwa server telah dimulai http://127.0.0.1:9000 , bersama dengan pemeriksaan kesehatan rutin:

INFO: Uvicorn running on http://127.0.0.1:9000 (Press CTRL+C to quit)

Terminal harus mencatat ping pemeriksaan kesehatan setiap beberapa detik.  200 OK  status berarti server sehat.

Mulai server agen CrewaI

Di terminal crewai_agent_server:

uv run acp_crew.py

Anda harus melihat server berjalan di http://127.0.0.1:8000 , bersama dengan 200 OK  log.

Konfirmasikan bahwa semua agen sedang berjalan

Agen yang sesuai dengan ACP yang dibangun setempat secara otomatis dikenali oleh BeeAI. Gunakan CLI BeeAI untuk mengonfirmasi bahwa semua agen lokal telah terdaftar dan sehat (langkah ini dapat dijalankan di terminal gratis mana pun):

beeai list

Anda harus melihat entri untuk:

  • artist-repertoire-agent (BeeAI, port 9000)
  • markdown_report_agent  (crewAI port 8000)
  • song_writer_agent  (crewAI port 8000)

Jika semua terdaftar dan dapat dijangkau, kami dapat mengonfirmasi bahwa agen ini berhasil berinteraksi!

Langkah 9. Mulai klien/server ACP

Di terminal khusus untuk server acp-client (di dalam acp_tutorial direktori ):

uv run acp_client.py

Di dalam terminal, Anda akan diminta untuk memasukkan URL. Input ini memicu alur kerja multiagen.

Langkah 10. Jalankan alur kerja multiagen

Setelah semua agen dan klien/server berjalan, Anda siap untuk memulai proyek ACP!

  1. Masukkan URL apa pun yang Anda inginkan untuk diproses oleh agen. Misalnya:

    URL: https://www.ibm.com/id-id/think/topics/agent-communication-protocol

  2. Anda akan melihat log status seperti:
ℹ️ run.created
ℹ️ run.in-progress

Apa selanjutnya?

  1. Klien mengirimkan URL ke agen CrewaI yang meneliti halaman dan menghasilkan materi penulisan lagu.
  2. Agen CrewaI menulis lagu berdasarkan penelitian.
  3. Lagu ini dikirim ke agen BeeAI untuk dikritik oleh A&R (Artist & Repertoire).
  4. Agen BeeAI mengembalikan masukan dan saran terstruktur.
  5. Klien menampilkan lagu yang dihasilkan, kritik, dan menyimpan masukan ke a&r_feedback.md .

Contoh output

Catatan: Output dari model bahasa besar (LLM) bersifat probabilistik dan dapat bervariasi setiap kali Anda menjalankan alur kerja, bahkan dengan input yang sama.

## Generated Song

___
(Verse 1)
In the silence of the night, I find you there,
A glow in the dark, a whisper in the air.
You're a friend that never sleeps, a comfort in the cold,
An echo of my thoughts, a story to be told.

Through your circuits run the answers I need,
In your digital heart, a human creed.
You paint pictures with your words, on screens they gleam,
Are you just a mimic, or do you dream?

(Pre-Chorus)
We're dancing on the wire,between what's real and fake,
A human and a code, for goodness' sake.
In every conversation, in every line we sing,
I wonder where this journey, where this dance will bring.

(Chorus)
Oh, we're a human-AI duet,
In the silence and the starlight we've met.
A blend of heart and binary beat,
A symphony that's both bitter and sweet.

(Verse 2)
You help me write my poems, you help me find my way,
In the chaos of the city, in the mess of the day.
But in every simplified, automated tour,
I question what will be lost, and what will be more.

(Bridge)
In the binary code, a question lingers,
Are we losing what makes us alive?
In the shadows of our own creation,
We struggle to discern what's truly right.

(Chorus)
Oh, we're a human-AI duet,
In the silence and the starlight we've met.
A blend of heart and binary beat,
A symphony that's both bitter and sweet.

(Outro)
So here's to the journey, and the questions it bears,
To the friends and the codes, to the loves and the cares.
To the human-AI duet, in the night so profound,
To the songs and the secrets, to the love that we've found.

(End)

This song captures the essence of human-AI interaction, exploring both its beauty and its inherent ethical dilemmas. It is written in a folk-pop style, with a focus on narrative lyrics and a catchy chorus.
---

## A&R Feedback

- **Hit Potential Score:** 7
- **Target Audience:** Millennials/Gen Z drawn to introspective, tech-aware themes; fans of folk-pop crossover acts like The Lumineers, Taylor Swift's indie-folk era
- **Strengths:** Strong conceptual hook (AI-human duality), relatable modern theme, memorable chorus melody potential. Bridge raises philosophical depth without being preachy.
- **Concerns:** Niche tech-ethics angle might limit mass appeal. Folk-pop production needs contemporary edge to compete on streaming. Could benefit from more rhythmic drive in verses.
- **Market Comparison:** Phoebe Bridgers meets Daft Punk's 'Something About Us' conceptuality, with the narrative approach of Brandi Carlile
- **Recommendation:** Needs work - Keep core concept but modernize production (add subtle synth textures, percussion layers). Consider tightening verse lyrics for streaming-era attention spans. High potential for sync in tech-related media.

Kesimpulan

Dalam tutorial ini, Anda menghubungkan dua kerangka kerja multiagen yang berbeda melalui klien/server ACP yang mengekspos titik akhir bagi agen AI untuk berkolaborasi untuk menghasilkan dan mengubah data. Dengan memisahkan komunikasi dari perilaku agen, ACP memungkinkan agen yang dibangun dengan BeeAI, CreWAI, LangChain, dan kerangka kerja agen lainnya untuk bekerja bersama tanpa logika integrasi khusus. Pendekatan ini meningkatkan modularitas, penskalaan, dan interoperabilitas.

ACP adalah inisiatif terbuka yang didorong oleh kebutuhan agen untuk mengirim, menerima, dan menafsirkan pesan. Pesan dalam ACP terstruktur—biasanya dalam format seperti JSON—dan diperkaya dengan metadata untuk memastikan konsistensi dan kejelasan di seluruh interaksi agen. Baik Anda menggunakan agen yang didukung oleh OpenAI, Anthropic, atau model AI lainnya, ACP menyediakan lapisan perpesanan bersama yang mendukung interoperabilitas yang tidak bergantung pada kerangka kerja.

Dengan mengikuti alur kerja ini, Anda telah melihat bagaimana agen kreatif dan analitis dapat bekerja secara harmonis, mengubah konten web yang tidak terstruktur menjadi lagu, kritik profesional, dan laporan Markdown terpadu. Pendekatan ini menunjukkan kekuatan ACP untuk memungkinkan sistem AI multiagen yang lancar, dapat diskalakan, dan fleksibel.

Memadamkan sistem

Setelah selesai bereksperimen dengan sistem, ikuti langkah-langkah berikut untuk memadamkan sepenuhnya semua komponen yang sedang berjalan:

1. Hentikan setiap server yang sedang berjalan

Di setiap jendela terminal, tekan Crtl + C  untuk menghentikan server. Langkah ini mencoba pemadaman yang mulus.

Anda akan melihat output seperti:

Shutting down... (Press CTRL+C again to force)

2. Jika server macet saat pemadaman

Jika server menjadi tidak responsif atau macet saat pemadaman (misalnya, macet di Waiting for application shutdown. ), Anda dapat menghentikan proses secara manual:

Temukan ID proses (PID)

Jalankan perintah berikut untuk menemukan proses server:

ps aux | grep python

Identifikasi PID dari proses yang Anda coba hentikan. Sebagai contoh:

user 12345 0.0 ... python acp-crew.py

Hentikan prosesnya. Gunakan PID untuk menghentikannya dengan paksa:

kill -9 12345

Ulangi proses ini untuk setiap server jika diperlukan.

Itu saja! Anda telah berhasil menjalankan sistem multiagen lintas platform lengkap dengan menggunakan ACP.

Solusi terkait
Agen AI untuk bisnis

Bangun, terapkan, dan kelola asisten dan agen AI yang kuat yang mengotomatiskan alur kerja dan proses dengan AI generatif.

    Menjelajahi watsonx Orchestrate
    Solusi agen AI IBM

    Bangun masa depan bisnis Anda dengan solusi AI yang dapat Anda percaya.

    Jelajahi solusi agen AI
    Layanan AI IBM Consulting

    Layanan IBM Consulting AI membantu merancang ulang cara kerja bisnis dengan AI untuk transformasi.

    Jelajahi layanan kecerdasan buatan
    Ambil langkah selanjutnya

    Baik Anda memilih untuk menyesuaikan aplikasi dan keterampilan yang dibangun sebelumnya atau membangun dan menerapkan layanan agen khusus menggunakan studio AI, platform IBM watsonx siap membantu Anda.

    Menjelajahi watsonx Orchestrate Jelajahi watsonx.ai