Pemanggilan alat melibatkan beberapa komponen utama yang bekerja sama untuk memfasilitasi interaksi AI dengan alat eksternal. LLM modern termasuk Claude dari Anthropic, Llama 3 dari Meta, Mistral, dan IBM® Granite, semuanya memiliki kemampuan pemanggilan alat tetapi masing-masing menanganinya dengan sedikit berbeda.
Komponen pertamanya adalah model AI itu sendiri, yang mengenali kapan dirinya tidak memiliki pengetahuan yang cukup atau memerlukan fungsi eksternal untuk menyelesaikan permintaan.
Selanjutnya, mekanisme pemilihan alat mengidentifikasi ketergantungan yang sesuai untuk menangani tugas tertentu, apakah itu mesin pencari, basis data, atau sumber daya komputasi.
Ketika sebuah alat dipilih, antarmuka API ikut berperan, memungkinkan AI untuk mengirim kueri terstruktur dan menerima respons dalam format yang dapat dibaca mesin.
Terakhir, sistem pemrosesan respons membantu memastikan bahwa data yang diambil diformat dengan benar dan disajikan kepada pengguna dengan cara yang bermakna.
Langkah 1. Mengenali kebutuhan akan alat
Katakanlah seorang pengguna bertanya kepada LLM “Bagaimana cuaca di San Francisco sekarang?” AI menggunakan natural language understanding untuk mengenali bahwa data cuaca real-time diperlukan, yang tidak dapat diperoleh dari basis pengetahuan statisnya.
ID pemanggilan alat yang unik diberikan secara otomatis pada permintaan yang dibuat oleh model untuk menggunakan alat, yang bertindak sebagai nomor pelacakan untuk menghubungkan permintaan dengan hasil yang sesuai.
Langkah 2. Memilih alat
AI mengidentifikasi alat terbaik untuk tugas tersebut, dalam hal ini memeriksa basis data cuaca terkini. Langkah ini membantu memastikan bahwa informasi yang diambil akurat dan relevan.
Setiap alat berisi metadata dan informasi terstruktur seperti nama alat unik (atau nama fungsi), yang membantu model dan sistem mengidentifikasinya dengan benar. Metadata lainnya termasuk deskripsi, parameter alat, serta jenis input dan output yang diperlukan.
Model ini melakukan pemilihan alat setelah menentukan bahwa data harus diperoleh dari pilihan alat yang tersedia.
Templat adalah format prompt terstruktur yang memberi tahu model alat mana yang akan digunakan dan argumen (atau "arg") apa yang harus diberikan, yang memungkinkan interaksi yang lebih terkendali dan terstruktur dengan API.
Dalam konteks pemanggilan alat, argumen merujuk pada input terstruktur yang diteruskan ke alat atau fungsi ketika dimulai oleh model generatif. Argumen ini menentukan parameter yang diperlukan alat untuk menjalankannya dengan benar.
Menggabungkan pemanggilan alat dengan generasi dengan dukungan pengambilan data (RAG) meningkatkan kemampuan AI dengan memungkinkan sistem untuk mengambil data terstruktur dan tidak terstruktur sebelum menghasilkan output terstruktur.
Pendekatan ini meningkatkan relevansi kontekstual dengan mengambil data yang paling relevan sebelum menghasilkan respons, yang mengarah pada output yang lebih terinformasi dan akurat.
Ini juga meminimalkan overhead API dengan mengonsolidasikan beberapa pengambilan menjadi satu langkah, mengurangi latensi dan biaya. RAG lebih fleksibel daripada pemanggilan alat tradisional, memungkinkan model untuk mengambil dari berbagai sumber dan membuatnya sangat mudah beradaptasi di berbagai domain.
Berbeda dengan struktur kaku penggunaan alat tradisional, RAG memungkinkan integrasi pengetahuan yang diambil yang lebih lancar dengan penalaran dan generasi, menghasilkan respons yang lebih dinamis dengan insight yang luas.
Langkah 3. Membuat dan mengirim kueri
AI kemudian merumuskan permintaan terstruktur yang dapat dipahami oleh alat atau API.
Setiap alat dikaitkan dengan fungsi alat tertentu, yang mendefinisikan apa yang dilakukan alat tersebut. Fungsi-fungsi ini bergantung pada referensi API, yang menyediakan dokumentasi tentang cara berinteraksi dengan API alat, termasuk URL titik akhir, metode permintaan, dan format respons.
Untuk mengakses API eksternal, banyak layanan memerlukan kunci API, pengenal unik yang memberikan izin untuk membuat permintaan. Ketika alat dipilih dan parameter ditetapkan, panggilan API dibuat untuk mengambil data yang diminta. Permintaan ini biasanya dikirim melalui HTTP ke server eksternal.
Langkah 4. Menerima dan memproses tanggapan
Alat eksternal mengembalikan data. AI kemudian harus mengurai hasil alat. Untuk permintaan cuaca, API mungkin merespons dengan objek skema JSON yang berisi suhu, kelembapan, dan kecepatan angin. AI menyaring dan menyusun data ini untuk meringkas respons yang bermakna bagi pengguna.
Langkah 5. Menyajikan informasi atau mengambil tindakan
AI memberikan informasi yang diproses dengan cara yang intuitif. Jika permintaan melibatkan otomatisasi, seperti pengaturan pengingat, AI akan mengonfirmasi bahwa tindakan telah dijadwalkan.
Langkah 6. Menyempurnakan pencarian
Jika pengguna meminta detail atau modifikasi lebih lanjut, AI dapat mengulangi proses dengan kueri yang disesuaikan, membantu memastikan untuk terus menyempurnakan responsnya berdasarkan kebutuhan pengguna.
LangChain umumnya digunakan dalam pemanggilan alat dengan menyediakan sumber terbuka kerangka kerja untuk mengintegrasikan alat eksternal, API, dan fungsi dengan LLM. Ini membantu mengelola eksekusi alat, penanganan input atau output, dan pengambilan keputusan yang sadar konteks.
Sebagai contoh, LangChain menangani argumen fungsi dengan pengurai untuk kueri pengguna, mengekstrak parameter yang relevan dan memformatnya dengan benar untuk alat ini. Tidak seperti pemanggilan alat sederhana, LangChain dapat menyimpan dan memanggil kembali output alat sebelumnya, sehingga memungkinkan interaksi multigiliran yang lebih baik.
LangChain memungkinkan kombinasi beberapa alat dalam satu urutan, memungkinkan alur kerja yang lebih kompleks. Misalnya, pertama-tama dapat mengambil data dari API cuaca dan kemudian menggunakan alat terpisah untuk merekomendasikan pakaian berdasarkan perkiraan cuaca.