Cara model bahasa memproses dan memisahkan teks berubah dari pendekatan statis tradisional menjadi proses yang lebih baik dan lebih responsif. Berbeda dengan pemotongan tradisional berukuran tetap yang memotong dokumen besar pada titik-titik yang tetap, pemotongan berbasis agen menggunakan teknik berbasis AI untuk menganalisis konten dalam proses yang dinamis dan menentukan cara terbaik untuk memisahkan teks.
Pemotongan berbasis agen memanfaatkan metode pembagian teks berbasis AI, pemotongan rekursif, dan metode pemotongan tumpang tindih, yang bekerja secara bersamaan untuk meningkatkan kemampuan pemecahan, yang menjaga hubungan antara berbagai ide penting sekaligus mengoptimalkan jendela konteks secara real-time. Dengan pemotongan berbasis agen, setiap potongan diperkaya dengan metadata untuk memperdalam akurasi pengambilan dan efisiensi model secara keseluruhan. Hal ini sangat penting dalam aplikasi RAG, di mana segmentasi data dapat secara langsung memengaruhi kualitas pengambilan dan koherensi respons. Konteks yang bermakna dipertahankan di semua potongan yang lebih kecil, menjadikan pendekatan ini sangat penting bagi chatbot, basis pengetahuan, dan contoh penggunaan AI generatif (gen AI). Kerangka kerja seperti Langchain atau LlamaIndex terus meningkatkan efisiensi pengambilan, menjadikan metode ini sangat efektif.
1. Strategi pemotongan adaptif: Memilih metode pemotongan terbaik secara dinamis berdasarkan jenis konten, maksud di balik kueri, dan kebutuhan pengambilan data untuk memastikan segmentasi yang efektif.
2. Penyesuaian ukuran potongan secara dinamis: Mengubah ukuran potongan secara real-time dengan mempertimbangkan struktur semantik dan konteks, ketimbang tetap menggunakan batas token yang tetap.
3. Tumpang tindih yang mempertahankan konteks: Menilai tumpang tindih di antara potongan secara cerdas untuk menjaga koherensi tetap utuh dan menghindari kehilangan informasi penting, sehingga meningkatkan efisiensi pengambilan informasi.
Buletin industri
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.
Pemotongan berbasis agen menawarkan keunggulan dibandingkan pemotongan tradisional:
a. Mempertahankan konteks: Mempertahankan informasi penting tanpa pemisahan yang tidak perlu.
b. Penyesuaian ukuran yang cerdas: Menyesuaikan batas potongan sesuai dengan arti dan maknanya.
c. Mengoptimalkan kueri: Terus menyempurnakan potongan agar cocok dengan kueri tertentu.
d. Pengambilan yang efisien: Meningkatkan output sistem pencarian dan RAG dengan meminimalkan fragmentasi yang tidak perlu.
Dalam tutorial ini, Anda akan bereksperimen dengan strategi pemotongan berbasis agen menggunakan model IBM Granite-3.0-8B-Instruct IBM yang kini tersedia di watsonx.ai. Keseluruhan tujuan adalah untuk melakukan pemotongan yang efisien untuk menerapkan RAG secara efektif.
Anda memerlukan akun IBM Cloud untuk membuat proyek watsonx.ai .
Meskipun terdapat pilihan beberapa alat, tutorial ini akan memandu Anda untuk menyiapkan akun IBM menggunakan Jupyter Notebook.
Masuk ke watsonx.ai dengan menggunakan akun IBM Cloud Anda.
Buat proyek watsonx.ai.
Anda bisa mendapatkan ID proyek dari dalam proyek Anda. Klik tab Kelola . Kemudian, salin ID proyek dari bagian Detail di halaman Umum . Anda memerlukan ID ini untuk tutorial ini.
Buat Jupyter Notebook.
Langkah ini akan membuka lingkungan notebook tempat Anda dapat menyalin kode dari tutorial ini. Atau, Anda dapat mengunduh aplikasi notebook ini ke sistem lokal Anda dan mengunggahnya ke proyek watsonx.ai sebagai aset. Untuk melihat tutorial Granite lain, lihat Komunitas IBM Granite. Aplikasi Jupyter Notebook ini bersama dengan kumpulan data yang digunakan dapat ditemukan di GitHub.
Buat instans layanan waktu proses watsonx.ai (pilih wilayah yang sesuai dan pilih paket Lite, yang merupakan instans gratis).
Buat Kunci API.
Kaitkan instans layanan waktu proses watsonx.ai ke proyek yang Anda buat di watsonx.ai.
Anda akan membutuhkan beberapa pustaka dan modul untuk tutorial ini. Pastikan untuk mengimpor yang berikut ini dan jika tidak diinstal, instalasi pip cepat akan menyelesaikan masalah.
Catatan, tutorial ini dibuat menggunakan Python 3.12.7
Untuk mengatur kredensial, kita membutuhkan "WATSONX_APIKEY" dan "WATSONX_PROJECT_ID". Kita juga akan mengatur URL yang berfungsi sebagai titik akhir API.
Untuk tutorial ini, kami sarankan menggunakan model Granite-3.0-8B-Instruct dari IBM sebagai LLM untuk mencapai hasil yang serupa. Anda bebas menggunakan model AI apa pun pilihan Anda. Model dasar yang tersedia melalui watsonx dapat ditemukan di sini..
Fungsi ini mengekstrak konten teks dari halaman penjelas IBM tentang machine learning. Fungsi ini menghapus elemen HTML yang tidak diinginkan (skrip, gaya) dan mengembalikan teks yang bersih dan dapat dibaca.
Alih-alih menggunakan metode pemotongan dengan panjang tetap, kami menggunakan LLM untuk membagi teks berdasarkan makna. Fungsi ini memanfaatkan LLM untuk membagi teks secara cerdas menjadi potongan yang bermakna secara semantik berdasarkan topik.
Mari kita cetak potongan untuk mendapatkan pemahaman yang lebih baik tentang struktur output mereka.
Hebat! Potongan berhasil dibuat oleh agen di output.
Sekarang setelah bereksperimen dengan pemotongan agen pada teks, mari kita lanjutkan implementasi RAG kita.
Untuk tutorial ini, kita memilih potongan yang dihasilkan oleh agen dan mengubahnya menjadi penanaman vektor. Penyimpanan vektor sumber terbuka yang dapat kita gunakan adalah Chroma DB. Kita dapat dengan mudah mengakses fungsionalitas Chroma melalui paket langchain_chroma. Mari kita awali basis data vektor Chroma, memberikannya model penanaman, dan menambahkan dokumen kita yang dihasilkan oleh pemotongan agen.
Buat basis data vektor Chroma
Konversi setiap potongan teks menjadi objek dokumen
Tambahkan dokumen ke basis data vektor.
Sekarang kita dapat membuat templat prompt untuk LLM. Templat ini memastikan bahwa kita dapat mengajukan banyak pertanyaan sekaligus mempertahankan struktur prompt yang konsisten. Selain itu, kita dapat mengintegrasikan penyimpanan vektor sebagai pengambil data yang menyelesaikan kerangka kerja RAG.
Menggunakan potongan agen ini dalam alur kerja RAG, mari kita mulai kueri pengguna. Pertama, kita dapat secara strategis memerintahkan model tanpa konteks tambahan dari penyimpanan vektor yang kita buat untuk menguji, apakah model menggunakan pengetahuan bawaannya atau benar-benar menggunakan konteks RAG. Menggunakan penjelas machine learning dari IBM, mari kita ajukan pertanyaan sekarang.
Jelas, model tersebut tidak dilatih menggunakan informasi tentang proses optimasi model, dan tanpa alat atau informasi eksternal, model ini tidak dapat memberikan informasi yang benar kepada kita. Model berhalusinasi. Sekarang, mari kita coba memberikan kueri yang sama ke rantai RAG dengan potongan agen yang kita buat.
Hebat! Model Granite menggunakan potongan RAG agen dengan benar sebagai konteks untuk memberikan kita informasi yang benar tentang proses pengoptimalan model sekaligus mempertahankan koherensi semantik.
Dalam tutorial ini, kita menghasilkan potongan informasi relevan yang lebih kecil menggunakan agen AI dalam proses pemotongan dan membangun jalur generasi dengan dukungan pengambilan data (RAG).
Metode ini meningkatkan pengambilan informasi dan optimasi jendela konteks dengan menggunakan kecerdasan buatan dan pemrosesan bahasa alami (NLP). Ini mengoptimalkan potongan data untuk meningkatkan efisiensi pengambilan data saat memanfaatkan model bahasa besar (LLM) seperti model GPT dari OpenAI untuk mendapatkan hasil yang lebih baik.
Bantu pengembang untuk membangun, menerapkan, dan memantau agen AI dengan studio IBM watsonx.ai.
Ciptakan produktivitas inovatif dengan salah satu rangkaian kemampuan paling komprehensif di industri untuk membantu bisnis membangun, menyesuaikan, dan mengelola agen dan asisten AI.
Raih penghematan biaya lebih dari 90% dengan model Granite yang lebih kecil dan terbuka, yang dirancang untuk efisiensi pengembang. Model yang sesuai dengan kebutuhan perusahaan ini memberikan kinerja luar biasa terhadap tolok ukur keamanan dan di berbagai tugas perusahaan, mulai dari keamanan siber hingga RAG.