LlamaIndex vs LangChain: Apa bedanya?

Tampilan samping bangunan yang sedang dibangun dengan derek

Penyusun

Ivan Belcic

Staff writer

Cole Stryker

Staff Editor, AI Models

IBM Think

LlamaIndex vs LangChain: Apa bedanya?

LlamaIndex dan LangChain adalah dua platform yang memfasilitasi pembuatan dan implementasi generasi dengan dukungan pengambilan data (RAG) sistem. LlamaIndex dibuat untuk pencarian dan pengambilan yang efisien, sementara LangChain adalah platform modular serbaguna yang mendukung banyak contoh penggunaan.

RAG melengkapi model bahasa besar (LLM) dengan pengetahuan khusus domain untuk meningkatkan akurasi dan utilitas chatbot dan aplikasi kecerdasan buatan (AI) lainnya yang didukungnya. Meskipun LlamaIndex dan LangChain memiliki contoh penggunaan yang tumpang tindih, masing-masing mendekati tugas pembuatan sistem RAG dengan cara yang berbeda. 

LlamaIndex berfokus pada pengindeksan, penyerapan data, dan pengambilan informasi dari sumber data berbasis teks, menjadikannya ideal untuk alur kerja yang lebih sederhana dan aplikasi AI yang mudah dipahami. Sementara itu, kerangka kerja modular LangChain unggul dalam membangun berbagai pemrosesan bahasa alami (NLP) dan aplikasi AI agen .

Apa itu RAG?

RAG adalah teknik yang menghubungkan aplikasi LLM dengan sumber data eksklusif. Pengambilan data yang didukung RAG memperluas machine learning (ML) model memperluas basis pengetahuan di luar data pelatihannya. RAG memberi model AI generatif akses ke pengetahuan khusus domain, seperti data internal organisasi, yang tidak akan mereka miliki. 

Sistem RAG menanggapi pertanyaan pengguna dengan mengambil informasi yang relevan dari sumber data yang ditunjuk secara real time, kemudian menambah kemampuan generatif LLM untuk jawaban yang lebih baik. Model yang dilengkapi dengan RAG menghasilkan jawaban yang lebih akurat dengan tingkat relevansi kontekstual yang lebih tinggi. 

Ketika kendala waktu dan biaya mencegah proses penyempurnaan yang panjang, RAG dapat menjadi alternatif yang efisien dan nyaman—meskipun kedua teknik tersebut dapat digabungkan untuk kinerja yang lebih kuat.

Desain 3D bola yang menggelinding di lintasan

Berita + Insight AI terbaru 


Temukan insight dan berita yang dikurasi oleh para pakar tentang AI, cloud, dan lainnya di Buletin Think mingguan. 

Apa itu LlamaIndex?

LlamaIndex, sebelumnya dikenal sebagai Indeks GPT, adalah kerangka kerja sumber terbuka untuk penyerapan, pengindeksan, dan pengambilan data. Tersedia dalam bahasa Python dan TypeScript, memungkinkan pengguna untuk menghubungkan LLM dengan kumpulan data yang besar dan membuat aplikasi pengambilan.  

Contoh penggunaan utama LlamaIndex adalah manajemen dokumen dan utilitas: ini menerapkan kekuatan LLM untuk mengotomatiskan proses pengaturan, kueri, dan meringkas dokumen. Dengan mengubah kumpulan data tekstual yang besar menjadi indeks yang mudah ditelusuri, LlamaIndex menyederhanakan pembuatan konten yang mendukung RAG.

Fitur utama LlamaIndex

LlamaIndex terstruktur di sekitar satu set inti komponen kunci, yang meliputi: 

  • Konsumsi data dan LlamaHub

  • Pengindeksan data

  • Permintaan dan pengambilan 

  • Pascapemrosesan 

  • Sintesis respons

Konsumsi data dan LlamaHub

Penyerapan data adalah tahap pertama dari pipeline RAG LlamaIndex. Di LlamaIndex, tahap ini dikenal sebagai pemuatan data dan menggunakan pemuat data, atau konektor data, untuk mengambil dan memproses data. LlamaIndex mencakup lebih dari 160 jenis format data dan mendukung struktur data termasuk data terstruktur, semiterstruktur, dan tidak terstruktur. 

Ketika menggunakan LlamaIndex untuk berbagai tugas pengambilan yang tidak tercakup oleh satu sumber data, pengguna dapat beralih ke LlamaHub: kumpulan pemuat data serbaguna sumber terbuka yang mencakup berbagai kebutuhan spesifik. Pengguna LlamaHub dapat memadukan beberapa sumber data, seperti API, SQL Database SQL , dan bahkan Google Workspaces, ke dalam satu alur kerja. Beberapa konektor LlamaHub bahkan mendukung file audio dan video.

Pengindeksan data

Setelah semua sumber data terhubung, langkah selanjutnya dalam alur kerja LlamaIndex adalah pengindeksan data: memahami semua data dan mengaturnya untuk penggunaan di masa mendatang. LlamaIndex menggunakan penyematan untuk mengonversi data yang disediakan pengguna menjadi indeks data berbasis vektor yang dapat dicari. Model penyematan adalah algoritme AI yang mengubah data menjadi vektor matematika yang diplot dalam basis data vektor multidimensi basis data vektor. 

Proses penyematan menangkap hubungan semantik antara titik data untuk meningkatkan pencarian sadar konteks. Kueri pengguna juga diubah menjadi embedding. Mesin kueri dapat mengidentifikasi titik data yang memiliki arti yang mirip dengan kueri, meningkatkan pencarian informasi yang relevan. 

LlamaIndex dapat membuat indeks dari indeks lain untuk membangun alur kerja dan kueri yang kompleks dengan indeks yang sudah ada sebelumnya. Daripada melakukan kueri pada penyimpanan vektor yang terpisah satu per satu, pengguna dapat membuat indeks gabungan untuk membuat kueri seefisien mungkin.

Permintaan dan pengambilan informasi

Saat membuat kueri, kueri pengguna juga dikonversi menjadi penyematan. Mesin kueri dapat mengidentifikasi titik data yang serupa artinya dengan kueri, membantu dalam pencarian informasi yang relevan. LlamaIndex menggunakan prinsip kesamaan semantik untuk mengambil data yang paling relevan dari penyimpanan vektor sebagai respons terhadap kueri. 

Fitur transformasi kueri LlamaIndex menyederhanakan kueri kompleks atau memecahnya menjadi kueri yang lebih mudah dikelola. Transformasi kueri adalah teknik pengoptimalan yang meningkatkan peluang sistem RAG dalam menemukan data paling relevan dan menghasilkan respons terbaik.

Pascapemrosesan

Setelah data yang relevan diambil, segmen komponen atau node-nya dapat diurutkan ulang dan disaring untuk lebih meningkatkan respons yang akan datang. Pascapemrosesan node memungkinkan untuk menangani sumber data yang memerlukan penataan dan transformasi lebih lanjut setelah pengambilan.

Sintesis respons

Data yang diambil digabungkan dengan kueri dan prompt asli dan diteruskan ke LLM yang terhubung, yang kemudian menghasilkan respons.

Akademi AI

Memilih model AI yang tepat untuk contoh penggunaan Anda

Lebih besar tidak selalu lebih baik dalam hal model AI. Pelajari cara menemukan model yang tepat untuk kebutuhan bisnis Anda. Kemudian dapatkan buku panduan untuk membantu Anda mengambil tindakan.

Apa itu LangChain?

LangChain adalah kerangka kerja pembuatan aplikasi AI agen dengan rangkaian opsi modular yang memungkinkan pengguna untuk "merangkai" komponen menjadi alur kerja yang kompleks. LangChain mendukung impor hampir semua model AI, termasuk OpenAI GPT dan Anthropic's Claudedengan fokus pada otomatisasi ujung ke ujung. LangChain mendukung pustaka Python dan JavaScript.

Fitur utama LangChain

Platform LangChain berpusat di sekitar rangkaian inti fitur unik yang dirancang untuk menyederhanakan pembuatan prototipe dan pembuatan aplikasi AI agen seperti chatbot dan agen virtual. 

  • Model 

  • Templat yang cepat 

  • Indeks 

  • Memori 

  • Peralatan 

  • Rantai 

  • Agen 

  • LangSmith dan LangServe

Model

Antarmuka pengguna standar LangChain menyederhanakan proses berinteraksi dan bekerja dengan banyak LLM. Akses model biasanya diperoleh melalui API penyedia, yang dapat membebani pengguna, tergantung pada penyedia. 

Jika menggunakan model berbasis obrolan, LangChain mengklarifikasi komunikasi ke dan dari model dengan empat klasifikasi pesan. HumanMessage melambangkan pesan yang dibuat manusia, dan AIMessage melambangkan pesan dari model AI. SystemMessage adalah untuk konten instruksional ke model, sedangkan ChatMessage adalah opsi yang lebih khusus untuk pengaturan peran.

Templat yang cepat

LangChain menawarkan berbagai template prompt untuk menyederhanakan proses komunikasi dengan LLM. Pengguna dapat menyesuaikan prompt sesuai kebutuhan dan mendaur ulangnya di antara aplikasi. Templat prompt LangChain diarahkan untuk menghasilkan hasil yang sadar konteks dari LLM dalam rantai.

Indeks

Seperti platform RAG lainnya, LangChain menghubungkan LLM dengan sumber data eksternal. Sasaran ini tercapai melalui penciptaan indeks berbasis vektor. Pustaka pemuat dokumen LangChain dapat menarik data dari sumber eksternal termasuk Google Workspaces, alat kolaborasi daring seperti Figma, konten web termasuk video YouTube, basis data, dan banyak lagi. 

LangChain mendukung lebih dari 25 metode penyematan untuk mengonversi dan memuat data ini ke penyimpanan vektor. Pengguna dapat membagi dokumen menjadi "potongan-potongan" untuk membuat kueri basis data vektor menjadi lebih efisien.

Memori

Salah satu fitur menonjol LangChain adalah kemampuan memorinya. LangChain memungkinkan LLM untuk merujuk ke interaksi sebelumnya dan menambahkan konteks tersebut ke percakapan saat ini dan yang akan datang. Ketika mengimplementasikan manajemen memori di LangChain, pengguna dapat memilih untuk menyimpan seluruh percakapan, meringkas percakapan sebelumnya atau menyimpan sejumlah pertukaran terbaru.

Peralatan

Alat-alat di LangChain adalah fungsi-fungsi, seperti mesin pencari dan berbagai API, yang dapat digunakan oleh model untuk memenuhi tugas-tugas di dalam rantai. Sebagai contoh, model yang perlu menyertakan prakiraan cuaca dalam alur kerja dapat terhubung ke layanan yang disediakan oleh badan meteorologi.

Rantai

Rantai menghubungkan LLM ke alat lain dan memungkinkan alur kerja otonom dalam LangChain. Jika LLM dan alat adalah objek dalam diagram alir, rantai adalah panah dan garis yang menghubungkannya. Pengguna dapat menggabungkan rantai dalam alur kerja, dengan setiap rantai berpotensi menyertakan templat prompt, model, alat, dan parameter yang berbeda.

Agen

Agen AI adalah model otonom yang menentukan tindakan tergantung pada kondisi saat ini dan input yang mereka terima. Daripada meminta manusia untuk setiap tahap proses, seperti pengalaman yang dialami seseorang saat berinteraksi dengan chatbot, agen bekerja untuk melakukan seluruh workflow secara mandiri. Pengguna dapat menerapkan agen bawaan LangChain apa adanya atau menyesuaikan sesuai kebutuhan.

LangSmith dan LangServe

LangSmith adalah rangkaian evaluasi LangChain, sedangkan LangServe mencakup penerapan. LangSmith menawarkan berbagai fitur pengujian dan pengoptimalan untuk membantu pengguna dalam mengevaluasi aplikasi mereka. Pengguna dapat secara manual membuat kumpulan data, mengkompilasinya dari masukan pengguna atau menghasilkannya dengan LLMs. 

Setelah evaluasi, pengguna dapat menerapkan aplikasi mereka melalui LangServe, yang mengubah rantai menjadi API. LangSmith dapat dikombinasikan dengan LangServe untuk memberikan pemantauan dari waktu ke waktu, kepatuhan penting terhadap standar AI yang dapat dijelaskan.

LangChain vs. LlamaIndex: perbedaan utama

LlamaIndex dan LangChain keduanya memungkinkan pengguna untuk membangun aplikasi LLM yang mendukung RAG, tetapi menawarkan dua pendekatan yang berbeda untuk proyek ini. Sementara LlamaIndex bersinar ketika melakukan kueri database untuk mengambil informasi yang relevan, fleksibilitas LangChain yang lebih luas memungkinkan untuk berbagai contoh penggunaan, terutama ketika merantai model dan alat ke dalam alur kerja yang kompleks.

Kapan memilih LlamaIndex

LlamaIndex sangat ideal untuk aplikasi RAG yang mudah dengan pengembangan yang lebih ringan. Sistem ini unggul dalam pengambilan data yang efisien dan tepat berdasarkan relevansi semantik. Kelebihannya meliputi: 

  • Aplikasi pencarian dan pengambilan: Penyimpanan data LlamaIndex yang efisien dan fokus pada pengambilan data berdasarkan kemiripan semantik menjadikannya pilihan yang baik untuk aplikasi RAG yang efisien. Contoh penggunaan termasuk sistem referensi organisasi internal dan manajemen pengetahuan. 

  • Kecepatan dan ketepatan: Dengan algoritma pencariannya yang canggih, LlamaIndex dioptimalkan untuk pencarian data yang efisien dengan tingkat akurasi yang tinggi. 

  • Pengembangan aplikasi yang minimal dan efisien: Fokus LlamaIndex yang ketat menghasilkan proses pembuatan aplikasi yang efisien. Pengguna dapat memulai dan menjalankan aplikasi RAG dalam waktu minimal. 

  • Dokumen hierarkis: LlamaIndex adalah pilihan yang baik untuk proyek-proyek yang banyak menggunakan teks, seperti mengimplementasikan sistem manajemen pengetahuan di dalam sebuah perusahaan di mana hierarki dokumen sangat penting.

Kapan memilih LangChain

Fokus LangChain pada penggunaan multiguna, penyesuaian, dan keserbagunaan mengarah pada serangkaian contoh penggunaan yang lebih luas. Pengguna dapat merangkai beberapa model dan alat secara bersamaan agar sesuai dengan kebutuhan proyek mereka, semuanya dari satu antarmuka pengguna. 

Keuntungan LangChain meliputi: 

  • Contoh penggunaan yang beragam: LangChain adalah sebuah sandbox LLM, alat bantu, dan integrasi, dan pengguna dapat menggabungkannya agar sesuai dengan kebutuhan proyek tertentu. 

  • Sumber data multimodal: Meskipun LlamaIndex dapat mendukung gambar dan teks, dukungan media LangChain jauh lebih serbaguna. Aplikasi yang dibuat di LangChain dapat memuat data dari video online dan API bersama dengan gambar dan PDF. 

  • Kontrol terperinci: Pendekatan bata demi bata LangChain dalam pembuatan aplikasi memberi pengguna kontrol maksimum atas fungsionalitas di setiap langkah setiap rangkaian proses. 

  • Retensi konteks: Kemampuan manajemen memori yang canggih berarti bahwa aplikasi yang dibuat di LangChain dapat merujuk ke interaksi sebelumnya dan mempertahankan akurasi selama percakapan yang lebih lama. 

  • Kueri dan struktur data yang kompleks: Meskipun LlamaIndex dibangun untuk kesamaan semantik, LangChain memungkinkan pengguna untuk menggabungkan teknik pencarian, seperti dengan menambahkan pencarian kata kunci. Sistem ini juga lebih mampu menangani struktur data yang kompleks dengan antarmuka modular, dukungan multimodal dan berbagai integrasi.

Solusi terkait
Model dasar

Jelajahi perpustakaan model dasar IBM di portfolio watsonx untuk menskalakan AI generatif untuk bisnis Anda dengan percaya diri.

Temukan watsonx.ai
Solusi kecerdasan buatan (AI)

Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.

Jelajahi solusi AI
Konsultasi dan layanan AI

Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.

Jelajahi layanan AI
Ambil langkah selanjutnya

Jelajahi perpustakaan model dasar IBM dalam portofolio IBM watsonx untuk menskalakan AI generatif untuk bisnis Anda dengan penuh percaya diri.

Temukan watsonx.ai Jelajahi model AI IBM Granite