LLMs adalah model statistik yang telah dilatih sebelumnya, bukan aplikasi standalone. Untuk memenuhi tujuannya, LLMs harus dipasangkan dengan aplikasi tertentu dan, dalam beberapa kasus, sumber data spesifik.
Misalnya, Chat-GPT bukan LLM: ini adalah aplikasi chatbot yang, bergantung pada versi yang Anda pilih, menggunakan model bahasa GPT-3.5 atau GPT-4. Meskipun model GPT yang menafsirkan input pengguna dan menyusun respons bahasa alami, aplikasi yang (antara lain) menyediakan antarmuka bagi pengguna untuk mengetik dan membaca serta desain UX yang mengatur pengalaman chatbot. Pada tingkat perusahaan, Chat-GPT bukanlah satu-satunya aplikasi yang menggunakan model GPT: Microsoft menggunakan GPT-4 untuk memberdayakan Bing Chat.
Selain itu, meskipun model dasar (seperti yang mendukung LLM) telah dilatih sebelumnya dengan kumpulan data yang sangat besar, model ini tidak bersifat serba tahu. Jika tugas tertentu membutuhkan akses ke informasi kontekstual tertentu, seperti dokumentasi internal atau keahlian domain, LLM harus terhubung ke sumber data eksternal tersebut. Bahkan untuk mencerminkan kesadaran real-time terhadap peristiwa terkini, model Anda membutuhkan informasi eksternal: data internal model hanya diperbarui hingga periode saat model Anda dilatih.
Demikian juga, jika tugas AI generatif tertentu memerlukan akses ke alur kerja perangkat lunak eksternal—misalnya, jika Anda ingin agen virtual Anda berintegrasi dengan Slack—maka Anda akan memerlukan cara untuk mengintegrasikan LLM dengan API untuk peranti lunak itu.
Meskipun integrasi ini umumnya dapat dicapai dengan kode manual sepenuhnya, kerangka kerja orkestrasi seperti LangChain dan portofolio produk kecerdasan buatan IBM® watsonx sangat menyederhanakan prosesnya. Integrasi ini juga mempermudah eksperimen dengan LLM yang berbeda untuk membandingkan hasil, karena model yang berbeda dapat ditukar dengan perubahan minimal pada kode.