النماذج اللغوية الكبيرة ليست تطبيقات مستقلة؛ بل هي نماذج إحصائية مدربة مسبقًا تحتاج إلى الاقتران بتطبيق (وفي بعض الحالات، بمصادر بيانات محددة) لتحقيق أهدافها.
على سبيل المثال، ChatGPT ليس نموذجًا لغويًا كبيرًا (LLM) بحد ذاته، بل هو تطبيق روبوت محادثة يعتمد، حسب الإصدار المستخدم، على نموذج اللغة GPT-3.5 أو GPT-4. على الرغم من أن نموذج GPT هو الذي يفسر مدخلات المستخدم ويولِّد استجابة باللغة الطبيعية، فإن التطبيق هو الذي يوفر (من بين أمور أخرى) واجهة المستخدم للكتابة والقراءة وتصميم تجربة المستخدم الذي يحكم تجربة روبوت المحادثة. حتى على مستوى المؤسسات، لا يُعَد Chat-GPT التطبيق الوحيد الذي يستخدم نموذج GPT: على سبيل المثال، تستخدم Microsoft نموذج GPT-4 لتشغيل دردشة Bing Chat.
علاوةً على ذلك، على الرغم من أن نماذج الأساس (مثل النماذج التي تُشغّل نماذج LLMs) مُدرّبة مسبقًا على مجموعات بيانات ضخمة، إلا أنها ليست شاملة المعرفة. إذا تطلبت مهمة معينة الوصول إلى معلومات سياقية محددة، مثل الوثائق الداخلية أو خبرات في مجال معين، يجب ربط النماذج اللغوية الكبيرة (LLMs) بهذه المصادر الخارجية. حتى لو كنت تريد أن يعكس نموذجك الوعي بالأحداث الجارية في الوقت الحقيقي فقط، فعليك توفير مصادر معلومات خارجية: لأن تحديثات البيانات الداخلية للنموذج لا تتجاوز الفترة الزمنية التي تم تدريبه خلالها.
على نحو مماثل، إذا تطلبت مهمة ذكاء اصطناعي توليدي معينة الوصول إلى سير عمل البرامج الخارجية - مثل الوكيل الافتراضي الخاص بك مع Slack- فستحتاج إلى طريقة لدمج LLM مع واجهة برمجة التطبيقات لهذه البرامج.
في حين يمكن تحقيق هذه التكاملات بشكل عام باستخدام الكود اليدوي بالكامل، فإن أطر عمل التنسيق مثل LangChain ومجموعة منتجات الذكاء الاصطناعي IBM watsonx تساعد على تبسيط العملية إلى حد كبير. كما تزيد هذه الأدوات من سهولة تجربة نماذج لغوية كبيرة (LLMs) مختلفة لمقارنة النتائج، حيث يمكن تبديل النماذج المختلفة وحذفها بأقل قدر من التغييرات في التعليمات البرمجية.