ما هو LangChain؟

المؤلفون

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

ما LangChain؟

LangChain هو إطار عمل مفتوح المصدر لتنظيم تطوير التطبيقات باستخدام النماذج اللغوية الكبيرة (LLMs). تتوفر أدوات LangChain وواجهات برمجة التطبيقات في مكتبات تعتمد على Python وJavascript، ما يبسِّط عملية بناء تطبيقات تعتمد على LLM مثل روبوتات المحادثة ووكلاء الذكاء الاصطناعي.

يعد إطار LangChain بمثابة واجهة عامة لأي نموذج لغوي كبير (LLM) تقريبًا، مما يوفر بيئة تطوير مركزية لبناء تطبيقات LLM ودمجها مع مصادر البيانات الخارجية ومهام سير عمل البرمجيات. يتيح نهج LangChain القائم على الوحدات للمطورين وعلماء البيانات مقارنة الموجِّهات المختلفة وحتى نماذج الأساس المختلفة بشكل ديناميكي دون الحاجة إلى إعادة كتابة التعليمات البرمجية. تسمح هذه البيئة القائمة على الوحدات أيضا بالبرامج التي تستخدم العديد من النماذج اللغوية الكبيرة (LLMs): مثل التطبيقات التي تستخدم نموذجًا لغويًا كبيرًا (LLM) واحدًا لتفسير استعلامات المستخدم وآخر لصياغة الردود.

أطلق Harrison Chase إطار LangChain في أكتوبر 2022، وشهد صعودًا مذهلًا نحو الصدارة: وبحلول من يونيو 2023، كان المشروع الوحيد مفتوح المصدر الأسرع نموًا على Github.1 تزامن هذا الإنجاز مع الإطلاق البارز لنموذج ChatGPT من OpenAI في الشهر التالي، واضطلع LangChain بدور كبير في تسهيل استخدام الذكاء الاصطناعي التوليدي بالتزامن مع زيادة شعبيته بين عشاق التكنولوجيا. إن التقدم في إمكانية الوصول إلى الذكاء الاصطناعي الوكيل يُحدِث ثورة حاليًا في الأتمتة.

يستطيع LangChain تسهيل معظم حالات الاستخدام للنماذج اللغوية الكبيرة ومعالجة اللغة الطبيعية (NLP)، مثل روبوتات المحادثة والبحث الذكي والإجابة عن الأسئلة وخدمات التلخيص أو حتى وكلاء الذكاء الاصطناعي القادرين على أتمتة العمليات الآلية.

التكامل مع النماذج اللغوية الكبيرة (LLMs)

النماذج اللغوية الكبيرة ليست تطبيقات مستقلة؛ بل هي نماذج إحصائية مدربة مسبقًا تحتاج إلى الاقتران بتطبيق (وفي بعض الحالات، بمصادر بيانات محددة) لتحقيق أهدافها.

على سبيل المثال، ChatGPT ليس نموذجًا لغويًا كبيرًا (LLM) بحد ذاته، بل هو تطبيق روبوت محادثة يعتمد، حسب الإصدار المستخدم، على نموذج اللغة GPT-3.5 أو GPT-4. على الرغم من أن نموذج GPT هو الذي يفسر مدخلات المستخدم ويولِّد استجابة باللغة الطبيعية، فإن التطبيق هو الذي يوفر (من بين أمور أخرى) واجهة المستخدم للكتابة والقراءة وتصميم تجربة المستخدم الذي يحكم تجربة روبوت المحادثة. حتى على مستوى المؤسسات، لا يُعَد Chat-GPT التطبيق الوحيد الذي يستخدم نموذج GPT: على سبيل المثال، تستخدم Microsoft نموذج GPT-4 لتشغيل دردشة Bing Chat.

علاوةً على ذلك، على الرغم من أن نماذج الأساس (مثل النماذج التي تُشغّل نماذج LLMs) مُدرّبة مسبقًا على مجموعات بيانات ضخمة، إلا أنها ليست شاملة المعرفة. إذا تطلبت مهمة معينة الوصول إلى معلومات سياقية محددة، مثل الوثائق الداخلية أو خبرات في مجال معين، يجب ربط النماذج اللغوية الكبيرة (LLMs) بهذه المصادر الخارجية. حتى لو كنت تريد أن يعكس نموذجك الوعي بالأحداث الجارية في الوقت الحقيقي فقط، فعليك توفير مصادر معلومات خارجية: لأن تحديثات البيانات الداخلية للنموذج لا تتجاوز الفترة الزمنية التي تم تدريبه خلالها.

على نحو مماثل، إذا تطلبت مهمة ذكاء اصطناعي توليدي معينة الوصول إلى سير عمل البرامج الخارجية - مثل الوكيل الافتراضي الخاص بك مع Slack- فستحتاج إلى طريقة لدمج LLM مع واجهة برمجة التطبيقات لهذه البرامج.

في حين يمكن تحقيق هذه التكاملات بشكل عام باستخدام الكود اليدوي بالكامل، فإن أطر عمل التنسيق مثل LangChain ومجموعة منتجات الذكاء الاصطناعي IBM watsonx تساعد على تبسيط العملية إلى حد كبير. كما تزيد هذه الأدوات من سهولة تجربة نماذج لغوية كبيرة (LLMs) مختلفة لمقارنة النتائج، حيث يمكن تبديل النماذج المختلفة وحذفها بأقل قدر من التغييرات في التعليمات البرمجية.

كيف يعمل LangChain؟

في جوهر LangChain، توجد بيئة تطوير تبسط برمجة تطبيقات النماذج اللغوية الكبيرة (LLM) باستخدام التجريد: أي تبسيط التعليمات البرمجية من خلال تمثيل العمليات المعقدة كعنصر يحمل اسمًا يشمل جميع خطواته الداخلية.

التجريدات هي عنصر شائع في الحياة اليومية واللغة. على سبيل المثال، يسمح لنا الرمز "π" بتمثيل نسبة طول محيط الدائرة إلى طول قطرها دون الحاجة إلى كتابة أرقامها اللانهائية. وبالمثل، يسمح لنا منظم الحرارة بالتحكم في درجة الحرارة في منزلنا دون الحاجة إلى فهم الدوائر المعقدة - يكفي فقط معرفة كيفية تأثير إعدادات منظم الحرارة المختلفة على درجات الحرارة.

LangChain هي في الأساس مكتبة تجريدية للغة Python وJavascript، تمثل الخطوات والمفاهيم الأساسية للعمل مع النماذج اللغوية. تتكون هذه المكتبة من مكونات نمطية (مثل الدوال والفئات) تُستخدم كوحدات بناء لتطبيقات الذكاء الاصطناعي التوليدي. يمكن "ربطها" معًا لإنشاء تطبيقات معقدة، مما يقلل من كمية التعليمات البرمجية والفهم الدقيق المطلوب لتنفيذ مهام معالجة اللغة الطبيعية (NLP). على الرغم من أن نهج LangChain التجريدي قد يحد من مدى قدرة خبير المبرمج على تخصيص التطبيق بدقة، إلا أنه يمكّن المتخصصين والمبتدئين على حد سواء من التجريب وتطوير نماذج أولية بسرعة.

استيراد النماذج اللغوية

يمكن استخدام أي نموذج لغوي كبير (LLM) تقريبا في LangChain. من السهل استيراد النماذج اللغوية لاستخدامها في LangChain، بشرط امتلاك مفتاح واجهة برمجة التطبيقات. تم تصميم فئة النموذج اللغوي الكبير (LLM) لتوفير واجهة موحدة لجميع النماذج.

يشترط معظم مزودي النماذج (مثل OpenAI أو Anthropic) إنشاء حساب للحصول على مفتاح API، بعض واجهات برمجة التطبيقات هذه - خاصة الخاصة بالنماذج غير مفتوحة المصدر المملوكة لشركات، مثل تلك التي تقدمها OpenAI أو Anthropic - قد تكون مدفوعة.

يمكن الوصول إلى العديد من النماذج مفتوحة المصدر، مثل LLaMa من Meta AI، وDeepseek-LLM من Deepseek، وGranite من IBM، وFlan-T5 من Google، من خلال Hugging Face. تقدِّم IBM watsonx، بالشراكة مع Hugging Face، أيضًا مجموعة مختارة من النماذج مفتوحة المصدر. سيسمح لك إنشاء حساب على أيٍّ من الخدمتين بالحصول على مفتاح API لأيٍّ من النماذج التي يقدمها مزود هذه الخدمة.

لا يقتصر LangChain على نماذج الأساس الجاهزة: تسمح فئة CustomLLM class بتغليفات LLM مخصصة. وبالمثل، يمكنك استخدام واجهات برمجة تطبيقات IBM watsonx ومجموعة تطوير البرمجيات Python SDK، المتكاملة مع LangChain، لبناء تطبيقات في LangChain باستخدام نماذج مدرَّبة مسبقًا أو معدلة حسب الحاجة باستخدام فئة watsonxLLMمعرِّف المشروع المحدد لهذا النموذج).

قوالب الموجّهات

الموجِّهات (Prompts) هي التعليمات المُقدمة للنموذج اللغوي الكبير. غالبًا ما يُشار إلى "فن" صياغة الموجِّهات التي توفِّر السياق اللازم للنموذج اللغوي الكبير (LLM) لتفسير المدخلات وهيكلة المخرجات بالطريقة الأكثر فائدة لك باسم هندسة الموجِّهات.

تنظم فئة PromptTemplate في LangChain تكوين الموجِّهات دون الحاجة إلى ترميز السياق والاستعلامات يدويًا. يتم أيضًا إدخال العناصر المهمة للموجِّه كفئات رسمية، مثل إدخال_variables. وبالتالي يمكن لقالب الموجِّه أن يحتوي على سياق وتعليمات (مثل "لا تستخدم مصطلحات تقنية") أو مجموعة من الأمثلة الإرشادية (فيما يسمى "التوجيه بخطوات قليلة")، أو تنسيق إخراج محدد أو سؤال موحد للإجابة عليه. يمكنك حفظ قالب موجِّه منظم بشكل فعال وتسميته وإعادة استخدامه بسهولة حسب الحاجة.

على الرغم من أن هذه العناصر يمكن برمجتها يدويًا، إلا أن وحدات PromptTemplate تُسهِّل التكامل السلس مع ميزات أخرى في LangChain، مثل السلاسل المعروفة باسم Chains.

السلاسل (Chains)

كما يوحي اسمها، فإن Chains هي جوهر سير عمل LangChain. إنهم يجمعون بين النماذج اللغوية الكبيرة (LLMs) ومكونات أخرى، لإنشاء تطبيقات من خلال تنفيذ تسلسل من الوظائف.

أبسط سلسلة هي LLMChain. فهي ببساطة تستدعي نموذجًا وقالب توجيه مخصَّصًا لذلك النموذج. على سبيل المثال، تخيَّل أنك حفظت توجيهًا باسم "ExamplePrompt" وتريد تشغيله باستخدام Flan-T5. يمكنك استيراد LLMChain من langchain.chains، ثم تحديد chain_example = LLMChain(llm = flan-t5, prompt = ExamplePrompt). لتشغيل السلسلة على إدخال معيّن، ما عليك سوى استدعاء: chain_example.run(“input”).

لاستخدام مخرجات إحدى الدوال كإدخال للدالة التالية، يمكنك استخدام SimpleSequentialChain. يمكن أن تستخدم كل دالة موجِّهات مختلفة أو أدوات مختلفة أو معلمات مختلفة أو حتى نماذج مختلفة، بناءً على احتياجاتك الخاصة.

الفهارس

لتنفيذ مهام معينة، قد تحتاج النماذج اللغوية الكبيرة إلى الوصول إلى مصادر بيانات خارجية محددة غير مدرجة في مجموعة البيانات التي تم تدريبها عليها، مثل الوثائق الداخلية أو رسائل البريد الإلكتروني أو مجموعات البيانات. يشير LangChain إلى هذه الوثائق الخارجية مجتمعةً باسم «الفهارس».

أدوات تحميل المستندات (Document Loaders)

يقدِّم إطار LangChain مجموعة واسعة من أدوات تحميل المستندات للتطبيقات الخارجية (الرابط موجود خارج موقع ibm.com). يُتيح ذلك استيراد البيانات بسهولة من مصادر متنوعة مثل خدمات تخزين الملفات (مثل Dropbox وGoogle Drive وMicrosoft OneDrive)، ومحتوى الويب (مثل YouTube أو PubMed أو روابط محددة)، وأدوات التعاون (مثل Airtable وTrello وFigma وNotion)، وقواعد البيانات (مثل Pandas وMongoDB وMicrosoft)، وغيرها الكثير.

قواعد بيانات المتجهات

على عكس قواعد البيانات المنظمة "التقليدية"، تمثل قواعد بيانات المتجهات نقاط البيانات عن طريق تحويلها إلى تضمينات متجهة: أي تمثيلات رقمية في شكل متجهات بأبعاد ثابتة، تُستخدم طرق تعلم غير خاضع للإشراف لتجميع النقاط البيانية ذات الصلة. يُتيح ذلك استعلامات بزمن انتقال قصير، حتى مع مجموعات البيانات الكبيرة، ما يعزز الكفاءة بشكل كبير. تعمل تضمينات المتجهات كذلك على تخزين بيانات الوصف الخاصة بكل متجه، ما يزيد من إمكانيات البحث.

توفر LangChain عمليات تكامل لأكثر من 25 طريقة تمثيل مختلفة، كما توفر عمليات تكامل لأكثر من 50 مخزن متجهات مختلف (سواء أكانت مستضافة على السحابة أم محليًا).

أدوات تقسيم النصوص 

لزيادة السرعة وتقليل المتطلبات الحسابية، يُوصى غالبا بتقسيم المستندات النصية الكبيرة إلى أجزاء أصغر. تقسّم TextSplitters من LangChain النص إلى أجزاء صغيرة تحمل معنى دلالي يمكن دمجها بعد ذلك باستخدام طرق ومعلمات من اختيارك.

الاسترجاع (Retrieval)

بعد ربط مصادر المعرفة الخارجية، يجب أن يتمكن النموذج من استرجاع المعلومات ذات الصلة بسرعة ودمجها حسب الحاجة. مثل watsonx، تقدِّم LangChain التوليد المعزز بالاسترجاع (RAG): حيث تقبل وحدات الاسترجاع الخاصة بها استعلامات نصية في صورة مدخلات وتُعيد قائمة من  المستندات في صورة مخرجات.

باستخدام LangChain، يمكننا أيضًا بناء أنظمة RAG وكيلية. في تطبيقات RAG التقليدية، يتم تزويد النموذج اللغوي الكبير بقاعدة بيانات متجهات للرجوع إليها عند تشكيل ردودها. على النقيض من ذلك، لا تقتصر تطبيقات الذكاء الاصطناعي الوكيل على استرجاع البيانات فقط. يمكن أن يتضمن نموذج RAG الوكيلي أيضًا أدوات لمهام مثل حل الحسابات الرياضية وكتابة رسائل البريد الإلكتروني وإجراء تحليل البيانات والمزيد.

الذاكرة

لا تمتلك النماذج اللغوية الكبيرة، بشكل افتراضي، أي ذاكرة طويلة المدى للتفاعلات السابقة (ما لم يتم استخدام سجل الدردشة هذا كمدخل لاستعلام). يقدِّم LangChain حلولًا لهذه المشكلة من خلال أدوات بسيطة تُتيح إضافة ذاكرة إلى النظام، مع خيارات تشمل: الاحتفاظ بكامل المحادثات السابقة، والاحتفاظ بملخص للمحادثة حتى الآن، والاحتفاظ بآخر عدد n من التفاعلات.

الأدوات

رغم قوتها وتنوع استخداماتها، تعاني النماذج اللغوية الكبيرة من بعض القيود المهمة، مثل وهي نقص المعلومات المحدثة، والافتقار إلى الخبرة في مجال محدد، وصعوبات عامة في الرياضيات.

أدوات LangChain هي مجموعة من الوظائف التي تمكِّن وكلاء LangChain من التفاعل مع معلومات العالم الحقيقي من أجل توسيع أو تحسين الخدمات التي يمكن أن تقدمها. تتضمن أمثلة أدوات LangChain الجاهزة البارزة ما يلي:

  • Wolfram Alpha: يوفر إمكانية الوصول إلى وظائف حسابية متقدمة وقدرات مميزة لتصوير البيانات، مما يدعم القدرات الرياضية.

  • Google Search: يوفّر إمكانية الوصول إلى "Google Search"، ويزوّد التطبيقات والوكلاء بمعلومات في الوقت الحقيقي.

  • OpenWeatherMap: يعرض معلومات عن حالة الطقس.

  • Wikipedia: توفر وصولاً سريعًا للمعلومات من مقالات ويكيبيديا.

أحدث اتجاهات الذكاء الاصطناعي، يقدمها لك الخبراء

احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! لقد اشتركت بنجاح.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

وكلاء LangChain

يمكننا بناء وكيل باستخدام إطار عمل LangChain لمنح النموذج اللغوي الكبير القدرة على اتخاذ القرارات واستخدام الأدوات وإكمال المهام المعقدة خطوة بخطوة، بدلًا من مجرد إنشاء استجابة نصية واحدة. على عكس التفاعل البسيط الذي يعتمد على الاستجابة السريعة باستخدام النموذج اللغوي الكبير فقط، يمكن للوكيل المدعوم من LangChain التفكير والتخطيط وتنفيذ سلسلة من الإجراءات والتعلم والتكيف.

يوفر LangChain تجربة مستخدم مبسَّطة مع إطار عمل جاهز وقابل للتوسعة لإنشاء وكلاء الذكاء الاصطناعي، لذلك ليست هناك حاجة إلى بناء منطق اختيار أداة جديد أو حلقات استدلال (مثل وكلاء ReAct) أو تتبُّع الملاحظة/الإجراءات أو تنظيم المطالبة وتنسيقها.

تختلف حزم LangChain والفئات والطرق المحددة وفقًا لمنصة الذكاء الاصطناعي التي تنوي استخدامها. تتضمن بعض المكونات الرئيسية لفئة WatsonxLLM التي تسمح بالتواصل مع نماذج watsonx.ai باستخدام LangChain ما يلي:

  • langchain_ibm: الحزمة المسؤولة عن تكامل LangChain IBM. من الضروري تثبيت هذه الحزمة لاستخدام أيٍّ من الفئات والطرق التالية.
  • ibm_watsonx_ai: المكتبة التي تسمح بالاتصال بخدمات watsonx.ai مثل IBM Cloud وIBM Cloud Pak for Data.
  • APIClient: الفئة الرئيسية لمكتبة ibm_watsonx_ai التي تُدير موارد خدمة واجهة برمجة التطبيقات. تتضمن المَعلمات بيانات اعتماد ونقطة نهاية واجهة برمجة التطبيقات.
  • WatsonxLLM: الغلاف لنماذج الأساس من IBM watsonx.ai. يوفر هذا الغلاف تكامل السلسلة وهو ضروري للاستيراد. تتضمن المَعلمات معرِّف النموذج ومفتاح واجهة برمجة التطبيقات watsonx.ai ونقطة نهاية URL ومعرِّف المشروع بالإضافة إلى أي مَعلمات LLM.
  • ModelInference: الفئة التي تُنشئ واجهة النموذج. تتضمن المَعلمات معرِّف النموذج، وبيانات اعتماد watsonx.ai، ومعرّف المشروع، ومَعلمات النموذج والمزيد. بمجرد إنشاء مثيل، يمكن بعد ذلك تمرير النموذج إلى الفئة.
  • invoke: الطريقة التي تستدعي النموذج مباشرةً بموجِّه واحد من نوع السلسلة. 
  • generate: الطريقة التي تستدعي النموذج بموجِّهات متعددة لنوع السلسلة في قائمة.

من فئات LangChain الأخرى لبناء وكلاء الذكاء الاصطناعي مع دمج استدعاء الأدوات والتسلسل مع نماذج watsonx.ai هي ChatWatsonx. تستخدم هذه الفئة، التي يتم الاستفادة منها في العديد من برامجنا التعليمية، طريقة bind_tools لتمرير قائمة من الأدوات إلى LLM عند كل تكرار. يمكن أن يشمل ذلك أدوات مخصصة وأدوات ما قبل البناء. لاسترداد استجابة وكيل الذكاء الاصطناعي، يمكن استخدام طريقة الاستدعاء. بمجرد استدعاء الوكيل، تعرض سمة tool_calls للاستجابة الاسم والحجج والمعرِّف ونوع كل استدعاء أداة تم إجراؤه، إن وجد.

LangGraf

LangGraph، الذي أنشأته LangChain، هو إطار عمل مفتوح المصدر لوكيل الذكاء الاصطناعي يدعم تنسيق الوكلاء المتعددين ويمكِّن المطورين من بناء سير عمل وكيل حيث يتفاعل الوكلاء المختلفون ويتخصصون ويتعاونون.

في جوهره، يستخدم LangGraph قوة البنيات القائمة على الرسوم البيانية لنمذجة وإدارة العلاقات المعقدة بين مختلَف مكونات سير عمل وكيل الذكاء الاصطناعي.بفضل آلية المراقبة البشرية المباشرة ومجموعة من تكاملات واجهة برمجة التطبيقات والأدوات، يوفر LangGraph للمستخدمين منصة متعددة الاستخدامات لتطوير حلول الذكاء الاصطناعي وسير العمل بما في ذلك روبوتات المحادثة ومخططات الحالة وأنظمة أخرى تعتمد على الوكيل

باستخدام مكتبة langchain-mcp-adapters، يمكن لوكلاء LangGraph أيضًا استخدام الأدوات المحددة على خوادم بروتوكول سياق النموذج (MCP). تُتيح مكتبة mcp للمستخدمين إنشاء خوادم MCP مخصصة أيضًا. بشكل أساسي، يُتيح MCP اتصالًا آمنًا بين نظام الذكاء الاصطناعي، مثل وكيل الذكاء الاصطناعي، والأدوات الخارجية. وبالتالي، يمكن للعديد من LLMs الاتصال بنفس الأدوات ومصادر البيانات بالنظر إلى MCP القياسي. 

أكاديمية الذكاء الاصطناعي

لماذا تعد نماذج الأساس نقلة نوعية في الذكاء الاصطناعي

تعرَّف على فئة جديدة من نماذج الذكاء الاصطناعي المرنة والقابلة لإعادة الاستخدام التي يمكن أن تفتح مصادر جديدة للإيرادات، وتُسهم في تقليل التكاليف، وزيادة الإنتاجية، ثم استخدم دليلنا لمعرفة المزيد من التفاصيل.

LangSmith

تم إصدار LangSmith في خريف عام 2023، بهدف سد الفجوة بين قدرات النماذج الأولية السهلة التي جعلت LangChain بارزة، وبين بناء تطبيقات عالية الجودة تعتمد على النماذج اللغوية الكبيرة.

يوفر LangSmith أدوات لمراقبة التطبيقات وتقييمها وتصحيح الأخطاء فيها، بما في ذلك القدرة على تتبُّع جميع استدعاءات النماذج تلقائيًا لرصد الأخطاء واختبار الأداء تحت تكوينات نموذجية مختلفة. لا يقتصر استخدام LangSmith على التطبيقات التي تم إنشاؤها باستخدام منظومة LangChain. يتم تقييم أداء الوكيل باستخدام أدوات التقييم القائمة على النموذج اللغوي الكبير كمقيِّم. تهدف قابلية الملاحظة والمقاييس الرئيسية هذه إلى تحسين تطبيقات أكثر قوة وكفاءة من حيث التكلفة. 

البدء باستخدام LangChain

LangChain مفتوح المصدر ومجاني الاستخدام: كود المصدر متاح للتنزيل على Github.

يمكن أيضًا تثبيت LangChain على Python باستخدام أمر pip البسيط: pip install langchain. لتثبيت جميع اعتماديات LangChain (بدلًا من تثبيت الاعتماديات الضرورية فقط)، يمكنك تنفيذ الأمر pip install langchain[all].

يتم توفير العديد من البرامج التعليمية خطوة بخطوة بواسطة IBM بما في ذلك استدعاء أداة LangChain وRAG الوكيلي وتنسيق وكيل LLM والتجزئة الوكيلية والمزيد.

حالات استخدام LangChain

تُستخدم التطبيقات التي تم إنشاؤها باستخدام LangChain في مجموعة متنوعة من حالات الاستخدام، بدءًا من المهام البسيطة مثل الإجابة عن الأسئلة وتوليد النصوص، إلى الحلول الأكثر تعقيدًا التي تستفيد من النماذج اللغوية الكبيرة باعتبارها "محركات تفكير".

روبوتات المحادثة

تُعَد روبوتات المحادثة من بين الاستخدامات الأكثر سهولة للنماذج اللغوية الكبيرة. يمكن استخدام LangChain لتوفير السياق المناسب لروبوت المحادثة ولدمج روبوتات المحادثة مع قنوات الاتصال الحالية من خلال واجهاتها البرمجية (APIs).

التلخيص

يمكن تكليف النماذج اللغوية بتلخيص أنواع متعددة من النصوص، بدءًا من تلخيص المقالات الأكاديمية المعقدة والنصوص الطويلة إلى تقديم ملخص لرسائل البريد الإلكتروني الواردة.

الإجابة عن الأسئلة

باستخدام مستندات محددة أو قواعد معرفية متخصصة (مثل Wolfram أو arXiv أو PubMed)، يمكن للنماذج اللغوية الكبيرة استرجاع المعلومات ذات الصلة من مخزن البيانات وصياغة إجابات مفيدة). بعض النماذج اللغوية الكبيرة، عند ضبطها بدقة أو تزويدها بالتوجيه المناسب، يمكنها الإجابة عن العديد من الأسئلة حتى دون الحاجة إلى معلومات خارجية.

تعزيز البيانات

يمكن استخدام النماذج اللغوية الكبيرة لتوليد بيانات اصطناعية تُستخدم في تدريب أنظمة التعلم الآلي. على سبيل المثال، يمكن تدريب النماذج اللغوية الكبيرة على توليد عينات بيانات إضافية تشبه إلى حد كبير نقاط البيانات في مجموعة بيانات التدريب.

الوكلاء الافتراضيون

عند دمجها مع سير العمل المناسب، يمكن لوحدات الوكلاء في LangChain استخدام النماذج اللغوية الكبيرة لتحديد الخطوات القادمة واتخاذ الإجراءات تلقائيًا باستخدام تقنيات أتمتة العمليات الآلية (RPA).

حلول ذات صلة
نماذج الأساس

استكشف مكتبة نماذج الأساس من IBM في محفظة watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.

اكتشف watsonx.ai
حلول الذكاء الاصطناعي

استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.

استكشف حلول الذكاء الاصطناعي
الاستشارات والخدمات المتعلقة بالذكاء الاصطناعي

أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.

استكشف خدمات الذكاء الاصطناعي
اتخِذ الخطوة التالية

استكشف مكتبة نماذج الأساس من IBM في محفظة IBM watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.

استكشف watsonx.ai استكشف حلول الذكاء الاصطناعي