يساعد تنسيق LLM في تقديم الموجِّهات إلى النماذج اللغوية الكبيرة (LLMs) وربطها وإدارتها ومراقبتها. يتم توجيه تنسيق LLM بواسطة أطر التنسيق. وتعد أطر العمل هي أدوات شاملة تبسِّط بناء وإدارة التطبيقات التي تعتمد على LLM.
يستخدم LLMOps التنسيق في مجموعة واسعة من التطبيقات، مثل إنشاء اللغة الطبيعية والترجمة الآلية واتخاذ القرارات و روبوتات المحادثة. ونظرًا لأن المجموعات تتبنى الذكاء الاصطناعي لبناء هذه الأنواع من تطبيقات الذكاء الاصطناعي التوليدية، فإن تنسيق LLM الفعال أمر بالغ الأهمية.
على الرغم من قوة نموذج أساس LLM، إلا أن نماذج LLM محدودة فيما يمكنها تحقيقه بمفردها. على سبيل المثال، تفتقر نماذج LLM إلى القدرة على الاحتفاظ بمعلومات جديدة أو تعلمها في الوقت الفعلي وتكافح لإكمال المشكلات متعددة الخطوات نظرًا لقيودها في السياق الذي يمكنها الاحتفاظ به.1 بالإضافة إلى ذلك، يمكن أن يصبح تنسيق العديد من نماذج LLM سريع التعقيد أثناء التعامل مع واجهات برمجة التطبيقات (APIs) الخاصة بموفري نماذج LLM مختلفين.
تتغلب أطر عمل LLM على هذه القيود بتبسيط العمليات المعقدة لدمج هندسة الموجِّهات والتفاعل مع واجهة برمجة التطبيقات واسترجاع البيانات وإدارة الحالات عبر المحادثات التي تتم مع النماذج اللغوية.2
يتم تطوير أطر عمل جديدة لتنسيق LLM وتكتسب شعبية كل يوم. تتخصص بعض تنظيمات النماذج اللغوية الكبيرة كإطار عمل لقاعدة البيانات بينما يستخدم البعض الآخر وكلاء الذكاء الاصطناعي للتعاون من أجل إكمال المهام أو تحقيق الأهداف.
لفهم كيفية عمل أطر عمل تنسيق LLM، فإنه من المفيد فهم أين يكمن التنسيق داخل بنية التطبيقات التي تعتمد على LLM.
طبقة التنسيق هي بمثابة العمود الفقري لمجموعة تطبيقات النماذج اللغوية الكبيرة، إذ يقوم المنسق بإنشاء سير عمل متماسك من خلال إدارة التفاعلات بين الطبقات الأخرى من بنية التطبيق.3 على غرار منسق الموسيقي، فإن منسق LLM يفوِّض ويدير سير العمل لكل عنصر تقني بناءً على تركيبة التطبيق.
تتضمن هذه العناصر التفاعل بين نماذج LLM وقوالب الموجِّهات وقواعد بيانات المتجهات والوكلاء.4 يضمن التنسيق أن يعمل كل عنصر من عناصر تطبيق الذكاء الاصطناعي التوليدي بشكل متماسك من خلال توفير أدوات وآليات لإدارة دورة حياة تطبيقات الذكاء الاصطناعي التوليدي بفعالية ضمن مختلف التطبيقات والبيئات.
تعمل أطر التنسيق على تبسيط المهام المعقدة، بما في ذلك تسلسل الموجِّهات، والتفاعل مع واجهات برمجة التطبيقات الخارجية، وجلب البيانات السياقية من قواعد بيانات المتجهات وإدارة الذاكرة عبر تفاعلات LLM المتعددة. فيما يلي نظرة عامة على المهام التشغيلية المستخدمة عادة في تنسيقات LLM:
هندسة الموجِّهات هي ممارسة هيكلة إدخالات LLM (الموجِّهات) بحيث تنتج أدوات الذكاء الاصطناعي التوليدي مخرجات محسَّنة. توفر أطر العمل قوالب موجِّهات تتضمن تعليمات وأمثلة قليلة وسياقًا محددًا وأسئلة مناسبة للمهام.5
يشير التسلسل إلى سلسلة من الاستدعاءات التي تربط العديد من نماذج LLM لدمج مخرجاتها لتحقيق النتائج أكثر دقة (تعرف أيضا باسم ربط الموجِّهات) أو أداة أو خطوة معالجة مسبقة للبيانات.6
تقوم طبقة التنسيق بإدارة مهام التوجيهات هذه عن طريق تخزين الموجِّهات ضمن قاعدة معارف أو مكتبة حيث يمكنها البحث عن بيانات التوجيهات واستردادها بسهولة. ويمكن للمنظّم تحديد الموجِّهات من المكتبة بشكل ديناميكي بناءً على الإدخالات في الوقت الفعلي أو السياق أو تفضيلات المستخدم. بالإضافة إلى ذلك، يمكنها سرد الموجِّهات بترتيب منطقي لإدارة تدفقات المحادثات.
تفتقر نماذج LLM إلى القدرة الكامنة على التعلم المستمر كما أنها محدودة في الفهم السياقي. من خلال إدارة الموجِّهات، يتولى المنسق تنقيح المخرجات من خلال تقييم الاستجابات.
كما أن نماذج LLM غير قادرة على التحقق من الحقائق بنفسها، ما يؤدي إلى الهلوسة إذا لم تتم إدارتها. ويمكن للمنسق التحقق من الردود والتأكد من التزامها بالإرشادات المخصصة. إذا كانت الاستجابة غير كافية، فيمكن للمنسق أن يضع علامة عليها للمراجعة البشرية أو تقديم اقتراحات بديلة تسمح لنموذج LLM بالتعلم والتحسن.7
تتضمن معظم أطر عمل LLM شكلاً من أشكال LLMOps للمراقبة التشغيلية. تتضمن هذه الميزات جمع مقاييس الأداء استنادًا إلى اختبارات معيارية LLM . ويمكن ملاحظة هذه المقاييس عبر لوحات معلومات تتيح للمستخدمين إمكانية مواكبة مقاييس أداء LLM في الوقت الفعلي.
تتضمن موارد LLMOps الأخرى أدوات تشخيصية لتحليل السبب الأساسي (RCA)، ما يقلل الوقت المستغرق لتصحيح الأخطاء.
يعمل المنسق على تسهيل الوصول إلى البيانات واسترجاعها من المصادر المحددة باستخدام موصلات أو واجهات برمجة تطبيقات مناسبة. تشير المعالجة المسبقة إلى تحويل بيانات غير منسقة من مصادر متعددة إلى تنسيق مناسب للنماذج اللغوية الكبيرة. وكلما كانت مجموعة البيانات أكبر، كانت آلية البيانات التي تحللها أكثر تطورًا. تضمن المعالجة المسبقة تكييف البيانات مع المتطلبات التي تفرضها كل خوارزمية لاستخراج البيانات.8 يمكن للمنسقين تسهيل المعالجة المسبقة عن طريق تعديل البيانات وتنقيحها لجعلها أكثر قيمة.
يقوم المنسق ببدء LLM لتنفيذ المهمة المعينة له. وبمجرد اكتمال المعالجة، يتلقى المنسق مخرجات النموذج ويدمج أي تعليقات لتقييم جودته الإجمالية ويسلمها إلى الوجهة المناسبة.
يحتوي المنسق على مخازن ذاكرة تعمل كقاعدة معرفية لتحسين مخرجات نماذج LLM وتفاعلاتها وتوفير فهم سياقي. ومن خلال التعامل مع الرسائل السابقة أو الإدخالات السابقة وتخزينها، يقوم المنسق بتجميع معرفة طويلة الأجل توفر استجابات أكثر دقة بناءً على التفاعلات السابقة.9
يكون المنسق مسؤولاً عن تسهيل تنفيذ ميزات قابلية الملاحظة الخاصة بنموذج LLM وإطار العمل. من منظور LLMOPS، فإن نماذج LLM التي تعمل من دون هذه القدرات تخاطر بإخراج نتائج مضللة وإبداء مخاطر أمنية بناءً على القدرات المحدودة لنماذج LLM التي لم يتم ضبطها جيدًا.
توفر أطر عمل تنسيق LLM الإدارة والتحسين اللازمين لتبسيط تفاعلات LLM وعمليات سير العمل لتعزيز عمليات LLMOps.
لدى مطوري التطبيقات خيار إما اعتماد الحلول الناشئة أو تجميع الحلول الخاصة بهم من نقطة الصفر. يتطلب اختيار إطار عمل تنسيق LLM الصحيح تخطيطًا مستنيرًا واستراتيجية مدروسة.
الأشياء التي يجب مراعاتها قبل اختيار إطار عمل LLM:
تحقق من وثائق واجهة برمجة التطبيقات الخاصة بإطار العمل وتأكد من أنها مفيدة وتتيح للمطورين البدء بسهولة. تحقق أيضًا من موارد مجتمع إطار العمل لقياس نوع دعم استكشاف الأخطاء وإصلاحها المقدم.
يتحتم عليك تقييم الآثار المترتبة على التكلفة الناجمة عن اعتماد أطر عمل مختلفة. العديد من أطر عمل LLM تتسم بكونها ذات مصدر مفتوح مع خيار مدفوع خاص بالمؤسسات. تأكّد من أن نموذج التسعير لا يتناسب مع الاستثمار الأولي فحسب، بل أيضاً مع النفقات المستمرة مثل التراخيص والتحديثات وخدمات الدعم. يوفر إطار العمل الفعال من حيث التكلفة توازنًا بين السعر والميزات التي يوفرها.
عند اختيار برنامج LLM المناسب، تحقق من ميزات الأمان، مثل التشفير وعناصر التحكم في الوصول وسجلات التدقيق التي توفر أمن البيانات وتساعد على حماية بياناتك والامتثال للوائح الخصوصية ذات الصلة.
استعلِم عن أدوات المراقبة والإدارة. وتشتمل على ميزات لتتبع المقاييس مثل أوقات الاستجابة والدقة واستغلال الموارد.
فيما يلي بعض أطر عمل تنسيق LLM:
يستخدم IBM watsonx Orchestrate معالجة اللغة الطبيعية (NLP) للوصول إلى مجموعة واسعة من مهارات التعلم الآلي. يتألف إطار عمل IBM من آلاف التطبيقات والمهارات المُعدة مسبقاً بما في ذلك أداة إنشاء مساعد الذكاء الاصطناعي واستوديو المهارات.
تشمل حالات الاستخدام مساعدة إدارات الموارد البشرية من خلال منح الفرق الأدوات اللازمة لإعداد ودعم الموظفين الجدد وتعزيز فرق المشتريات والبيع.
إطار عمل مفتوح المصدر قائم على python لبناء تطبيقات LLM. يتألف LangChain من العديد من المكتبات ذات المصدر المفتوح والتي توفر واجهة مرنة مع عناصر تطبيقات LLM الأساسية مثل تضمين النماذج، ونماذج LLM، وتخزين المتجهات، والمسترجعات والمزيد.11
تشمل حالات الاستخدام الشائعة لـ LangChain، من البداية إلى النهاية، سلاسل الأسئلة والأجوبة وعمل الوكلاء مع قواعد بيانات SQL، والدردشة الآلية، والاستخراج، وتحليل الاستعلامات، والتلخيص، ومحاكاة الوكلاء، والوكلاء المستقلين وغير ذلك الكثير..12
يوفر إطار عمل المحادثات متعددة الوكلاء ذو المصدر المفتوح والمقدم من Microsoft تجريدًا عالي المستوى لنماذج الأساس. AutoGen هو إطار عمل وكيل ويعني ذلك أنه يستخدم وكلاء متعددين للتحدث وحل المهام. تشمل ميزاته الرئيسية وكلاء الذكاء الاصطناعي القابلين للتخصيص الذين يشاركون في محادثات متعددة الوكلاء بأنماط مرنة لبناء مجموعة واسعة من تطبيقات LLM.13
تتضمن تطبيقات AutoGen التي تعمل بنظام LLM روبوت المحادثة التعليمية للرياضيات، والشطرنج التفاعلي، واتخاذ القرار، والدردشة الجماعية الديناميكية، والبرمجة متعدد الوكلاء.14 يوفر AutoGen التحليلات لتصحيح الأخطاء من خلال AgentOps.15
يوفر LlamaIndex الأدوات اللازمة لبناء تطبيقات النماذج اللغوية الكبيرة المعززة بالسياق. وتتضمن هذه الأدوات أدوات تكامل البيانات مثل أدوات ربط البيانات لمعالجة البيانات من أكثر من 160 مصدرًا وتنسيقًا.16 كما يتضمن LlamaIndex أيضًا مجموعة من الوحدات النمطية لتقييم أداء تطبيقات LLM.
تشمل حالات الاستخدام العديدة الشائعة لـ LlamaIndex تطبيقات الأسئلة والأجوبة (التوليد المعزّز بالاسترجاع المعروف أيضًا باسم RAG)، وروبوتات الدردشة، وفهم المستندات واستخراج البيانات، وضبط النماذج على البيانات لتحسين الأداء.17
Haystack هو إطار عمل مفتوح المصدر قائم على Python ومصمَّم بمفهومين أساسيين لبناء أنظمة ذكاء اصطناعي مخصصة من البداية إلى النهاية: العناصر والمسارات. ولدى Haystack شراكات مع العديد من موفري LLM وقواعد البيانات المتجهة وأدوات الذكاء الاصطناعي التي تجعل الأدوات التي يمكن البناء عليها شاملة ومرنة.18
تشمل حالات الاستخدام الشائعة التي تقدمها Haystack أنظمة البحث الدلالي واستخراج المعلومات والإجابة عن الأسئلة الشائعة.19
crewAI هو إطار عمل مفتوح المصدر ومتعدد الوكلاء مبني على LangChain. يتم تجميع وكلاء الذكاء الاصطناعي المستقلين الذين يلعبون أدوار محددة ضمن طواقم لإكمال المهام وعمليات سير العمل المتعلقة بتطبيقات LLM.20 يقدم crewAI إصدارًا للمؤسسات يسمى crewAI+.
تشتمل التطبيقات، لكل من المستخدمين المبتدئين والمتمرسين في المجال التقني، على إنشاء الصفحة المقصودة وتحليل المخزون والاتصال. يقوم crewAI باستخدام AgentOps لتوفير المراقبة والمقاييس للوكلاء.21
مع تطور تطبيقات الذكاء الاصطناعي التوليدي، تنضج أطر عمل تنسيق LLM، ما يسهل عمليات سير عمل LLMOps من أجل إتاحة مزيد من حلول الذكاء الاصطناعي.
كما أن أطر عمل التنسيق توفر الأدوات والهيكلية اللازمة لتطبيق LLM من أجل تحقيق أقصى استفادة من نماذجها. قد تستخدم الأطر المستقبلية وكلاء الذكاء الاصطناعي وأنظمة الوكلاء المتعددين لتسهيل الأتمتة الذكية.
تشير الأنماط في إطار العمل الناشئة إلى أن بناء بنيات أكثر تعقيدًا، مثل الأنظمة متعددة العوامل القادرة على التكامل لتنفيذ الميزات، يمنح الوكلاء المهارات التي يحتاجونها لإنجاز سير العمل.
أصبحت قابلية الاستخدام أيضًا أولوية للمنصات التنسيق. مع نضوج السوق، سيتم تطوير مزيد من الأدوات التي تركز على تجربة المستخدم. يقلل هذا النهج أيضًا من الحواجز الفنية أمام استخدام أطر العمل هذه. تستفيد بعض أطر عمل التنسيق، مثل IBM watsonx Orchestrate، من واجهة اللغة الطبيعية لتبسيط المشاركة وسهولة الاستخدام.
تعد إدارة تنسيق LLM مهمة معقدة بينما يعد التنسيق أمرًا أساسيا لتوسيع نطاق مهام سير العمل المستندة إلى LLM وأتمتتها.
1 Andrei Kucharavy, “Fundamental Limitations of Generative LLMS,” SpringerLink, January 1, 1970, https://link.springer.com/chapter/10.1007/978-3-031-54827-7_5.
2 Anna Vyshnevska, “LLM Orchestration for Competitive Business Advantage: Tools & Frameworks,” Master of Code Global, June 26, 2024. https://masterofcode.com/blog/llm-orchestration.
3 Matt Bornstein, Rajko Radovanovic, “Emerging Architectures for LLM Applications,” Andreessen Horowitz, May 8, 2024. https://a16z.com/emerging-arch Architecture-for-llm-appations/
4 Vyshnevska, “LLM Orchestration for Competitive Business.”
5 “Quick Reference,” LangChain, https://python.langchain.com/v0.1/docs/modules/model_io/prompts/quick_start/
6 “Chains,” LangChain, https://python.langchain.com/v0.1/docs/modules/chains/.
7 Manish, “Compounding GenAI Success.”
8 Salvador Garcia and others, “Big Data Preprocessing: Methods and Prospects - Big Data Analytics,” SpringerLink, November 1, 2016, https://link.springer.com/article/10.1186/s41044-016-0014-0.
9 Manish, “Compounding GenAI Success.”
10 “Create Your AI App!” Langflow, https://www.langflow.org/.
11 “Conceptual Guide,” LangChain, https://python.langchain.com/v0.2/docs/concepts/.
12 “Use Cases,” LangChain, https://js.langchain.com/v0.1/docs/use_cases/.
13 “Getting Started: Autogen,” AutoGen RSS, https://microsoft.github.io/autogen/docs/Getting-Started/.
14 “Multi-Agent Conversation Framework: Autogen,” AutoGen RSS, https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat/#diverse-applications-implemented-with-autogen.
15 “AgentOps,” AgentOps, https://www.agentops.ai/?=autogen.
16 “Loading Data (Ingestion),” LlamaIndex, https://docs.llamaindex.ai/en/stable/understanding/loading/loading/.
17 “Use Cases,” LangChain, https://js.langchain.com/v0.1/docs/use_cases/.
18 “What Is Haystack?” Haystack, https://haystack.deepset.ai/overview/intro.
19 “Use Cases,” Haystack, https://haystack.deepset.ai/overview/use-cases.
20 “Ai Agents Forreal Use Cases,” crewAI, https://www.crewai.com/.
21 crewAI, Inc. “Agent Monitoring with AgentOps,” crewAI, https://docs.crewai.com/introduction#agentops.