ما المقصود بتنسيق LLM؟

29 يوليو 2024

المؤلفين

Vanna Winland

AI Advocate & Technology Writer

Joshua Noble

Data Scientist

يساعد تنسيق LLM في تقديم الموجِّهات إلى النماذج اللغوية الكبيرة (LLMs) وربطها وإدارتها ومراقبتها. يتم توجيه تنسيق LLM بواسطة أطر التنسيق. وتعد أطر العمل هي أدوات شاملة تبسِّط بناء وإدارة التطبيقات التي تعتمد على LLM.

يستخدم LLMOps التنسيق في مجموعة واسعة من التطبيقات، مثل إنشاء اللغة الطبيعية والترجمة الآلية واتخاذ القرارات و روبوتات المحادثة. ونظرًا لأن المجموعات تتبنى الذكاء الاصطناعي لبناء هذه الأنواع من تطبيقات الذكاء الاصطناعي التوليدية، فإن تنسيق LLM الفعال أمر بالغ الأهمية.

على الرغم من قوة نموذج أساس LLM، إلا أن نماذج LLM محدودة فيما يمكنها تحقيقه بمفردها. على سبيل المثال، تفتقر نماذج LLM إلى القدرة على الاحتفاظ بمعلومات جديدة أو تعلمها في الوقت الفعلي وتكافح لإكمال المشكلات متعددة الخطوات نظرًا لقيودها في السياق الذي يمكنها الاحتفاظ به.1 بالإضافة إلى ذلك، يمكن أن يصبح تنسيق العديد من نماذج LLM سريع التعقيد أثناء التعامل مع واجهات برمجة التطبيقات (APIs) الخاصة بموفري نماذج LLM مختلفين.

تتغلب أطر عمل LLM على هذه القيود بتبسيط العمليات المعقدة لدمج هندسة الموجِّهات والتفاعل مع واجهة برمجة التطبيقات واسترجاع البيانات وإدارة الحالات عبر المحادثات التي تتم مع النماذج اللغوية.2

يتم تطوير أطر عمل جديدة لتنسيق LLM وتكتسب شعبية كل يوم. تتخصص بعض تنظيمات النماذج اللغوية الكبيرة كإطار عمل لقاعدة البيانات بينما يستخدم البعض الآخر وكلاء الذكاء الاصطناعي للتعاون من أجل إكمال المهام أو تحقيق الأهداف.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

كيف تعمل أطر تنسيق LLM

لفهم كيفية عمل أطر عمل تنسيق LLM، فإنه من المفيد فهم أين يكمن التنسيق داخل بنية التطبيقات التي تعتمد على LLM.

طبقة التنسيق

طبقة التنسيق هي بمثابة العمود الفقري لمجموعة تطبيقات النماذج اللغوية الكبيرة، إذ يقوم المنسق بإنشاء سير عمل متماسك من خلال إدارة التفاعلات بين الطبقات الأخرى من بنية التطبيق.3 على غرار منسق الموسيقي، فإن منسق LLM يفوِّض ويدير سير العمل لكل عنصر تقني بناءً على تركيبة التطبيق.

تتضمن هذه العناصر التفاعل بين نماذج LLM وقوالب الموجِّهات وقواعد بيانات المتجهات والوكلاء.يضمن التنسيق أن يعمل كل عنصر من عناصر تطبيق الذكاء الاصطناعي التوليدي بشكل متماسك من خلال توفير أدوات وآليات لإدارة دورة حياة تطبيقات الذكاء الاصطناعي التوليدي بفعالية ضمن مختلف التطبيقات والبيئات.

مهام التنسيق

تعمل أطر التنسيق على تبسيط المهام المعقدة، بما في ذلك تسلسل الموجِّهات، والتفاعل مع واجهات برمجة التطبيقات الخارجية، وجلب البيانات السياقية من قواعد بيانات المتجهات وإدارة الذاكرة عبر تفاعلات LLM المتعددة. فيما يلي نظرة عامة على المهام التشغيلية المستخدمة عادة في تنسيقات LLM:

إدارة سلسلة الموجِّهات

هندسة الموجِّهات هي ممارسة هيكلة إدخالات LLM (الموجِّهات) بحيث تنتج أدوات الذكاء الاصطناعي التوليدي مخرجات محسَّنة. توفر أطر العمل قوالب موجِّهات تتضمن تعليمات وأمثلة قليلة وسياقًا محددًا وأسئلة مناسبة للمهام.5

يشير التسلسل إلى سلسلة من الاستدعاءات التي تربط العديد من نماذج LLM لدمج مخرجاتها لتحقيق النتائج أكثر دقة (تعرف أيضا باسم ربط الموجِّهات) أو أداة أو خطوة معالجة مسبقة للبيانات.6

تقوم طبقة التنسيق بإدارة مهام التوجيهات هذه عن طريق تخزين الموجِّهات ضمن قاعدة معارف أو مكتبة حيث يمكنها البحث عن بيانات التوجيهات واستردادها بسهولة. ويمكن للمنظّم تحديد الموجِّهات من المكتبة بشكل ديناميكي بناءً على الإدخالات في الوقت الفعلي أو السياق أو تفضيلات المستخدم. بالإضافة إلى ذلك، يمكنها سرد الموجِّهات بترتيب منطقي لإدارة تدفقات المحادثات.

تفتقر نماذج LLM إلى القدرة الكامنة على التعلم المستمر كما أنها محدودة في الفهم السياقي. من خلال إدارة الموجِّهات، يتولى المنسق تنقيح المخرجات من خلال تقييم الاستجابات. 

كما أن نماذج LLM غير قادرة على التحقق من الحقائق بنفسها، ما يؤدي إلى الهلوسة إذا لم تتم إدارتها. ويمكن للمنسق التحقق من الردود والتأكد من التزامها بالإرشادات المخصصة. إذا كانت الاستجابة غير كافية، فيمكن للمنسق أن يضع علامة عليها للمراجعة البشرية أو تقديم اقتراحات بديلة تسمح لنموذج LLM بالتعلم والتحسن.7

إدارة موارد وأداء LLM

تتضمن معظم أطر عمل LLM شكلاً من أشكال LLMOps للمراقبة التشغيلية. تتضمن هذه الميزات جمع مقاييس الأداء استنادًا إلى اختبارات معيارية LLM . ويمكن ملاحظة هذه المقاييس عبر لوحات معلومات تتيح للمستخدمين إمكانية مواكبة مقاييس أداء LLM في الوقت الفعلي.

تتضمن موارد LLMOps الأخرى أدوات تشخيصية لتحليل السبب الأساسي (RCA)، ما يقلل الوقت المستغرق لتصحيح الأخطاء.

إدارة البيانات والمعالجة المسبقة

يعمل المنسق على تسهيل الوصول إلى البيانات واسترجاعها من المصادر المحددة باستخدام موصلات أو واجهات برمجة تطبيقات مناسبة. تشير المعالجة المسبقة إلى تحويل بيانات غير منسقة من مصادر متعددة إلى تنسيق مناسب للنماذج اللغوية الكبيرة. وكلما كانت مجموعة البيانات أكبر، كانت آلية البيانات التي تحللها أكثر تطورًا. تضمن المعالجة المسبقة تكييف البيانات مع المتطلبات التي تفرضها كل خوارزمية لاستخراج البيانات.8 يمكن للمنسقين تسهيل المعالجة المسبقة عن طريق تعديل البيانات وتنقيحها لجعلها أكثر قيمة.

تكامل نموذج LLM والتفاعل معه

يقوم المنسق ببدء LLM لتنفيذ المهمة المعينة له. وبمجرد اكتمال المعالجة، يتلقى المنسق مخرجات النموذج ويدمج أي تعليقات لتقييم جودته الإجمالية ويسلمها إلى الوجهة المناسبة.

يحتوي المنسق على مخازن ذاكرة تعمل كقاعدة معرفية لتحسين مخرجات نماذج LLM وتفاعلاتها وتوفير فهم سياقي. ومن خلال التعامل مع الرسائل السابقة أو الإدخالات السابقة وتخزينها، يقوم المنسق بتجميع معرفة طويلة الأجل توفر استجابات أكثر دقة بناءً على التفاعلات السابقة.9

يكون المنسق مسؤولاً عن تسهيل تنفيذ ميزات قابلية الملاحظة الخاصة بنموذج LLM وإطار العمل. من منظور LLMOPS، فإن نماذج LLM التي تعمل من دون هذه القدرات تخاطر بإخراج نتائج مضللة وإبداء مخاطر أمنية بناءً على القدرات المحدودة لنماذج LLM التي لم يتم ضبطها جيدًا.

فوائد تنسيق LLM

توفر أطر عمل تنسيق LLM الإدارة والتحسين اللازمين لتبسيط تفاعلات LLM وعمليات سير العمل لتعزيز عمليات LLMOps.

  • قابلية التوسع: الاستخدام الأمثل للموارد من خلال التمكين من أجل توسيع النطاق أو تضييقه حسب الطلب. 
  • إدارة الموارد: أطر العمل تدير الموارد، مثل وحدة المعالجة المركزية ووحدة معالجة الرسومات والذاكرة والتخزين من خلال تخصيص الموارد ديناميكيًا بناءً على أحمال التشغيل.
  • أتمتة سير العمل: تتيح أتمتة مهام سير العمل المعقدة التي تتضمن نماذج LLM، مثل المعالجة المسبقة للبيانات، وتدريب النماذج، والاستدلال، والمعالجة اللاحقة. يساهم تبسيط العمليات في تقليل الجهد اليدوي وتعزيز الكفاءة العامة عن طريق تخفيف هذه الأعباء عن كاهل المطورين.
  • موازنة الحِمل: من خلال توزيع الطلبات عبر مثيلات LLM متعددة، تمنع أطر العمل المثيلات المرتبطة بالتحميل الزائد وتحسِّن موثوقية النظام الكلية وأوقات الاستجابة.
  • التسامح مع الأخطاء: تتضمن معظم أطر العمل آليات لكشف الأعطال في مثيلات LLM و إعادة التوجيه تلقائيًا لنقل البيانات إلى المثيلات السليمة، ما يقلل من فترة التعطل ويحافظ على توفُّر الخدمة.
  • التحكم في الإصدار والتحديثات: إدارة الإصدارات المختلفة من نماذج LLM ونشر التحديثات دون توزيعها.
  • كفاءة التكلفة: يمكن للتنسيق الفعال تحسين التكاليف من خلال تخصيص الموارد بشكل ديناميكي بناءً على الطلب. 
  • الأمان والامتثال: التحكم المركزي والمراقبة عبر مثيلات LLM يضمنان الالتزام بالمعايير التنظيمية. 
  • التكامل مع الخدمات الأخرى: يعزز النظام البنائي المتماسك من خلال دعم التكامل مع الخدمات الأخرى مثل تخزين البيانات والتسجيل والمراقبة والتحليلات.
  • تقليل الحواجز التقنية: السماح بالتنفيذ مع الفرق الحالية، ولا حاجة إلى خبراء الذكاء الاصطناعي. يتم إنشاء الأدوات فوق أطر العمل لتسهيل الاستخدام. على سبيل المثال، LangFlow عبارة عن واجهة مستخدم رسومية تخص LangChain.10

اختيار إطار عمل تنسيق LLM المناسب

لدى مطوري التطبيقات خيار إما اعتماد الحلول الناشئة أو تجميع الحلول الخاصة بهم من نقطة الصفر. يتطلب اختيار إطار عمل تنسيق LLM الصحيح تخطيطًا مستنيرًا واستراتيجية مدروسة.

الأشياء التي يجب مراعاتها قبل اختيار إطار عمل LLM: 

قابلية الاستخدام

تحقق من وثائق واجهة برمجة التطبيقات الخاصة بإطار العمل وتأكد من أنها مفيدة وتتيح للمطورين البدء بسهولة. تحقق أيضًا من موارد مجتمع إطار العمل لقياس نوع دعم استكشاف الأخطاء وإصلاحها المقدم.

اعتبارات التكلفة

يتحتم عليك تقييم الآثار المترتبة على التكلفة الناجمة عن اعتماد أطر عمل مختلفة. العديد من أطر عمل LLM تتسم بكونها ذات مصدر مفتوح مع خيار مدفوع خاص بالمؤسسات. تأكّد من أن نموذج التسعير لا يتناسب مع الاستثمار الأولي فحسب، بل أيضاً مع النفقات المستمرة مثل التراخيص والتحديثات وخدمات الدعم. يوفر إطار العمل الفعال من حيث التكلفة توازنًا بين السعر والميزات التي يوفرها.

اعتبارات الأمان

عند اختيار برنامج LLM المناسب، تحقق من ميزات الأمان، مثل التشفير وعناصر التحكم في الوصول وسجلات التدقيق التي توفر أمن البيانات وتساعد على حماية بياناتك والامتثال للوائح الخصوصية ذات الصلة.

أدوات مراقبة الأداء وإدارته

استعلِم عن أدوات المراقبة والإدارة. وتشتمل على ميزات لتتبع المقاييس مثل أوقات الاستجابة والدقة واستغلال الموارد. 

أطر عمل تنسيق LLM

فيما يلي بعض أطر عمل تنسيق LLM:

IBM watsonx Orchestrate

يستخدم IBM watsonx Orchestrate معالجة اللغة الطبيعية (NLP) للوصول إلى مجموعة واسعة من مهارات التعلم الآلي. يتألف إطار عمل IBM من آلاف التطبيقات والمهارات المُعدة مسبقاً بما في ذلك أداة إنشاء مساعد الذكاء الاصطناعي واستوديو المهارات. 

تشمل حالات الاستخدام مساعدة إدارات الموارد البشرية من خلال منح الفرق الأدوات اللازمة لإعداد ودعم الموظفين الجدد وتعزيز فرق المشتريات والبيع.

LangChain

إطار عمل مفتوح المصدر قائم على python لبناء تطبيقات LLM. يتألف LangChain من العديد من المكتبات ذات المصدر المفتوح والتي توفر واجهة مرنة مع عناصر تطبيقات LLM الأساسية مثل تضمين النماذج، ونماذج LLM، وتخزين المتجهات، والمسترجعات والمزيد.11

تشمل حالات الاستخدام الشائعة لـ LangChain، من البداية إلى النهاية، سلاسل الأسئلة والأجوبة وعمل الوكلاء مع قواعد بيانات SQL، والدردشة الآلية، والاستخراج، وتحليل الاستعلامات، والتلخيص، ومحاكاة الوكلاء، والوكلاء المستقلين وغير ذلك الكثير..12

AutoGen

يوفر إطار عمل المحادثات متعددة الوكلاء ذو المصدر المفتوح والمقدم من Microsoft تجريدًا عالي المستوى لنماذج الأساس. AutoGen هو إطار عمل وكيل ويعني ذلك أنه يستخدم وكلاء متعددين للتحدث وحل المهام. تشمل ميزاته الرئيسية وكلاء الذكاء الاصطناعي القابلين للتخصيص الذين يشاركون في محادثات متعددة الوكلاء بأنماط مرنة لبناء مجموعة واسعة من تطبيقات LLM.13

تتضمن تطبيقات AutoGen التي تعمل بنظام LLM روبوت المحادثة التعليمية للرياضيات، والشطرنج التفاعلي، واتخاذ القرار، والدردشة الجماعية الديناميكية، والبرمجة متعدد الوكلاء.14 يوفر AutoGen التحليلات لتصحيح الأخطاء من خلال AgentOps.15

LlamaIndex

يوفر LlamaIndex الأدوات اللازمة لبناء تطبيقات النماذج اللغوية الكبيرة المعززة بالسياق. وتتضمن هذه الأدوات أدوات تكامل البيانات مثل أدوات ربط البيانات لمعالجة البيانات من أكثر من 160 مصدرًا وتنسيقًا.16 كما يتضمن LlamaIndex أيضًا مجموعة من الوحدات النمطية لتقييم أداء تطبيقات LLM.

تشمل حالات الاستخدام العديدة الشائعة لـ LlamaIndex تطبيقات الأسئلة والأجوبة (التوليد المعزّز بالاسترجاع المعروف أيضًا باسم RAG)، وروبوتات الدردشة، وفهم المستندات واستخراج البيانات، وضبط النماذج على البيانات لتحسين الأداء.17

Haystack

Haystack هو إطار عمل مفتوح المصدر قائم على Python ومصمَّم بمفهومين أساسيين لبناء أنظمة ذكاء اصطناعي مخصصة من البداية إلى النهاية: العناصر والمسارات. ولدى Haystack شراكات مع العديد من موفري LLM وقواعد البيانات المتجهة وأدوات الذكاء الاصطناعي التي تجعل الأدوات التي يمكن البناء عليها شاملة ومرنة.18

تشمل حالات الاستخدام الشائعة التي تقدمها Haystack أنظمة البحث الدلالي واستخراج المعلومات والإجابة عن الأسئلة الشائعة.19

crewAI

crewAI هو إطار عمل مفتوح المصدر ومتعدد الوكلاء مبني على LangChain. يتم تجميع وكلاء الذكاء الاصطناعي المستقلين الذين يلعبون أدوار محددة ضمن طواقم لإكمال المهام وعمليات سير العمل المتعلقة بتطبيقات LLM.20 يقدم crewAI إصدارًا للمؤسسات يسمى crewAI+. 

تشتمل التطبيقات، لكل من المستخدمين المبتدئين والمتمرسين في المجال التقني، على إنشاء الصفحة المقصودة وتحليل المخزون والاتصال. يقوم crewAI باستخدام AgentOps لتوفير المراقبة والمقاييس للوكلاء.21

مستقبل تنسيق LLM

مع تطور تطبيقات الذكاء الاصطناعي التوليدي، تنضج أطر عمل تنسيق LLM، ما يسهل عمليات سير عمل LLMOps من أجل إتاحة مزيد من حلول الذكاء الاصطناعي.

كما أن أطر عمل التنسيق توفر الأدوات والهيكلية اللازمة لتطبيق LLM من أجل تحقيق أقصى استفادة من نماذجها. قد تستخدم الأطر المستقبلية وكلاء الذكاء الاصطناعي وأنظمة الوكلاء المتعددين لتسهيل الأتمتة الذكية.

تشير الأنماط في إطار العمل الناشئة إلى أن بناء بنيات أكثر تعقيدًا، مثل الأنظمة متعددة العوامل القادرة على التكامل لتنفيذ الميزات، يمنح الوكلاء المهارات التي يحتاجونها لإنجاز سير العمل.

أصبحت قابلية الاستخدام أيضًا أولوية للمنصات التنسيق. مع نضوج السوق، سيتم تطوير مزيد من الأدوات التي تركز على تجربة المستخدم. يقلل هذا النهج أيضًا من الحواجز الفنية أمام استخدام أطر العمل هذه. تستفيد بعض أطر عمل التنسيق، مثل IBM watsonx Orchestrate، من واجهة اللغة الطبيعية لتبسيط المشاركة وسهولة الاستخدام.

تعد إدارة تنسيق LLM مهمة معقدة بينما يعد التنسيق أمرًا أساسيا لتوسيع نطاق مهام سير العمل المستندة إلى LLM وأتمتتها.

الحواشي

1 Andrei Kucharavy, “Fundamental Limitations of Generative LLMS,” SpringerLink, January 1, 1970, https://link.springer.com/chapter/10.1007/978-3-031-54827-7_5.

2 Anna Vyshnevska, “LLM Orchestration for Competitive Business Advantage: Tools & Frameworks,” Master of Code Global, June 26, 2024. https://masterofcode.com/blog/llm-orchestration.

3 Matt Bornstein, Rajko Radovanovic, “Emerging Architectures for LLM Applications,” Andreessen Horowitz, May 8, 2024. https://a16z.com/emerging-arch Architecture-for-llm-appations/

4 Vyshnevska, “LLM Orchestration for Competitive Business.” 

5 “Quick Reference,” LangChain, https://python.langchain.com/v0.1/docs/modules/model_io/prompts/quick_start/

6 “Chains,” LangChain, https://python.langchain.com/v0.1/docs/modules/chains/.

7 Manish, “Compounding GenAI Success.”

8 Salvador Garcia and others, “Big Data Preprocessing: Methods and Prospects - Big Data Analytics,” SpringerLink, November 1, 2016, https://link.springer.com/article/10.1186/s41044-016-0014-0.

9 Manish, “Compounding GenAI Success.”

10 “Create Your AI App!” Langflow, https://www.langflow.org/.

11 “Conceptual Guide,” LangChain, https://python.langchain.com/v0.2/docs/concepts/.

12 “Use Cases,” LangChain, https://js.langchain.com/v0.1/docs/use_cases/.

13 “Getting Started: Autogen,” AutoGen RSS, https://microsoft.github.io/autogen/docs/Getting-Started/.

14 “Multi-Agent Conversation Framework: Autogen,” AutoGen RSS, https://microsoft.github.io/autogen/docs/Use-Cases/agent_chat/#diverse-applications-implemented-with-autogen.

15 “AgentOps,” AgentOps, https://www.agentops.ai/?=autogen.

16 “Loading Data (Ingestion),” LlamaIndex, https://docs.llamaindex.ai/en/stable/understanding/loading/loading/.

17 “Use Cases,” LangChain, https://js.langchain.com/v0.1/docs/use_cases/.

18 “What Is Haystack?” Haystack, https://haystack.deepset.ai/overview/intro.

19 “Use Cases,” Haystack, https://haystack.deepset.ai/overview/use-cases.

20 “Ai Agents Forreal Use Cases,” crewAI, https://www.crewai.com/.

21 crewAI, Inc. “Agent Monitoring with AgentOps,” crewAI, https://docs.crewai.com/introduction#agentops.