ما هو LlamaIndex؟

منظر جوي لطريق سريع في لوس أنجلوس

المؤلفين

Vanna Winland

AI Advocate & Technology Writer

Erika Russi

Data Scientist

IBM

LlamaIndex هو إطار عمل مفتوح المصدر لتنسيق البيانات يتيح بناء تطبيقات النماذج اللغوية الكبيرة (LLM) . يتوفر LlamaIndex في Python وTypeScript ويستفيد من مجموعة من الأدوات والقدرات التي تبسط عملية تعزيز السياق لحالات استخدام الذكاء الاصطناعي التوليدي من خلال مسار التوليد المعزّز بالاسترجاع (RAG).

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

كيف يعمل LlamaIndex؟

يتيح LlamaIndex للمستخدمين إمكانية تنسيق بياناتهم الخاصة أو المخصصة وتنظيمها من خلال التكامل وتعزيز السياق.

تعزيز السياق

يتم تعزيز السياق عندما يتم توفير بيانات إلى نافذة سياق النموذج اللغوي الكبير (LLM)، ما يؤدي بشكل أساسي إلى تعزيز تلك النماذج ببيانات خاصة أو خارجية.

يتم تدريب النماذج اللغوية الكبيرة مفتوحة المصدر المستخدمة على نطاق واسع مسبقًا على كميات كبيرة من البيانات العامة. تساعد برامج النماذج اللغوية الكبيرة واسعة النطاق هذه في حل العديد من مشاكل العالم الحقيقي. ومع ذلك، فإنها تستغرق قدرًا كبيرًا من الوقت والموارد للتدريب على حالة استخدام معينة. بالإضافة إلى ذلك، تكون البيانات الداخلية للنموذج محدثة فقط خلال الوقت الذي تم خلاله التدريب المسبق. واعتمادًا على النموذج، يعد تعزيز السياق ضروريًا للنماذج لتعكس وعيًا في الوقت الفعلي بالأحداث الجارية.

تكتسب نماذج الأساس شعبية متزايدة لأنها نماذج ذكاء اصطناعي مرنة وقابلة لإعادة الاستخدام ويمكن تطبيقها على أي مجال أو مهمة تقريبًا. يتم تدريب نماذج الأساس التي تشبه سلسلة IBM Granite™ على بيانات منسقة، ومع ذلك سواء تم تدريب النموذج على مجموعة بيانات كبيرة أو كان نموذج أساس سبق تدريبه، فمن المحتمل أن تحتاج إلى التدريب على مصادر خارجية للبيانات الخاصة بالمجال. يتم تيسير هذه العملية من خلال إطار عمل نظامي يربط بين النموذج اللغوي الكبير والبيانات الخاصة لتكييفها مع حالة الاستخدام أو الهدف العام للتطبيق. وجزء مجموعة التطبيقات، الذي يُسهّل توصيل النماذج اللغوية الكبيرة بمصادر البيانات المخصصة، هو إطارات عمل مثل LlamaIndex.

تكامل البيانات

تأتي البيانات من مصادر متعددة بتنسيقات عديدة؛ والأمر متروك لإطار العمل لاستيعاب البيانات وتحويلها وتنظيمها لتستخدمها النماذج اللغوية الكبيرة، إذ أن البيانات غالبًا ما تكون منعزلة وغير منظمة. وللحصول عليها وهيكلتها، يجب على إطار عمل مثل LlamaIndex، تمرير البيانات عبر عملية تسمى عادةً مسار الاستيعاب.

بمجرد أن يتم استيعاب البيانات وتحويلها إلى تنسيق يمكن للنموذج اللغوي الكبير استخدامه، فإن الخطوة التالية تكمن في تحويل المعلومات إلى بنية بيانات لإجراء الفهرسة. الإجراء الشائع هو تحويل البيانات غير المنظمة إلى تضمينات متجهية. وتسمى هذه العملية "إنشاء تضمين" في معالجة اللغة الطبيعية (NLP) ولكن يشار إليها باسم "الفهرسة" في مصطلحات البيانات.1 تعد الفهرسة ضرورية لأنها تتيح للنموذج اللغوي الكبير إمكانية الاستعلام عن البيانات التي تم استيعابها واستردادها بواسطة فهرس المتجهات. يمكن فهرسة البيانات وفقًا لاستراتيجية الاستعلام المختارة.

يعمل تكامل البيانات على تسهيل تعزيز السياق من خلال دمج البيانات الخاصة في نافذة السياق أو "قاعدة المعرفة" الخاصة بالنموذج اللغوي الكبير. تم تمديد طول نافذة السياق لطرازي Granite 3B و8B من IBM مؤخرا إلى 128,000 رمز مميز.2 تتيح نافذة السياق الأكبر للنموذج إمكانية الاحتفاظ بمزيد من النصوص في ذاكرته العاملة، مما يعزز قدرته على تتبع التفاصيل الرئيسية خلال المحادثات الممتدة والنصوص الطويلة وقواعد الأكواد الضخمة. كما تتيح هذه القدرات لروبوتات محادثات النماذج اللغوية الكبيرة إمكانية إنتاج استجابات متماسكة على المدى القصير وعلى مدى سياقات أكثر امتدادًا.

ومع ذلك، حتى مع وجود نافذة سياق ممتدة، قد يتكبد النموذج الدقيق تكاليف كبيرة فيما يخص التدريب والاستدلال على حد سواء. يتطلب الضبط الدقيق للنماذج باستخدام بيانات محددة أو خاصة إجراء تحويلات للبيانات وأنظمة تعزز طرق استرجاع البيانات بكفاءة لاستخدامها في تهيئة موجِّهات النماذج اللغوية الكبيرة. يُنظر إلى منهجية التوليد المعزّز بالاسترجاع (RAG) على أنها خيار واعد لتسهيل نمذجة اللغات ذات السياقات الطويلة.3

التوليد المعزَّز بالاسترداد (RAG)

يعد التوليد المعزّز بالاسترجاع (RAG) أحد أكثر الطرق المعروفة والمستخدمة لتعزيز السياق. يتيح RAG للنماذج اللغوية الكبيرة إمكانية الاستفادة من قاعدة معرفية متخصصة، مما يعزز قدرة أعضاء الفريق على تقديم إجابات أكثر دقة على الأسئلة.4 يتم تنفيذ عملية تعزيز الاسترجاع النموذجية بثلاث خطوات:

  1. التجزئة: يتم تقسيم الإدخالات التسلسلية الطويلة إلى أجزاء.
  2. التضمين: يتم ترميز كل جزء في تضمين يمكن للنموذج اللغوي الكبير معالجته.
  3. الاسترجاع: يتم جلب الأجزاء المضمنة الأكثر فائدة بناءً على الاستعلام.

تبسِّط إطارات عمل البيانات، مثل LlamaIndex، عملية استيعاب البيانات واسترجاعها من خلال توفير استدعاءات شاملة لواجهة برمجة التطبيقات (API) لكل خطوة في نمط RAG. وهذه العملية مدعومة بمفهوم محرك الاستعلامات الذي يتيح للمستخدمين إمكانية طرح أسئلة على بياناتهم. كما أن الاستعلام عن البيانات الخارجية وتهيئة موجِّهات النماذج اللغوية الكبيرة بالمعرفة السياقية يجعل من الممكن إنشاء تطبيقات نماذج لغوية كبيرة خاصة بالمجال.

أكاديمية الذكاء الاصطناعي

لماذا تعد نماذج الأساس نقلة نوعية في الذكاء الاصطناعي

تعرَّف على فئة جديدة من نماذج الذكاء الاصطناعي المرنة والقابلة لإعادة الاستخدام التي يمكن أن تفتح مصادر جديدة للإيرادات، وتُسهم في تقليل التكاليف، وزيادة الإنتاجية، ثم استخدم دليلنا لمعرفة المزيد من التفاصيل.

سير عمل بيانات LlamaIndex

يقوم LlamaIndex باستخدام RAG لإضافة البيانات الخارجية وتوصيلها بتجمع البيانات الذي يمكن للنماذج اللغوية الكبيرة الوصول إليه بالفعل. تستخدم التطبيقات، بما في ذلك محركات الاستعلامات وروبوتات المحادثة والوكلاء، تقنيات RAG لإكمال المهام.5

يمكن تقسيم سير عمل LlamaIndex إلى بضع خطوات:

  1. استيعاب البيانات (التحميل)
  2. الفهرسة والتخزين
  3. الاستعلام

يتمثل الهدف من سير العمل هذا في المساعدة على استيعاب البيانات وهيكلتها والسماح بوصول النماذج اللغوية الكبيرة إلى البيانات الخاصة أو المرتبطة بالمجال، إذ يتيح الوصول إلى مزيد من البيانات ذات الصلة بتلك النماذج إمكانية الاستجابة على نحو أكثر دقة للموجِّهات سواء كانت لبناء روبوتات محادثة أو محركات استعلامات.

استيعاب البيانات (التحميل)

يعد استيعاب البيانات أو "تحميلها" الخطوة الأولى لتوصيل مصادر البيانات الخارجية بنموذج لغوي كبير. يشير LlamaIndex إلى استيعاب البيانات على أنه تحميل البيانات ليستخدمها التطبيق. يمكن عزل معظم البيانات الخاصة أو المخصصة بتنسيقات مثل واجهات برمجة التطبيقات (APIs) وملفات PDF والصور وقواعد بيانات لغة الاستعلام المنظمة (SQL) وغيرها الكثير. كما يمكن تحميل LlamaIndex بأكثر من 160 تنسيقًا مختلفًا للبيانات بما في ذلك مجموعات البيانات المنظمة وشبه المنظمة وغير المنظمة.

تقوم موصلات البيانات، والمعروفة أيضا باسم "محملات البيانات"، بجلب البيانات واستيعابها من مصدرها الأصلي، إذ يتم تحويل البيانات المجمعة إلى مجموعة من البيانات والبيانات الوصفية. وتسمى هذه المجموعات "المستندات" في LlamaIndex. وتقوم موصلات البيانات، أو "أدوات القراءة" في LlamaIndex، باستعياب وتحميل تنسيقات البيانات المختلفة. يتميز LlamaIndex بقارئ متكامل يقوم بتحويل جميع الملفات الموجودة في كل دليل إلى مستندات، بما في ذلك ملفات Markdown، وملفات PDF، ومستندات Word، وعروض PowerPoint التقديمية، والصور، والملفات الصوتية، ومقاطع الفيديو.6 ولمراعاة تنسيقات البيانات الأخرى غير المضمنة في الوظيفة المدمجة، تتوفر موصلات البيانات من خلال LlamaHub، وهو سجل لمحمّلات البيانات ذات المصدر المفتوح. تقوم هذه الخطوة في سير العمل ببناء قاعدة معرفية لتشكيل فهارس على البيانات بحيث يمكن الاستعلام عنها واستخدامها من قبل النماذج اللغوية الكبيرة.

الفهرسة والتخزين

بمجرد استيعاب البيانات، يحتاج إطار العمل إلى تحويل البيانات وتنظيمها في بنية يمكن للنموذج اللغوي الكبير استرجاعها، إذ تقوم فهارس البيانات بهيكلة البيانات إلى تمثيلات يمكن للنماذج اللغوية الكبيرة أن تستخدمها. ويقدم LlamaIndex العديد من أنواع الفهارس المختلفة التي تتكامل مع استراتيجية الاستعلامات الخاصة بالتطبيق، بما في ذلك: فهرس مخزن المتجهات، وفهرس الملخصات، وفهرس الرسومات البيانية المعرفية.

بمجرد تحميل البيانات وفهرستها، يمكن تخزين البيانات. ويدعم LlamaIndex العديد من مخازن المتجهات التي تختلف في الهندسة المعمارية والتعقيد والتكلفة، حيث يقوم LlamaIndex افتراضيًا بتخزين جميع البيانات المفهرسة في الذاكرة فقط.

فهرس مخزن المتجهات

يتم استخدام فهرس مخزن المتجهات بشكل شائع في تطبيقات النماذج اللغوية الكبيرة التي تتبع نمط RAG لأنه يتفوق في التعامل مع استعلام اللغة الطبيعية. تعتمد دقة الاسترجاع من استعلامات اللغة الطبيعية على البحث الدلالي، أو البحث القائم على المعنى بدلاً من تطابق الكلمات الرئيسية.7 يتم تمكين البحث الدلالي عن طريق تحويل بيانات الإدخال إلى تضمينات متجهات.تضمين المتجهات هو تمثيل عددي لدلالات البيانات التي يمكن للنموذج اللغوي الكبير معالجتها. وتتيح العلاقة الرياضية بين تضمينات المتجهات للنماذج اللغوية الكبيرة إمكانية استرداد البيانات بناءً على معنى مصطلحات الاستعلام للحصول على استجابات تتسم بالثراء السياقي.

يأخذ "VectorStoreStoreIndex" مجموعات البيانات أو كائنات "المستند" ويقسمها إلى "عُقد" وهي وحدات ذرية من البيانات تمثل "جزءًا" من البيانات المصدر ("المستند"). وبمجرد تقسيم عملية جمع البيانات إلى أجزاء، يتم إنشاء عمليات تضمين متجهات لكل جزء من البيانات. وبذلك أصبحت البيانات المدمجة الآن بتنسيق يمكن للنموذج اللغوي الكبير تشغيل الاستعلامات عليه. كما يمكن تخزين فهارس المتجهات هذه لتجنب إعادة الفهرسة. وأبسط طريقة لتخزين البيانات هي استمرارها على القرص، لكن LlamaIndex يتكامل مع قواعد بيانات متجهات متعددة ونماذج تضمين عديدة.8

لإجراء عملية بحث عن التضمينات، يتم تحويل استعلام المستخدم أولاً إلى تضمين متجهات. بعد ذلك، يتم استخدام عملية رياضية لترتيب جميع عمليات التضمين بناءً على تشابهها الدلالي مع الاستعلام.

يستخدم فهرس مخزن المتجهات استرجاع الدلالات الأعلى (top-k) لإرجاع أكثر التضمينات تشابهًا مع قطع النص المقابلة لها، إذ أنه تم تصميم LlamaIndex لتسهيل إنشاء وإدارة فهارس واسعة النطاق لاسترجاع المعلومات بكفاءة.

الاستعلام

تعد الخطوة الأخيرة في سير العمل هي تنفيذ محركات استعلامات للتعامل مع طلبات الموجِّهات المرسلة إلى النماذج اللغوية الكبيرة. يتكون الاستعلام من ثلاث مراحل مميزة؛ ألا وهي الاسترجاع، والمعالجة اللاحقة وتوليف الاستجابة. يحدث الاسترجاع عندما يتم جلب المستندات الأكثر صلة وإرجاعها من فهرس المتجهات. وتتم المعالجة اللاحقة عندما يتم اختياريًا إعادة تجهيز أجزاء التضمين أو "العُقد" المسترجعة عن طريق إعادة الترتيب أو التحويل أو التصفية. ويتم توليف الاستجابة عندما يتم دمج الموجِّه والبيانات الأكثر صلة وإرسالها إلى النموذج اللغوي الكبير لإرجاع استجابة.

محركات الاستعلام

تتيح محركات الاستعلامات للمستخدمين إمكانية طرح أسئلة بخصوص بياناتهم، بأخذ استعلام باللغة الطبيعية وإرجاع استجابة غنية بالسياق.9 تتكون محركات الاستعلام من واحد أو أكثر من الفهارس وعمليات الاسترجاع. يمكن استخدام العديد من محركات الاستعلامات في الوقت نفسه لمجموعات بيانات ذات أنواع فهارس متعددة. ويقدم LlamaIndex العديد من محركات الاستعلامات المختلفة للبيانات المنظمة وشبه المنظمة، على سبيل المثال محرك استعلامات JSON للاستعلام عن مستندات JSON.

وكلاء البيانات

وكلاء البيانات عبارة عن وكلاء ذكاء اصطناعي معتمدة على النماذج اللغوية الكبيرة (LLM) وقادرة على أداء مجموعة من المهام على البيانات، بما في ذلك وظائف القراءة والكتابة.10 وكلاء بيانات LlamaIndex عبارة عن أعمال معرفية مدعومة بالنماذج اللغوية الكبيرة (LLM) والتي يمكنها تنفيذ ما يلي:

  • البحث والاسترجاع الآليين عبر أنواع البيانات المختلفة - غير المنظمة وشبه المنظمة والمنظمة
  • استدعاءات واجهات برمجة التطبيقات إلى الخدمات الخارجية التي يمكن معالجتها على الفور أو فهرستها أو تخزينها مؤقتا
  • تخزين سجلات المحادثات
  • إتمام مهام البيانات البسيطة والمعقدة

يمكن لوكلاء الذكاء الاصطناعي التفاعل مع بيئتها الخارجية من خلال مجموعة من واجهات برمجة التطبيقات والأدوات. يدعم LlamaIndex عامل OpenAI Function (المبني على واجهة برمجة تطبيقات OpenAI Function) ووكيل React. المكونات الأساسية لوكلاء البيانات هي "حلقة الاستدلال" أو نموذج الاستدلال الخاص بالوكيل و"تجريدات الأدوات" التي تمثل الأدوات نفسها.

حلقة الاستدلال

يستخدم الوكلاء حلقة الاستدلال، أونموذج الاستدلال، لحل المشكلات متعددة الخطوات. في LlamaIndex، كل من OpenAI Function و ReAct وكلاء اتبع نمطا مشابها لتحديد الأدوات التي يجب استخدامها، بالإضافة إلى التسلسل والمعلمات التي يجب استدعاء كل أداة. ويسمى هذا النمط من التفكير في التصرف أو الاستدلال والعمل. يمكن أن تكون هذه العملية إما عملية اختيار أداة بسيطة من خطوة واحدة أو عملية أكثر تعقيدا حيث يتم اختيار العديد من الأدوات في كل خطوة.

تجريدات أدوات الوكيل

تحدد تجريدات الأدوات كيفية وصول الوكيل إلى الأدوات واستخدامها. يقدّم LlamaIndex أدوات وToolSpecs، وهي فئة Python التي تمثل مواصفات واجهة برمجة التطبيقات الكاملة والتي يمكن للوكيل التفاعل معها. وتجريد الأداة الأساسية يحدد واجهة عامة يمكن أن تستقبل سلسلة من الوسيطات وتعيد حاوية إخراج أدوات عامة يمكنها التقاط أي استجابة. ويوفر LlamaIndex تجريدات الأدوات التي تلتف حول محركات استعلامات البيانات الحالية وتجريدات الوظائف والتي يمكن استخدامها بواسطة فئة مواصفات الأدوات.

  • FunctionTool: لتحويل أي دالة إلى أداة يمكن للوكلاء استخدامها.
  • QueryEngineTool: لتمكين الوكلاء من استخدام ميزتي البحث والاسترجاع الخاصتين بمحرك الاستعلامات.

تتيح مواصفات الأدوات للمستخدمين من تحديد خدمات كاملة بدلاً من أدوات فردية تتعامل مع مهام محددة. على سبيل المثال، تتيح مواصفات أدوات Gmail للوكيل إمكانية قراءة رسائل البريد الإلكتروني وصياغتها.11 في ما يلي مثال على كيفية تعريف ذلك تقريبًا:

class GmailToolSpec(BaseToolSpec):
    “””Load emails from the user’s account”””
    spec_functions = [“load_data”,“create_draft”, “send_email”]
    def load_data(self) -> List[Document]:
...

def create_draft(
    self,
    to: List[str],
    subject: [str],
    message: [str],
) -> str: “Create and insert a draft email”
...

def send_draft(
    self,
    draft_id: str = None
) -> str: “Send a draft email.”
...

يتم تحويل كل دالة إلى أداة، باستخدام التجريد "FunctionTool".

يستخدم LlamaIndex مستودع أدوات LlamaHub، والذي يتكون من 15+ مواصفات أدوات للوكلاء من أجل التفاعل معها. تتكون هذه القائمة من خدمات تهدف إلى تعزيز وإثراء قدرة الوكلاء على أداء إجراءات مختلفة. فيما يلي بعض المواصفات العديدة المضمنة في المستودع:

  • SQL + Vector Database spec
  • Gmail Spec
  • Ollama
  • LangChainLLM

أدوات مساعدة

يقدم LlamaIndex أدوات مساعدة يمكنها زيادة قدرات الأدوات الحالية بما في ذلك:

  • OnDemandLoaderTool: لتحويل أي محمل بيانات LlamaIndex موجود إلى أداة يمكن للوكيل استخدامها.
  • LoadAndSearchToolSpec: لقبول الأدوات الموجودة كمدخلات ولإنتاج كل من أداة تحميل وأداة بحث كمخرجات.

التكامل مع النماذج اللغوية الكبيرة

يعمل LlamaIndex مع نماذج الأساس ذات المصدر المفتوح، مثل سلسلة IBM Granite™ وLlama2 وOpenAI وغيرها من إطارات عمل النماذج اللغوية الكبيرة، بما في ذلك LangChain وOllama، حيث يمكن استخدام النماذج اللغوية الكبيرة بطرق لا حصر لها كوحدات قائمة بذاتها أو توصيلها بوحدات LlamaIndex الأساسية الأخرى. كما يمكن أيضًا استخدام 12 نموذجًا لغويًا كبيرًا لدفع وكلاء الذكاء الاصطناعي نحو محاكاة عمال معرفة يتبعون سير عمل مستقلاً.

وكلاء الذكاء الاصطناعي

قامت LlamaIndex بتوسيع نطاق وظائفها لتشمل استخدام وكلاء ذكاء اصطناعي قائمة على النماذج اللغوية الكبيرة لتكون بمثابة عاملين في مجال المعرفة. يتبع وكلاء LlamaIndex للذكاء الاصطناعي نمط ReAct (التفكير والعمل). يتبع وكلاء React نموذجًا منطقيًا يوجه الوكيل للتخطيط والتفكير مع تحسين الاستجابات بشكل متكرر. هذا النوع من وكالات الذكاء الاصطناعي يمكن تفسيره على أنه شكل من أشكال تهيئة موجِّهات سلاسل الأفكار. يمكن للوكلاء استخدام الأدوات لدمجها مع النماذج اللغوية الكبيرة الأخرى. على سبيل المثال، مجموعة LlamaHub من أدوات توصيل البيانات والوكلاء.

حالات الاستخدام

يقدم LlamaIndex العديد من أمثلة حالات الاستخدام في مستنداتها مع روابط للبرامج التعليمية.13

  • روبوتات المحادثة: يقدم LlamaIndex نموذجًا ذا حالة مشابهة لمحرك استعلامات يسمى روبوت محادثة. ويوفر محرك الدردشة واجهة عالية المستوى للمحادثات (للتفاعلات ذهابًا وإيابًا بدلاً من سؤال وجواب). يمكن للمرء أن يفكر في محركات الدردشة كنسخة أكثر تخصيصًا من تطبيق ChatGPT. من بين تنفيذات محركات الدردشة، هناك وضع يستفيد من وكيل ReAct. يحتوي LlamaIndex على درس تعليمي حول كيفية إنشاء روبوت محادثة يستخدم وكيل بيانات.
  • تهيئة الموجِّهات: يستخدم LLAmaIndex تكامل النماذج اللغوية الكبيرة وعمليات سير العمل كتجريدات تحركها الأحداث لربط الموجِّهات معًا. وتهيئة الموجِّهات أمر أساسي لأي تطبيق من تطبيقات النماذج اللغوية الكبيرة.
  • الإجابة عن الأسئلة (RAG): يوفر LlamaIndex إمكانية إجراء RAG على المستندات غير المهيكلة باستخدام استعلامات اللغة الطبيعية. يقدم LlamaIndex أيضًا طريقة للاستعلام عن البيانات المهيكلة باستخدام النص إلى SQL (text-to-SQL) والنص إلى Pandas (text-to-Pandas).14
  • استخراج البيانات المهيكلة: تقوم النماذج اللغوية الكبيرة بمعالجة اللغة الطبيعية واستخراج التفاصيل المهمة لغويًا، مثل الأسماء والتواريخ والعناوين والأرقام وتقديمها بتنسيق متسق ومنظم بغض النظر عن المصدر الأصلي. وبمجرد تنظيم البيانات، يمكن إرسالها إلى قاعدة بيانات أو تحليلها بشكل أكبر باستخدام أدوات مثل LlamaParse.
  • الوكلاء المستقلون: يمكن استخدام وكلاء الذكاء الاصطناعي في تطبيقات النماذج اللغوية الكبيرة المختلفة. على سبيل المثال، يمكن للمستخدمين إنشاء تطبيق RAG وكيل عن طريق إنشاء مساعد بحث معزز بالسياق على بياناتهم يجيب على أسئلة بسيطة جنبًا إلى جنب مع مهام بحث معقدة.15
حلول ذات صلة
نماذج الأساس

استكشف مكتبة نماذج الأساس من IBM في محفظة watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.

اكتشف watsonx.ai
حلول الذكاء الاصطناعي

استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.

استكشف حلول الذكاء الاصطناعي
الاستشارات والخدمات المتعلقة بالذكاء الاصطناعي

أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.

استكشف خدمات الذكاء الاصطناعي
اتخِذ الخطوة التالية

استكشف مكتبة نماذج الأساس من IBM في محفظة IBM watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.

استكشف watsonx.ai استكشف حلول الذكاء الاصطناعي
الحواشي

1 Elena Lowery, “Use Watsonx.Ai with LlamaIndex to Build Rag Applications,” Use Watsonx.ai with LlamaIndex to build RAG applications, May 28, 2024, https://community.ibm.com/community/user/watsonx/blogs/elena-lowery/2024/05/28/use-watsonxai-with-llamaindex-to-build-rag-applica.

2 Matt Stallone et al., “Scaling Granite Code Models to 128K Context,” arXiv.org, July 18, 2024, https://arxiv.org/abs/2407.13739.

3 Matt Stallone et al., “Scaling Granite Code Models to 128K Context.”

4 Kim Martineau, “What Is Retrieval-Augmented Generation (Rag)?,” IBM Research, May 1, 2024, https://research.ibm.com/blog/retrieval-augmented-generation-RAG.

5 “High-Level Concepts,” LlamaIndex, https://docs.llamaindex.ai/en/stable/getting_started/concepts/.

6 “Loading Data (Ingestion),” LlamaIndex, https://docs.llamaindex.ai/en/stable/understanding/loading/loading/.

7 Elena Lowery, “Use Watsonx.Ai with LlamaIndex to Build Rag Applications.”

8 Elena Lowery, “Use Watsonx.Ai with LlamaIndex to Build Rag Applications.”

9 “Query Engine,” LlamaIndex, https://docs.llamaindex.ai/en/latest/module_guides/deploying/query_engine/.

10 Jerry Liu, “Data Agents,” Medium, July 13, 2023, https://medium.com/llamaindex-blog/data-agents-eed797d7972f.

11 “Google,” LlamaIndex, https://docs.llamaindex.ai/en/stable/api_reference/tools/google/.

12 “Using LLMs,” LlamaIndex, https://docs.llamaindex.ai/en/latest/module_guides/models/llms/.

13 “Use Cases,” LlamaIndex, https://docs.llamaindex.ai/en/latest/use_cases/.

14 “Question-Answering (RAG),” LlamaIndex, https://docs.llamaindex.ai/en/stable/use_cases/q_and_a/.

15 “Agents,” LlamaIndex, https://docs.llamaindex.ai/en/stable/use_cases/agents/.