مع دخول النماذج اللغوية الكبيرة (LLMs) إلى اللغة العامية الشائعة، اكتشف الأشخاص كيفية استخدام التطبيقات التي تصل إليها. يمكن لأدوات الذكاء الاصطناعي الحديثة التوليد والإنشاء والتلخيص والترجمة والتصنيف وحتى التحدث. تتيح لنا الأدوات في مجال الذكاء الاصطناعي التوليدي توليد ردود على الموجِّهات بعد التعلم من قطع النماذج الموجودة.
أحد المجالات التي لم تشهد الكثير من الابتكار هو الحافة البعيدة وعلى الأجهزة المقيدة. نرى بعض إصدارات تطبيقات الذكاء الاصطناعي تعمل محلياً على الأجهزة المحمولة مع ميزات ترجمة لغوية مدمجة، لكننا لم نصل بعد إلى مرحلة تولد فيها النماذج اللغوية الكبيرة قيمة خارج مزودي السحابة.
ومع ذلك، هناك نماذج أصغر لديها القدرة على ابتكار قدرات الذكاء الاصطناعي التوليدي على الأجهزة المحمولة. دعونا نفحص هذه الحلول من منظور نموذج ذكاء اصطناعي هجين.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
تُعدّ النماذج اللغوية الكبيرة (LLMs) فئة خاصة من نماذج الذكاء الاصطناعي التي تزوّد هذا النموذج الجديد. تتيح معالجة اللغة الطبيعية هذه القدرة. لتدريب النماذج اللغوية الكبيرة (LLMs)، يستخدم المطورون كميات هائلة من البيانات من مصادر مختلفة، بما في ذلك الإنترنت. إن مليارات المعلمات التي تتم معالجتها تجعلها كبيرة جدًا.
على الرغم من أن النماذج اللغوية الكبيرة (LLM) على دراية بمجموعة واسعة من الموضوعات، إلا أنها تقتصر على البيانات التي تم تدريبها عليها فقط. وهذا يعني أنها ليست "محدثة" أو دقيقة دائمًا. وبسبب حجمها، عادة ما تستضاف النماذج اللغوية الكبيرة (LLMs) في السحابة، مما يتطلب عمليات نشر أجهزة قوية مع الكثير من وحدات معالجة الرسومات.
وهذا يعني أن المؤسسات التي تتطلع إلى استخراج المعلومات من بيانات الأعمال الخاصة أو المملوكة لها لا يمكنها استخدام النماذج اللغوية الكبيرة (LLM) الجاهزة للاستخدام. للإجابة عن أسئلة محددة أو إنشاء ملخصات أو إنشاء موجز، يجب عليها تضمين بياناتها في النماذج اللغوية الكبيرة العامة أو إنشاء نماذجها الخاصة. تُعرف طريقة إلحاق البيانات الخاصة بمؤسسة ما بأحد النماذج اللغوية الكبيرة (LLMs) باسم التوليد المعزّز بالاسترجاع، أو نمط (RAG). وهو نمط تصميم للذكاء الاصطناعي التوليدي يضيف بيانات خارجية إلى النموذج اللغوي الكبير.
تتمتع الشركات التي تعمل في مجالات متخصصة، مثل شركات الاتصالات أو الرعاية الصحية أو شركات النفط والغاز، بتركيز شديد. في حين أنها يمكن أن تستفيد من سيناريوهات الذكاء الاصطناعي التوليدي وحالات الاستخدام النموذجية، إلا أنه من الأفضل أن تعتمد على النماذج الأصغر حجماً.
في حالة شركات الاتصالات، على سبيل المثال، بعض حالات الاستخدام الشائعة هي مساعدي الذكاء الاصطناعي في مراكز الاتصال، والعروض الشخصية في تقديم الخدمات، وروبوتات دردشة المدعومة بالذكاء الاصطناعي لتحسين تجربة العملاء. إن حالات الاستخدام التي تساعد شركات الاتصالات على تحسين أداء شبكتها، أو زيادة الكفاءة الطيفية في شبكات الجيل الخامس، أو مساعدتها على تحديد الاختناقات المحددة في شبكتها، تتم على أفضل نحو من خلال البيانات الخاصة بالمؤسسة (في مقابل استخدام أحد النماذج اللغوية الكبيرة (LLMs) العامة).
ويقودنا هذا إلى فكرة أن الأصغر هو الأفضل. توجد الآن نماذج لغوية صغيرة (SLMs) "أصغر" من حيث الحجم مقارنة بالنماذج اللغوية الكبيرة. حيث يتم تدريب النماذج اللغوية الصغيرة (SLM) على عشرات المليارات من المعلمات، بينما يتم تدريب النماذج اللغوية الكبيرة على مئات المليارات من المعلمات. والأمر الأكثر أهمية هو النماذج اللغوية الصغيرة يتم تدريبها على البيانات المتعلقة بمجال محدد. قد لا يكون لديها معلومات سياقية واسعة، ولكن أداؤها جيد جدًا في المجال الذي تم اختيارها له.
وبسبب حجمها الأصغر، يمكن استضافة هذه النماذج في مركز بيانات المؤسسة بدلاً من السحابة. قد تعمل وحدات النماذج اللغوية الصغيرة على شريحة GPU واحدة على نطاق واسع، مما يوفر آلاف الدولارات من تكاليف الحوسبة السنوية. ومع ذلك، يصبح التمييز بين ما يمكن تشغيله فقط في السحابة أو في مركز بيانات مؤسسي أقل وضوحاً مع التقدم في تصميم الرقائق.
سواء كان ذلك بسبب التكلفة أو خصوصية البيانات أو سيادة البيانات، فقد ترغب المؤسسات في تشغيل هذه الأنظمة في مركز البيانات. لا ترغب معظم الشركات في إرسال بياناتها إلى السحابة. سبب رئيسي آخر هو الأداء. الذكاء الاصطناعي التوليدي على الحافة يقوم بإجراء الحوسبة والاستدلال بالقرب من البيانات قدر الإمكان، مما يجعلها أسرع وأكثر أمانًا مقارنة بما يتم من خلال مزود السحابة.
ومن الجدير بالذكر أن أنظمة النماذج اللغوية الصغيرة تتطلب قوة حسابية أقل وهي مثالية للنشر في بيئات محدودة الموارد وحتى على الأجهزة المحمولة.
من أمثلة التطبيق في البيئة المحلية موقع IBM Cloud Satellite، الذي يوفر اتصالاً آمنا عالي السرعة مع IBM Cloud التي تستضيف النماذج اللغوية الكبيرة (LLMs). يمكن لشركات الاتصالات استضافة النماذج اللغوية الصغيرة المستدامة هذه في محطاتها الأساسية وتقديم هذا الخيار لعملائها أيضًا. يتعلق الأمر برمته بتحسين استخدام وحدات معالجة الرسومات، حيث تقل المسافة التي يجب أن تقطعها البيانات ، مما يؤدي إلى تحسين النطاق الترددي.
نعود إلى السؤال الأصلي حول إمكانية تشغيل هذه النماذج على جهاز محمول. قد يكون الجهاز المحمول هاتفاً متطوراً أو سيارة أو حتى روبوت. اكتشفت الشركات المصنعة للأجهزة أن عرض النطاق الترددي الكبير مطلوب لتشغيل النماذج اللغوية الكبيرة (LLMs). النماذج اللغوية الكبيرة (LLMs) صغيرة الحجم هي نماذج صغيرة الحجم يمكن تشغيلها محلياً على الهواتف المحمولة والأجهزة الطبية.
يستخدم المطورون تقنيات مثل التكيف منخفض الرتبة لإنشاء هذه النماذج. فهي تُمكّن المستخدمين من الضبط الدقيق للنماذج وفقًا للمتطلبات الفريدة مع الحفاظ على عدد المعلمات القابلة للتدريب منخفضة نسبيًا. في الواقع، يوجد مشروع TinyLlama على GitHub.
يعمل مصنعو الرقائق على تطوير رقائق يمكنها تشغيل نسخة مختصرة من النماذج اللغوية الكبيرة (LLMs) من خلال نشر الصور وتقطير المعرفة. تساعد وحدات النظام على الرقاقة (SOC) ووحدات المعالجة العصبية NPUs الأجهزة على الحافة في تشغيل مهام الذكاء الاصطناعي التوليدي.
وفي حين أن بعض هذه المفاهيم لم يتم إنتاجها بعد، يجب على مهندسي الحلول التفكير فيما هو ممكن اليوم. قد تكون النماذج اللغوية الصغيرة (SLMs) والتعاون مع النماذج اللغوية الكبيرة (LLMs) حلاً قابلاً للتطبيق. يمكن للمؤسسات أن تقرر استخدام نماذج الذكاء الاصطناعي المتخصصة الصغيرة الموجودة في صناعتها أو إنشاء نماذج خاصة بها لتوفير تجربة عملاء مخصصة.
بينما يبدو تشغيل النماذج اللغوية الصغيرة (SLMs) في البيئة المحلية عملياً، والنماذج اللغة الكبيرة المصغّرة على أجهزة الحافة المحمولة مغريًا، ماذا لو كان النموذج يتطلب مجموعة بيانات أكبر للاستجابة لبعض الموجّهات؟
توفر الحوسبة السحابية الهجينة الخيار الأفضل من العالمين. هل يمكن تطبيق الأمر نفسه على نماذج الذكاء الاصطناعي؟
عندما تفشل النماذج الصغيرة، يمكن لنموذج الذكاء الاصطناعي الهجين أن يوفر خيار الوصول إلى النموذج اللغوي الكبير في السحابة العامة. من المنطقي تمكين مثل هذه التقنية. سيسمح ذلك للمؤسسات بالحفاظ على أمان بياناتها داخل منشآتها باستخدام النماذج اللغوية الصغيرة الخاصة بالمجال، كما يمكنها الوصول إلى النماذج اللغوية الكبيرة في السحابة العامة عند الحاجة. مع ازدياد قدرات الأجهزة المحمولة المزودة بنظام SOC، يبدو أن هذه طريقة أكثر كفاءة لتوزيع أحمال تشغيل الذكاء الاصطناعي التوليدي.
أعلنت شركة IBM مؤخرًا عن إتاحة نموذج الذكاء الاصطناعي مفتوح المصدر Mistral AI Model على منصة watson الخاصة بها. يتطلب هذا النموذج اللغوي الكبير المصغّر موارد أقل للتشغيل، لكنه فعال بنفس القدر وله أداء أفضل مقارنة بالنماذج اللغوية الكبيرة التقليدية. كما أصدرت IBM نموذج Granite 7B كجزء من عائلة نماذج الأساسات الموثوقة والمنسقة بعناية.
نحن نرى أن المؤسسات يجب أن تركز على بناء نماذج صغيرة خاصة بمجال معين باستخدام بيانات المؤسسة الداخلية لتمييز كفاءتها الأساسية واستخدام الرؤى المستمدة من بياناتها (بدلاً من المغامرة ببناء النماذج اللغوية الكبيرة العامة الخاصة بها، والتي يمكنها الوصول إليها بسهولة من مقدمي خدمات متعددين).
تعد شركات الاتصالات مثالاً رئيسياً على مؤسسات ستستفيد من تبني نموذج الذكاء الاصطناعي الهجين هذا. ولديهم دور فريد من نوعه، حيث يمكنهم أن يكونوا مستهلكين ومقدمي خدمات في آن واحد. قد تنطبق سيناريوهات مماثلة على الرعاية الصحية ومنصات النفط وشركات الخدمات اللوجستية وغيرها من الصناعات. هل شركات الاتصالات مستعدة للاستفادة من الذكاء الاصطناعي التوليدي؟ نحن نعلم أن لديهم الكثير من البيانات، ولكن هل لديهم نموذج سلسلة زمنية يناسب البيانات؟
عندما يتعلق الأمر بنماذج الذكاء الاصطناعي، لدى IBM استراتيجية متعددة النماذج لاستيعاب كل حالة استخدام فريدة. فالنماذج المتخصصة ليست أفضل دائمًا، حيث تتفوق النماذج المتخصصة في الأداء على نماذج الأغراض العامة ذات المتطلبات المنخفضة للبنية التحتية.
استكشف مكتبة نماذج الأساس من IBM في محفظة watsonx لتوسيع نطاق الذكاء الاصطناعي التوليدي لأعمالك بثقة.
استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.
أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.