نموذج قدرات الذكاء الاصطناعي التوليدي

مخطط انسيابي يحتوي على أشكال ورموز مختلفة، بما في ذلك فقاعة كلام باللون الأزرق، وعلامة استفهام، وعلامة صح.
لمحة عامة

القدرات المؤسسية، الضرورية لتحقيق الأهداف الاستراتيجية ومتطلبات التشغيل، موضَّحة في نموذج قدرات بنية الذكاء الاصطناعي التوليدي. تشمل ست فئات رئيسية، تعرض القدرات الفريدة والمساندة اللازمة للتنفيذ الفعَّال للذكاء الاصطناعي التوليدي، مع توفُّر توثيق شامل لها في بنى أخرى.

القدرات المؤسسية، الضرورية لتحقيق الأهداف الاستراتيجية ومتطلبات التشغيل، موضَّحة في بنية الذكاء الاصطناعي التوليدي
القدرات المؤسسية من المستوى 1 و2 و3 المطلوبة لنشر حلول الذكاء الاصطناعي التوليدي وإدارتها بفاعلية.
القدرات الفريدة للذكاء الاصطناعي التوليدي

  • عمليات الذكاء الاصطناعي التوليدي هي القدرات المطلوبة لإدارة نماذج الذكاء الاصطناعي التوليدي ونشرها وتخصيصها للاستخدام داخل المؤسسة. وتتضمن هذه الفئة قدرات تدريب النماذج وضبطها، وإدارة دورة حياة النماذج بعد نشرها، وكذلك إدارة النماذج ومجموعات البيانات المتاحة للمستخدمين داخل المؤسسة.
  • تطوير تطبيقات الذكاء الاصطناعي التوليدي هي القدرات اللازمة لضبط نماذج الأساس العامة لاستخدامها في حلول خاصة بالمؤسسات وبمجالات محددة، وكذلك لتطوير تطبيقات ذكاء اصطناعي توليدي كاملة الميزات. ويشمل ذلك القدرات اللازمة لإنشاء ونشر تطبيقات الذكاء الاصطناعي الوكيل، واختبار المطالبات وضبطها.
  • حوكمة الذكاء الاصطناعي التوليدي هي مجموعة من القدرات المطلوبة لمراقبة النماذج التي يتم نشرها في بيئات الإنتاج وإدارتها بفاعلية. وتشمل هذه القدرات مراقبة استمرار دقة واستجابة النماذج بشكل مناسب، وحماية النماذج من المدخلات غير الملائمة و/أو الخبيثة، بالإضافة إلى قدرات الحوكمة لإدارة مخاطر المؤسسة والمساعدة على الامتثال التنظيمي ومتطلبات إعداد التقارير.

  • تركِّز إدارة أمن الذكاء الاصطناعي التوليدي على القدرات المطلوبة لحماية أنظمة الذكاء الاصطناعي، وضمان نشرها بطريقة أخلاقية ومسؤولة. يشمل ذلك تأمين مكدس الذكاء الاصطناعي بأكمله، وحماية كلٍ من النماذج واستخداماتها، بالإضافة إلى البيانات التي تعتمد عليها.

أما مجموعات القدرات المتبقية فهي قدرات داعمة للذكاء الاصطناعي التوليدي.  وهذه القدرات ليست حصرية للذكاء الاصطناعي التوليدي، لكنها يجب أن تكون متوفرة لدعمه كقدرة مؤسسية. وتشمل هذه المجموعات:

  • إدارة البيانات هي مجموعة من القدرات لتخزين البيانات وإدارتها وتحويلها إلى صيغ تجعلها مناسبة لضبط نماذج الذكاء الاصطناعي التوليدي وتدريبها. تتضمن هذه الفئة أيضًا قدرات لتسجيل مخرجات النماذج وتقييمها لأغراض التدقيق، وكذلك لاستخدامها كمدخلات لعمليات ضبط النماذج وتحسينها لاحقًا.

     

  • القدرات الداعمة هي مجموعة شاملة من قدرات التطبيقات والتكامل وعمليات تكنولوجيا المعلومات اللازمة لنشر حلول الذكاء الاصطناعي التوليدي وإدارتها بنجاح داخل المؤسسة.

     

  • موارد الذكاء الاصطناعي التوليدي تشمل القدرات المتعلقة بالأجهزة والمنصات اللازمة لتطوير النماذج وحفظها وضبطها ونشرها وإدارتها بكفاءة وفاعلية.

 

المجموعات والقدرات

يتكون كل تصنيف للقدرات من مجموعة واحدة أو أكثر من مجموعات القدرات. تسلِّط هذه الفقرة الضوء على المجموعات والقدرات الأساسية للذكاء الاصطناعي التوليدي.

مجموعة قدرات مركز النماذج تجمع القدرات اللازمة لإدارة النماذج المستوردة وكذلك النماذج التي تم ضبطها أو تدريبها بواسطة المؤسسة. تمكِّن هذه القدرات المؤسسات من إدارة النماذج ومجموعات البيانات المتاحة للاستخدام داخل المؤسسة، وتقييد الوصول إلى النماذج ومجموعات البيانات لمستخدمين أو مجموعات محددة داخل المؤسسة. يُعَد استيراد النماذج واستيراد البيانات قدرات رئيسية للمؤسسات للسيطرة على استيراد النماذج من العدد المتزايد من مستودعات النماذج العامة مثل Hugging Face.

استضافة النماذج توفِّر قدرات لنشر النماذج العامة والمضبوطة كخدمات مدعومة بواجهة برمجة التطبيقات داخل المؤسسة، مع تحسين استخدام الموارد، والسماح بالضبط والاستبدال المستقل، وتبسيط الحوكمة. يكمن مفتاح ذلك في إدارة سياسة الوصول إلى النماذج، لضمان أن الوصول إلى النماذج مقصور على المستخدمين والمجموعات المصرَّح لهم، ومنع الاستخدام غير المصرح به.

تخصيص النماذج هي مجموعة قدرات تمكِّن المؤسسة من ضبط وتدريب نماذج الذكاء الاصطناعي التوليدي لتلبية احتياجات الأعمال المحددة. عادةً ما تتحقق هذه القدرات باستخدام منصة سحابية، حيث إن نموذج الدفع حسب الاستخدام في السحابة مناسب تمامًا للطبيعة المتقطعة لمتطلبات الموارد أثناء الضبط والتدريب.

حوكمة النماذج والبيانات هي مجموعة قدرات حيوية تمكِّن المؤسسة من استخدام نماذج الذكاء الاصطناعي التوليدي على نطاق واسع. وتوفِّر هذه القدرات للمؤسسات الرؤى اللازمة لمراقبة وإدارة مخاطر النماذج، مثل إدخال الانحياز في استجابات النماذج، والمساعدة على تلبية المتطلبات التنظيمية ومتطلبات الامتثال المتعلقة بالشفافية والعدالة في النماذج.

مراقبة النماذج هي النظير التشغيلي لحوكمة النماذج؛ ففي حين تتعامل حوكمة النماذج مع إدارة النماذج والمخاطر على المدى الطويل، تمكِّن القدرات الموجودة في مراقبة النماذج المؤسسات من مراقبة وتشغيل النماذج في الوقت الفعلي. تتكوَّن مراقبة النماذج من عدة قدرات رئيسية، بما في ذلك:

  • اكتشاف التحيز هو القدرة على اكتشاف وإشارة الحالات التي تنحرف فيها استجابات النموذج عن الاستجابات المثالية أو المعتمدة، وتبدأ في تفضيل مجموعة من النتائج على أخرى.
  • الكشف عن الكراهية والإساءة والشتائم (HAP) هو القدرة على اكتشاف وتصفية الكراهية والإساءة واللغة البذيئة في كل من المطالبات المقدَّمة من المستخدمين والاستجابات التي يولِّدها النموذج. تُعَد هذه القدرات "أساسية"؛ وغالبًا ما تختار المؤسسات توسيع قائمة الموضوعات المصفاة لتشمل الموضوعات غير المناسبة للأعمال، مثل الموضوعات ذات الإيحاءات الجنسية في مكتب القروض، أو لتلبية المعايير الاجتماعية للجمهور المستهدف.
  • مراقبة وأمن المطالبات هي قدرة ناشئة مطلوبة لحماية النماذج المنشورة من الهجمات، مثل هجمات حقن المطالبات، المصممة لإفساد النموذج أو التحايل على ضوابط النموذج التي وضعتها المؤسسة.

إدارة الامتثال في الذكاء الاصطناعي التوليدي هي فئة من القدرات تتعلق بتمكين الضوابط اللازمة "لتأمين استخدام" الذكاء الاصطناعي عبر كامل مكدس التطبيقات و"تأمين التطبيقات" نفسها.
كما تتضمن الالتزام بالمعايير الأخلاقية والإرشادات لضمان احترام أنظمة الذكاء الاصطناعي للقيم والحقوق الإنسانية.

  • الامتثال لتطبيقات الذكاء الاصطناعي. القدرة على تمكين التزام "تطبيقات" الذكاء الاصطناعي بالإرشادات واللوائح والمعايير المعتمدة. توفير قدرات لتمكين الضوابط مثل: إدارة وضبط وضعية تطبيقات الذكاء الاصطناعي والامتثال، واختبار أنظمة الذكاء الاصطناعي الموثوق بها.
  • الامتثال لنماذج الذكاء الاصطناعي هي القدرة على تمكين إدارة النماذج والالتزام بها وفق الإرشادات واللوائح والمعايير المعتمدة. وتُتيح ضوابط رئيسية مثل: تتبُّع انحراف النموذج، وإدارة وضبط وضعية النموذج والامتثال.
  • إدارة الشؤون القانونية والامتثال. ضمان بقاء المؤسسة مطَّلِعة على المشهد التنظيمي الحالي (مراقبة تنظيمية) والالتزام بالمتطلبات القانونية والقواعد والمعايير التي تحكم تطوير الذكاء الاصطناعي ونشره ومراقبته واستخدامه (مثل: الامتثال المستمر والمراقبة التنظيمية).
     

إدارة أمن تطبيقات الذكاء الاصطناعي. تركِّز هذه الفئة من القدرات على تمكين الضوابط اللازمة "لتأمين استخدام" الذكاء الاصطناعي عبر كامل مكدس التطبيقات و"تأمين التطبيقات" نفسها. والالتزام بالمعايير الأخلاقية والإرشادات لضمان احترام أنظمة الذكاء الاصطناعي للقيم والحقوق الإنسانية.

  • إدارة تهديدات تطبيقات الذكاء الاصطناعي والحماية هي القدرة على تحديد المخاطر والثغرات الأمنية المحتملة، وتقييمها والحد منها، والتي قد تؤثِّر في أمن التطبيق أو وظيفته أو موثوقيته، وضمان قدرة التطبيق على التكيف والتعافي والاستمرار في العمل بفاعلية حتى في مواجهة الأحداث غير المتوقعة أو الأعطال أو الانقطاعات. كما تشمل ضمان متانة وأمن وموثوقية أنظمة الذكاء الاصطناعي طوال دورة حياتها.
  • سلامة وأمن تفاعل تطبيقات الذكاء الاصطناعي هي آليات لضمان أن تتم التفاعلات بين أنظمة الذكاء الاصطناعي ومستخدميها، والأنظمة الأخرى، والبيئة بطريقة آمنة ومحمية. (مثل: التلاعب بالمدخلات، وتقييد الاستفسارات المفرطة، ومنع النتائج الضارة أو السامة).
  • سلامة تطبيقات الذكاء الاصطناعي. القدرات والممارسات لضمان العمليات الآمنة والموثوق بها لأنظمة الذكاء الاصطناعي. تشمل استراتيجيات لمنع العواقب غير المقصودة، والأخطاء، والأضرار التي تسببها تطبيقات الذكاء الاصطناعي (مثل وثيقة جهد الذكاء الاصطناعي الجدير بالثقة، وتقييم الإنصاف).
     

إدارة أمن نماذج الذكاء الاصطناعي. تركِّز هذه الفئة من القدرات على تمكين الضوابط اللازمة "لتأمين طبقة النموذج" بالإضافة إلى تأمين استخدام النماذج. وتطبيق أفضل الممارسات في تدريب النماذج والتحقق من صحتها وتقييمها لتعزيز الأداء والموثوقية.

  • سلامة وأمن المطالبات هي القدرة على ضمان أن تكون المطالبات المدخلة إلى نماذج الذكاء الاصطناعي آمنة وغير خبيثة ومتوافقة مع السلوك المقصود للنموذج، وحماية النموذج من الوصول غير المصرح به أو التلاعب أو الهجمات. كما تشمل التأكد من أن مخرجات النموذج آمنة ومحمية من حيث المحتوى الذي قد تكشفه عن غير قصد، مثل معلومات التعريف الشخصية (PII) (مثل: الحماية ضد حقن المطالبات، ومنع هجمات الاستنتاج / تقليل استجابات الاستعلام، ومنع النتائج الضارة أو السامة).
  • اكتشاف تهديدات نماذج الذكاء الاصطناعي هي القدرة على تحديد المخاطر أو الثغرات الأمنية المحتملة والحد منها، والتي قد تؤثِّر في سلامة وأمن وأداء نماذج الذكاء الاصطناعي وتفاعلها مع المستخدمين (مثل: اختبار أمن النماذج، والتخفيف من ثغرات النماذج).
  • إدارة الوصول إلى نماذج الذكاء الاصطناعي. تقييد الوصول إلى نماذج الذكاء الاصطناعي التوليدي ومعاملات النماذج وبيانات التدريب وواجهات برمجة التطبيقات لمنع الاستخدام غير المشروع ومسارات الهجوم المحتملة. تعمل هذه القدرة على إنشاء ضوابط وصول حول النماذج المعروضة للاستخدام المؤسسي، بما في ذلك تطبيقات الذكاء الاصطناعي؛ وحماية سجلات النماذج الداخلية وتأمين الوصول الداخلي إلى نماذج الإنتاج. يجب أن تشمل ضوابط الوصول هذه سياسات سياقية تأخذ في الاعتبار من، وما، ومتى، ومن أين يتم الوصول.
     

إدارة أمن البيانات باستخدام الذكاء الاصطناعي. تركِّز هذه الفئة من القدرات على تمكين الضوابط اللازمة "لتأمين طبقة البيانات". وضع إرشادات واضحة لجمع البيانات وتخزينها واستخدامها لضمان جودة البيانات والحد من الانحياز. وبالرغم من أن أمن البيانات ليس حصريًا للذكاء الاصطناعي التوليدي، سنركز فقط على المجالات التي تتطلب اهتمامًا خاصًا من منظور البيانات في الذكاء الاصطناعي التوليدي.

  • خصوصية البيانات وسريتها هي القدرة على حماية المعلومات الحساسة، وضمان التعامل معها بشكل مناسب وبقائها خاصة ومتاحة فقط للأنظمة والمستخدمين المصرح لهم (مثل: حماية الخصوصية، وأمن البيانات الحساسة، وسرية البيانات).
     

الذكاء الاصطناعي الوكيل هو مجموعة من القدرات المطلوبة لإنشاء ونشر تطبيقات الذكاء الاصطناعي الوكيل. وتشمل هذه القدرات الأساسية مثل التوجيه والتنسيق، وإدارة الأدوات واستدعاء الأدوات.

ضبط الذكاء الاصطناعي التوليدي هي مجموعة القدرات اللازمة "لتخصيص" نموذج ذكاء اصطناعي توليدي عام لتلبية احتياجات المؤسسة. يتم تدريب النماذج على قاعدة واسعة من المعرفة، وقد تفتقر إلى معرفة المصطلحات والعمليات الخاصة بالصناعة. لذلك، ستحتاج معظم المؤسسات إلى الاستفادة من قدرات مثل هندسة المطالبات وضبط المطالبات وضبط النماذج لإنشاء نموذج يفهم مصطلحات وعمليات أعمال المؤسسة.

تمكِّن قدرات تطبيقات الذكاء الاصطناعي التوليدي المؤسسات من تطوير تطبيقات ذكاء اصطناعي توليدي متقدمة. وتشمل القدرات القدرة على توليد وظائف ديناميكية للرد على استفسارات المستخدمين؛ والذاكرة الحوارية، التي تُتيح لتطبيقات الذكاء الاصطناعي التوليدي الاحتفاظ بالتفاعلات السابقة والرجوع إليها بطريقة حوارية؛ وتوجيه النماذج، الذي يُتيح للتطبيقات توجيه الاستفسارات ديناميكيًا إلى النموذج الأنسب للرد.

الخطوات التالية

تحدَّث إلى خبرائنا حول كيفية تسريع اعتمادك للذكاء الاصطناعي التوليدي.

المساهمون

Chris Kirby، وMihai Criveti، وWissam Dib

تاريخ التحديث: 30 أبريل 2025