الصفحة الرئيسية
Architectures
هجين
حوكمة الذكاء الاصطناعي
حوكمة الذكاء الاصطناعي هي القدرة على مراقبة وإدارة أنشطة الذكاء الاصطناعي داخل المؤسسة. وهي تشمل العمليات والإجراءات اللازمة لتتبع وتوثيق أصل البيانات والنماذج المستخدمة داخل المؤسسة، بالإضافة إلى التقنيات المستخدمة في تدريب النماذج والتحقق من صحتها ومراقبة دقتها المستمرة. تقدم حوكمة الذكاء الاصطناعي الفعالة ثلاث نتائج رئيسية للمؤسسات:
الامتثال. المساعدة في ضمان أن حلول الذكاء الاصطناعي والقرارات الناتجة عنها تتماشى مع الممارسات المعتمدة في الصناعة، والمعايير التنظيمية، والمتطلبات القانونية.
الثقة. تعزيز الثقة في القرارات التي يقدمها الذكاء الاصطناعي من خلال المساعدة في ضمان أن نماذج الذكاء الاصطناعي قابلة للتفسير وعادلة.
الفاعلية. تحسين سرعة الوصول إلى السوق وخفض تكاليف تطوير الذكاء الاصطناعي من خلال توحيد وتحسين ممارسات تطوير ونشر الذكاء الاصطناعي.
المؤسسات التي لا تتبنى حوكمة الذكاء الاصطناعي معرضة للعديد من العواقب السلبية. تعد عملية التعلم الآلي تكرارية وتتطلب التعاون بين الفرق المختلفة. بدون حوكمة جيدة وتوثيق مناسب، لا يستطيع علماء البيانات أو المراجعون التأكد من دورة حياة بيانات النموذج أو كيفية بنائه، مما يجعل إعادة إنتاج النتائج أمرًا صعبًا. وإذا قام المسؤولون بتدريب نموذج باستخدام بيانات غير صحيحة أو غير مكتملة، فقد يؤدي ذلك إلى ضياع شهور من العمل.
يمكن أن يؤدي غياب حوكمة الذكاء الاصطناعي إلى عقوبات كبيرة. فقد تم فرض غرامات بملايين الدولارات على مشغلي البنوك بسبب استخدام نماذج متحيزة عند تحديد أهلية القروض. كما أن الاتحاد الأوروبي يخطط لإضافة لوائح خاصة بالذكاء الاصطناعي إلى اللائحة العامة لحماية البيانات (GDPR). يمكن أن تؤدي انتهاكات اللائحة العامة لحماية البيانات حاليًا إلى "غرامة تصل إلى 20 مليون يورو، أو 4% من إجمالي الإيرادات السنوية العالمية للشركة من العام المالي السابق، أيهما أعلى"
سمعة العلامة التجارية معرضة للخطر أيضا. في إحدى التجارب، تم استخدام برنامج ذكاء اصطناعي لتعلم أنماط الكلام لدى الشباب على وسائل التواصل الاجتماعي. لكن المسؤولين الإداريين قاموا بإزالة البرنامج بسرعة بعد أن قام متصيدون عبر الإنترنت "بتدريبه" على إنشاء منشورات عنصرية، وتمييزية ضد الجنسين، ومعادية للسامية.
يوضح الرسم البياني أعلاه العناصر الرئيسية لحل حوكمة الذكاء الاصطناعي في نظام ذكاء اصطناعي توليدي يستخدم نموذجًا لغويًا كبيرًا (LLM).
حوكمة النماذج هي المركز الأساسي لحوكمة الذكاء الاصطناعي، حيث يوفر لوحات معلومات وتقارير وقدرات تنبيهية يستخدمها موظفو المؤسسة لضمان استيفاء نماذج الذكاء الاصطناعي لمتطلبات النزاهة والشفافية والامتثال وتدقيقها والإبلاغ عنها. كما أن عنصر حوكمة النماذج يمكّن المؤسسات من وضع معايير التحكم والسياسات التي تؤثر على كيفية وتوقيت انتقال النماذج من مرحلة التطوير إلى الإنتاج
تراقب مراقبة النماذج مخرجات النماذج بشكل مستمر لضمان أنها قابلة للتفسير، وعادلة، ومتوافقة مع اللوائح، والحفاظ على ذلك حتى بعد نشرها. إذا بدأت النماذج في الانحراف أو أظهرت تحيزًا في مخرجاتها، فإن عنصر مراقبة النماذج يقوم بتمييزها لإجراء تحقيق من قبل فريق تشغيل الذكاء الاصطناعي.
يوضح الرسم البياني أدناه تفاعلات العناصر عالية المستوى لتنفيذ حوكمة الذكاء الاصطناعي للمؤسسات.
يستخدم أعضاء فريق حوكمة المؤسسة عنصر حوكمة النماذج بهدف (1) تصور نماذج الذكاء الاصطناعي (سواء كانت نماذج أساس أو غير أساس) المنشورة داخل المؤسسة عبر البنية التحتية الخاصة، ومقدمي الخدمات السحابية الضخمة (hyperscalers)، و(2) تحديد الحد الأدنى من معايير التشغيل ووضع السياسات الأخرى التي تحكم النماذج التي سيتم نشرها وتشغيلها داخل المؤسسة. يتم نشر المعايير وضوابط السياسة إلى عنصر الرصد النموذجي للمراقبة والتنبيه اللاحقين.
يقوم مطوّر النماذج بضبط موجِّه لنموذج لغوي كبير (LLM) ويقيّم استجابة النموذج لاختبارات الموجِّهات. يتم تسجيل نتائج هذه الاختبارات، إلى جانب الإحصاءات الموجزة، ثم نقلها إلى عنصر مراقبة النماذج حيث تُحفظ لضمان توثيق دورة حياة النموذج والبيانات.
يقوم مدقق النماذج بمراجعة نتائج الضبط والاختبار، وبمساعدة عنصر مراقبة النماذج، يقارنها بمعايير التحكم والضوابط التي وضعها فريق حوكمة المؤسسة. بمجرد استيفاء المعايير والضوابط، يتم اعتماد النموذج لاستخدامه في بيئة الإنتاج.
يستخدم مطوّر النماذج عنصر مراقبة النماذج لمتابعة أداء النموذج بمرور الوقت، حيث يركز تحديدًا على ضمان أن استجابات النموذج تستمر في تلبية معايير المؤسسة من حيث تلبية معايير المؤسسة الخاصة بالعدالة (عدم التحيز) والدقة (الاستجابات الصحيحة) والشفافية (الاستجابات القابلة للتفسير).
يراقب عنصر مراقبة النماذج نماذج الذكاء الاصطناعي المنشورة (نماذج الأساس/النماذج التوليدية أو نماذج التعلم الآلي "التقليدية") لجمع إحصائيات الدقة والأداء.
كما يسجل عنصر مراقبة النماذج أيضًا موجِّهات المستخدم واستجابات النموذج بهدف (1) تعزيز الحماية من انحراف النموذج (الانحرافات في التحيز و/أو دقة النموذج)، و(2) جمع بيانات الاختبار والمساعدة في تحديد مجالات المواضيع أو نطاقات البيانات التي سيكون من المفيد إجراء ضبط إضافي لها.
يوضح المخطط أدناه التوافق الحالي بين حلول IBM watsonx.governance وIBM OpenPages والنموذج المفاهيمي. تتم مراقبة نماذج الأساس التي تعمل على مجموعة أدوات watsonx.ai الشاملة، سواء على البنية التحتية المحلية، أو السحابية، أو على منصات الذكاء الاصطناعي التابعة لجهات خارجية مثل Amazon SageMaker، في وقت التشغيل بواسطة watsonx.governance. يوفر watsonx.governance أيضًا قدرات إنشاء وتحديث وإدارة بطاقات النماذج، المعروفة باسم AI Factsheets داخل watsonx.governance، وتسجيل وإعداد تقارير حول مقاييس أداء النماذج. أما وحدة إدارة مخاطر النماذج في IBM OpenPages، فهي تقدم قدرات إعداد تقارير المخاطر وإدارتها، وقدرات إدارة سياسات تطوير النماذج ونشرها ضمن إطار حوكمة النماذج.
في المستقبل القريب، ستقدم منصة watsonx.governance قدرات متكاملة لكل من حوكمة النماذج ومراقبة النماذج.
حوكمة حلول الذكاء الاصطناعي التوليدي مشابهة لحوكمة نماذج الذكاء الاصطناعي التقليدية، ولكن قدراتها التوليدية تتطلب إدارة أكثر دقة لمدخلات ومخرجات النموذج مقارنة بالنماذج التقليدية، وذلك للحماية من الموجهات غير الملائمة أو الضارة، وضمان إنتاج مخرجات دقيقة ومقبولة من الناحية الواقعية. يوضح هذا القسم كيفية تطبيق IBM watsonx.governance على نماذج الأساس في حالتين أساسيتين من حالات الاستخدام: إدارة دورة حياة النموذج، ومخاطر النموذج والامتثال التنظيمي.
يوضح الرسم البياني أعلاه كيفية استخدام watsonx.governance في إدارة دورة حياة النموذج، بدءًا من مرحلة الاختبار الأولي والتحقق من صحته، وصولًا إلى مرحلة النشر.
يقوم مطوّر النماذج بضبط موجِّه للنموذج ضمن حل watsonx.ai المحلي، أو خدمة watsonx.ai، أو على منصة أخرى محلية أو سحابية، ثم يقوم بتطوير الموجِّهات واختبارها على النموذج.
يتم تسجيل بيانات الموجِّهات واستجابات النموذج، إلى جانب مقاييس أداء النموذج مثل ROUGE، SARI، Chrf، وBLEU، ضمن وظيفة إدارة مخزون النماذج في watsonx.governance. يتم الاحتفاظ بإصدارات متعددة من الموجِّهات وبيانات الاستجابة لتمكين المقارنة التبادلية واختيار أفضل مزيج من النموذج والموجِّه يلبي متطلبات المؤسسة.
يقوم مدقق النماذج بمراجعة نتائج الموجِّهات الفردية وتوافقها مع النماذج، ثم يختار إصدارًا معتمدًا للموافقة عليه لنشره في بيئة الإنتاج.
يستخدم مطوّرو النماذج نفس القدرة لتتبع مزيج النماذج والموجِّهات وأدائها لحالات الاستخدام التجارية المحددة.
فيما يلي شرح تفصيلي لعناصر إدارة مخاطر النماذج والامتثال التنظيمي في watsonx.governance.
يقوم أعضاء فريق حوكمة الذكاء الاصطناعي في المؤسسة بتحديد المعايير التي يجب على النماذج في بيئة الإنتاج الوفاء بها، ويتم تحديد هذه المعايير كحدود حد أدنى وأقصى والتفاوتات المسموح بها لمقاييس النموذج مثل ROUGE. يتم وضع هذه المعايير داخل أداة إدارة مخاطر النماذج في IBM OpenPages، ثم يتم نقلها لاحقًا إلى watsonx.governance.
يقوم مطوّر النماذج بضبط الموجِّه وتطوير موجِّهات اختبار مقابل نموذج الأساس المنشور ضمن حل watsonx.ai المحلي، أو خدمة watsonx.ai، أو على حل محلي أو سحابي آخر مثل Sagemaker.
يتم إرسال بيانات الموجِّهات واستجابات النموذج، إلى جانب مقاييس أداء النموذج، إلى watsonx.governance حيث تتم مقارنتها بالحدود التي حددها فريق الحوكمة.
ثم يتم إرسال نتائج مقارنة المقاييس إلى IBM OpenPages للمراجعة وإعداد التقارير من قبل فريق حوكمة المؤسسة. على وجه التحديد، إذا كان مزيج الموجِّه / النموذج يفي بجميع المعايير المحددة، فقد يتم تصنيفه على أنه جاهز للإنتاج أو خالٍ من المخاطر. إذا استوفى النموذج بعض المعايير فقط، فقد يتم تصنيفه على أنه منخفض الأداء وغير مناسب للإنتاج، وذلك بناءً على صرامة السياسات التي وضعها فريق الحوكمة.
تأكد من وجود آلية لتفعيل الذكاء الاصطناعي بثقة. من الضروري تقييم النموذج أثناء التطوير والنشر لضمان أن استجابات النموذج اللغوي الكبير (LLM) ليست نتيجة للهلوسة وخالية من أي كلمات نابية تحض على الكراهية. تأكد من أن إجابات النماذج اللغوية الكبيرة قابلة للتفسير، وأخلاقية، وموثوقة، وغير متحيزة. تختلف مقاييس الجودة المستخدمة في تقييم النماذج اللغوية الكبيرة تمامًا عن تلك المستخدمة في تقييم نماذج الذكاء الاصطناعي التقليدية، لذا من المهم تمكين علماء البيانات من اختيار المقاييس المناسبة باستمرار.
يجب أن تكون حلول الذكاء الاصطناعي التوليدي المنتشرة متسقة وخالية من أي تحيّز أو انحراف في البيانات قد يظهر بمرور الوقت. ليس من غير المألوف أن تستخدم المؤسسات مجموعة متنوعة من النماذج اللغوية الكبيرة (LLM) عبر سُحُب مختلفة، لذا فإن تمكين حوكمة مركزية على مستوى المؤسسة أمر بالغ الأهمية. يُعَدّ وجود نهج حوكمة موحد عبر بيئات النشر المختلفة وعلى عدة سُحُب عاملاً رئيسيًا يجب أخذه في الاعتبار.
يجب ضمان أن تكون تطبيقات الذكاء الاصطناعي التوليدي المنتشرة محدثة ومتوافقة مع اللوائح التنظيمية المتطورة باستمرار في الصناعة. يُعدّ الحصول على رؤية شاملة لجميع النماذج المنشورة في المؤسسة، إلى جانب حالتها الصحية في عرض واحد، أمرًا ضروريًا
ضمان عدم استخدام أي محتوى يتضمن كراهية أو إساءة أو ألفاظ نابية في بيانات التدريب، مع القدرة على تعويض المؤسسة عن أي استخدام غير مصرح به للبيانات المملوكة، مع التأكد من عدم تسريب أي معلومات تعريف شخصية (PII) أو بيانات ملكية فكرية (IP). القدرة على تدقيق وتتبع دورة حياة البيانات لحل الذكاء الاصطناعي التوليدي تعد أمرًا أساسيًا.
يصف هذا كيفية نشر نموذج التوليد المعزز بالاسترجاع (RAG) من البداية إلى النهاية مع توفير إمكانيات المراقبة والحوكمة طوال دورة حياته. إلى جانب حوكمة النماذج، تُعد حوكمة البيانات أيضًا عنصرًا أساسيًا. نوضح كيف يمكن، من خلال الاستفادة من عناصر IBM watsonx.governance مثل AI OpenScale و FactSheets و IBM Open Pages، ضمان إدارة تطبيقات الذكاء الاصطناعي التوليدي وحوكمتها. كما يوفّر IBM Watson Knowledge Catalog إدارة بيانات فعالة تشمل فهرسة البيانات، وتتبع دورة حياتها، وإدارة معلومات التعريف الشخصية (PII).
بنية الذكاء الاصطناعي التوليدي من IBM هي بنية الذكاء الاصطناعي التوليدي الكاملة من IBM داخل أداة IBM IT Architect Assistant (IIAA)، وهي أداة لتطوير وإدارة البنية. باستخدام أداة IIAA، يمكن للمهندسين تطوير البنية وتخصيصها لبناء حلول الذكاء الاصطناعي التوليدي الخاصة بهم.