في حين أن الضجة المثارة حول الذكاء الاصطناعي والنماذج التأسيسية تستمر في النمو— وتهيمن على الأخبار والنقاشات — لا تزال المؤسسات تكافح من أجل تطبيق خوارزميات ونماذج الذكاء الاصطناعي المسؤول بنجاح في البيئات الواقعية. في الواقع، فإن حوالي نصف مشاريع الذكاء الاصطناعي فقط تنتقل من مرحلة التجريب إلى مرحلة الإنتاج.¹ وهنا يأتي دورك.
إن كبار مسؤولي البيانات وكبار مسؤولي الذكاء الاصطناعي وغيرهم من قادة البيانات باعتبارهم المشرفين على التحول الرقمي في أي شركة هم أصوات مهمة للاستخدام الفعال والأخلاقي للذكاء الاصطناعي لتحسين العمليات وزيادة الابتكار وتنمية الإيرادات. إن خبرتك ومهاراتك في اتخاذك للقرارات أساس نجاح الذكاء الاصطناعي في الشركة.
يبدأ دمج الذكاء الاصطناعي في مؤسستك بتحديد إلى مدى يتماشى عمل منصات الذكاء الاصطناعي والنماذج التأسيسية ونماذج الذكاء الاصطناعي التوليدي والتعلم الآلي (ML) مع أهدافك الرئيسية. تميل الشركات إلى المبالغة في تقدير أثر قدرات الذكاء الاصطناعي والتقليل من تعقيداتها — وهو ما يتطلب أن يتولى قادة البيانات والتحليلات ضبط التوقعات، أو المخاطرة بفشل المشروع وما له من كلفة عالية.²
تقول Ann Leach، مديرة إدارة مجموعة المنتجات في IBM: "إذا كنت قائد بيانات، فكر في المهام التي تُطلب من فرقك أكثر من غيرها، وكيف يمكن للذكاء الاصطناعي أن يسهل المهمة بالنسبة لخطوط الأعمال تلك. أين يمكن لفرقك أن يدمجوا الذكاء الاصطناعي للمساعدة في اتخاذ القرارات، أو تحسين سير العمل والعمليات، أو توفير المعلومات للأعمال التي تقود التفكير المستقبلي؟"
لتحقيق أقصى استفادة ممكنة من تطبيقات الذكاء الاصطناعي، ضع هذه التوجيهات في الاعتبار:
الربط بنتائج الأعمال
تعاون مع القيادة لخدمة الأهداف العامة لمؤسستك. يقترح Tim Humphrey، المدير التنفيذي للتحليلات في IBM أنه سواء كنت تقيم حالة لاستخدام الذكاء الاصطناعي مع أحد مديري التسويق أو الموارد البشرية أو سلسلة التوريدات أو المبيعات أو إدارة الأصول، يجب أن تسأل ماذا يحاول هذا المدير أن يحقق للإدارة أو للمؤسسة. عليك أن تفهم الوضع الحالي وما هو مستهدف. ويضيف Humphrey قائلاً: "إذا لم تتمكن من تطبيق الذكاء الاصطناعي طوال هذا المسار من الوضع القائم وحتى الوضع المستهدف، ينبغي ألا تبدأ."
عليك بإجراء الاختبارات أولاً
باستخدام الذكاء الاصطناعي، اختبر إثبات مفهوم الذكاء الاصطناعي حتى تجد الإصلاحات المناسبة. بعدها اعمل على تحسينها. تقول Caroline Carruthers، الرئيس التنفيذي لشركة Carruthers and Jackson ومؤلفة كتاب دليل مدير البيانات: "بدلاً من قضاء الكثير من الوقت لجعل كل شيء مثاليًا، فأنا من أشد المعجبين بمبدأ اختبار الكثير من إثباتات المفاهيم حتى تجد المفهوم المناسب بالفعل".
تحديد الأهداف وتتبعها
حدد مؤشرات الأداء الرئيسية التي تقيس النجاح لكل حالة من حالات الاستخدام. لنفترض أن المشروع يتعلق بتحديد حالات الاحتيال في بطاقات الائتمان وترغب في أن يكتشف الذكاء الاصطناعي 95% من حالات الاحتيال. يتيح لك تتبع التقدم المحرز باستخدام المقاييس أن تحدد مستويات أداء الذكاء الاصطناعي وتراقبها وتظهر قيمة الذكاء الاصطناعي للأطراف المعنية.
إن من بين أصعب مهام قائد البيانات هو إيجاد طرق سريعة وموثوقة لاستخراج الرؤى والتوصيات من البيانات. فأنت بحاجة إلى البيانات الصحيحة لتشغيل النموذج الخاص بك، ولكن ليست كل البيانات ملائمة للذكاء الاصطناعي.
يقول Remus Lazar، نائب رئيس تطوير البرمجيات ونسيج البيانات في IBM، "إن أي شيء يبدأ بمجموعة البيانات المناسبة لحالة استخدام معينة، وبدون ذلك لن يكون هناك ذكاء اصطناعي ببساطة". ويشير إلى مثال شركة الطيران التي ترغب في استخدام الذكاء الاصطناعي التنبؤي للتنبؤ بقدرة الركاب على اللحاق برحلاتهم غير المباشرة. "إذا كنت لم تجمع بيانات سوى عن الركاب الذين فاتتهم رحلاتهم، وليس عن أولئك الذين تمكنوا من اللحاق بها، فلن تكون تلك البيانات مناسبة للاستخدام. فبدون مجموعات البيانات المناسبة لن تتمكن أبدًا من حل حالة الاستخدام."
راجع بنية البيانات الخاص بك
يعتبر أكثر من نصف المؤسسات أن البيانات هي السبب في تعثر مشاريع الذكاء الاصطناعي. تعزز بنية البيانات الحديثة مثل نسيج البيانات من الإمكانيات الذاتية لمراقبة وإدارة البيانات. فهي تمكّن علماء البيانات لديك من استرجاع البيانات بشكل ذاتي بغض النظر عن مكان وجودها، مع تطبيق جميع متطلبات الحوكمة والخصوصية تلقائيًا. يتيح هذا النهج للمستخدمين بيانات موثوقة في متناول أيديهم وإمكانية الوصول إلى مصادر متباينة في الوقت الفعلي مع تطبيق حوكمة كاملة تمهد الطريق لتحقيق المرونة والسرعة.
عزز نماذجك بالبيانات الموثوقة
في وقت تكثر فيه اللوائح والمعايير الأخلاقية المتغيرة والمعقدة فيما يتعلق بالذكاء الاصطناعي، يجب أن تسأل دائماً ما هي الحوكمة المتعلقة بهذه البيانات وهل يمكن استخدامها لهذا الغرض؟ إن جودة البيانات وإدارة البيانات ضروريان لتوسيع نطاق حلول الذكاء الاصطناعي بنجاح. ضع في اعتبارك الأسئلة التالية التي تحتاج مؤسستك إلى إجابات عليها قبل أن تتمكن من الاعتماد على قرارات الخوارزمية.
الأمر متروك لك باعتبارك قائدًا للبيانات لتحديد من يتحكم في البيانات، ومن لديه حق الوصول إلى برامج الذكاء الاصطناعي وتطبيقاته، ومن يحتاج إلى الوصول لضمان أن تكون مبادرات الذكاء الاصطناعي مفيدة.
الالتزام بالذكاء الاصطناعي الأخلاقي
تتضمن المبادئ التوجيهية للذكاء الاصطناعي المسؤول اعتبارات مثل الأمان وقابلية التفسير والتحيز. إذا كنت تستخدم بيانات تاريخية لتغذية نموذج ما، فتأكد من أنها تتماشى مع أخلاقيات المجتمع وحساسياته الحالية. فمثلًا، تختلف المواقف المتعلقة بالجنس والعرق والجنس والطبقة والعمر اليوم عما كانت عليه في السبعينيات. ويمكن أن يؤدي استخدام مجموعة بيانات قديمة إلى تكرار تحيز الذكاء الاصطناعي، مما يؤدي إلى تحريف النتائج منذ البداية. يمكن للمؤسسات أن تتميز عن طريق مواجهة القضايا الأخلاقية بشكل استراتيجي وهادف ومدروس.
يتطلب الذكاء الاصطناعي للمؤسسات نفس مبادئ التواصل والهيكلية والشمول التي توجد في المجالات الأقدم في أي مؤسسة. ولكن غالبًا ما يتم تطوير النماذج على الحاسب الشخصي المحمول لعالم البيانات ويتم التنسيق يدويًا أوبشكل مخصوص باستخدام نصوص برمجية مخصصة. لهذا السبب تحتاج إلى عمليات التعلم الآلي (MLOps)، وهو التطبيق لقدرات الذكاء الاصطناعي مثل معالجة اللغة الطبيعية (NLP) ونماذج التعلم الآلي (ML) لأتمتة وتبسيط سير العمل والتشغيل. ولا تتغاضى عن التحسينات في الكفاءة التي تتحقق من خلال تبني نماذج الذكاء الاصطناعي المرنة والقابلة لإعادة الاستخدام مثل نماذج الأساس أيضًا.
تسريع سير العمل بكفاءة
من المفيد أن يكون لديك مجموعة من أفضل الممارسات لمنصات الذكاء الاصطناعي للمؤسسات التي تعمل على تسريع ومزامنة التعاون بين فرق علم البيانات وقسم تكنولوجيا المعلومات.
يقول Steven Eliuk، نائب الرئيس للحوكمة والذكاء الاصطناعي ورئيس مكتب البيانات العالمي في IBM "أنت ترغب في توفير القدرة على طرح النماذج الآمنة تلقائيًا للحافة وخدمات الويب وخدمات الكمبيوتر المركزي على النوع الصحيح من الأجهزة، وتبرير ذلك أيضًا." ويضيف Eliuk: "نبحث دائمًا في IBM عن طرق لتمكين المجموعات من إدخال نماذجها في الإنتاج بشكل أسرع، ولكن بطريقة آمنة ومحكومة".
حل الأخطاء البشرية
تتولى عمليات التعلم الآلي أتمتة العمليات اليدوية وتساعد على التخلص من الأخطاء البشرية المكلفة وتقليل المخاطر وتعزيز مرونة الشركة. بالإضافة إلى تبسيط الإنتاج، تساعد عمليات التعلم الآلي النماذج على تقديم الأداء المرغوب، بحيث تكون هناك ثقة عبر دورة حياة الذكاء الاصطناعي. كما تساعدك في الإجابة على أسئلة حساسة، مثل ما إذا كانت البيانات متحيزة في الأصل. هل تحتوي على عينات تمثيلية كافية في مجموعة البيانات؟ وعندما تصل لعملية التطوير، هل تستخدم الخوارزميات الصحيحة، أم أن هذه الخوارزميات ستكرس التحيز الموجود بالفعل في البيانات؟
فيما يلي كيف قام أحد قادة البيانات بتطبيق عمليات التعلم الآلي على أرض الواقع: يوضح Peter Jackson، كبير مسؤولي البيانات والعمليات في شركة Outra: "إن عمليات التعلم الآلي (MLOps) لدينا تقوم بفحص الجودة واختبار دقة تنبؤاتنا وجودة التعلم الآلي (ML) باستمرار. لدينا سلسلة كاملة من لوحات المعلومات التي تقدم تقاريرها إلى فريق الإدارة العليا حيث يمكننا أن نرى دقة هذه النماذج وقدرتها على التنبؤ. وإذا لاحظنا انخفاضًا خلال شهر، فسنقوم بتحليل برامج التعلم الآلي لدينا، وننظر في مصادر البيانات لمعرفة سبب عدم عملها."
تتعرض الشركات لمخاطر جسيمة تتعلق بسمعة علاماتها التجارية إذا كانت نماذج الذكاء الاصطناعي متحيزة أو غير قابلة للتفسير. كما يمكن أن تتعرض لعمليات التدقيق الحكومية وتتكبد غرامات بالملايين في حال فشلها في الالتزام بمتطلبات الامتثال المعقدة والمتغيرة. كل هذه القضايا يمكن أن يكون لها تأثير مدمر على المساهمين وعلاقات العملاء.
تعرّف على نماذج الذكاء الاصطناعي لديك وثق بها
تُعد نماذج الصندوق الأسود التي تفتقر إلى عملية شفافة مصدر قلق متزايد للأطراف المعنية بالذكاء الاصطناعي. هذه النماذج يتم بناؤها وتشغيلها لكنها تفتقر إلى الشفافية. فليس من السهل دائمًا —حتى بالنسبة لعالم البيانات— تتبع كيف ولماذا اتخذ النموذج القرار. ومع ظهور اللوائح التنظيمية، مثل قانون مدينة نيويورك الذي ينظم كيفية استخدام الذكاء الاصطناعي في التوظيف وقانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي، يجب أن تتحلى الشركات بالمرونة والسرعة.
إن حوكمة الذكاء الاصطناعي هي العملية الشاملة التي تتضمن توجيه أنشطة الذكاء الاصطناعي وإدارتها ومراقبتها عبر عمليات الأعمال. لذا يجب أن يتعاون قادة البيانات مع كبار مسؤولي المخاطر وكبار مسؤولي الامتثال وغيرهم من الأطراف المعنية منذ انطلاق مشروع الذكاء الاصطناعي لوضع إطار لحوكمة الذكاء الاصطناعي. وينبغي أن يحدد هذا الإطار أفضل الممارسات التي تتبعها الشركة في تطوير وتشغيل وإدارة نماذج الذكاء الاصطناعي وصولًا إلى التخلص من الصندوق الأسود.
تتبع النماذج بين النقاط الطرفية
تضع حوكمة الذكاء الاصطناعي حواجز حماية في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي والتعلم الآلي، بما في ذلك جمع البيانات وبناء النماذج، وتشغيلها وإدارتها ومراقبتها. وتعزز سبل الحماية من الشفافية وتوفر نتائج يمكن تفسيرها للأطراف المعنية والعملاء. يساعدك تطبيق حوكمة الذكاء الاصطناعي من البداية على إدارة المخاطر والسمعة والالتزام بالمبادئ الأخلاقية والحماية والتوسع في إطار اللوائح الحكومية.
لجأت إحدى كبرى شركات التجزئة في الولايات المتحدة إلى IBM لمساعدتها في معالجة تحديات النزاهة في استخدام الأدوات وأنظمة التوظيف التي تقيم المرشحين للوظائف. لقد كان مهمًا بالنسبة للشركة أن ترسخ العدالة والثقة، بما في ذلك القدرة على تحديد التحيز وتفسير القرارات ضمن نموذج الذكاء الاصطناعي والتعلم الآلي (ML) المستخدم في التوظيف. استخدمت الشركة نظام IBM Cloud Pak® for Data لإدارة النماذج المدعومة بالذكاء الاصطناعي باستمرار من أجل تحقيق الدقة والعدالة. والآن، تقوم الشركة بشكل استباقي بمراقبة التحيز في عمليات التوظيف للحد منه.
اعرض عملك
تطبق شركة IBM هذا النهج داخلياً هي الأخرى. يقول Eliuk: "إذا كانت هناك لائحة معينة تتطلب الشفافية أو التفسير، فإننا نتأكد من أن الخوارزمية أو تقييم التأثير توضح تلك التفاصيل حتى نتمكن من التحول بسرعة نحو الامتثال المستمر للوائح الجديدة بدلاً من التأثير على الأعمال".
ومع انتقال الذكاء الاصطناعي من مرحلة التجربة إلى المرحلة المؤثرة في الأعمال، تدرك المؤسسات الحاجة إلى تطبيق حوكمة الذكاء الاصطناعي بشكل استباقي لتعزيز الذكاء الاصطناعي الشفاف والقابل للتفسير. ويمكن أن يؤدي عدم وجود سبل حماية حول الذكاء الاصطناعي إلى عرقلة مشاريع الذكاء الاصطناعي وإبطاء الابتكار.
شجع استمرار تطبيق الذكاء الاصطناعي
بصفتك قائدًا للبيانات، فأنت تشكل تقنيات الذكاء الاصطناعي لكل جزء من أجزاء المؤسسة. إن مهمتك هي وضع سياسات استشرافية على مستوى المؤسسة في مجال التعلم الآلي (ML) وعمليات الذكاء الاصطناعي. لكنك لا تعمل بمفردك. إن كونك شريكًا قويًا يعني تحديد حالات استخدام جديدة في مجال الذكاء الاصطناعي تمس مجالات من بينها إدارة البيانات والأمن الإلكتروني وسلاسل التوريد وبرمجيات المؤسسة وخدمة العملاء.
يؤدي توسيع نطاق قدرات مؤسستك في مجال الذكاء الاصطناعي إلى خفض التكاليف وتبسيط سير العمل وتحقيق المزيد من الإيرادات من أجل البحث والتطوير وبناء الثقة بين المساهمين والعملاء. لم يعد الذكاء الاصطناعي رفاهية، بل صار ضرورة حتمية. وبينما قد يكون هناك خوف أو تردد حول تأثير الذكاء الاصطناعي، تأمل كلمات Carruthers:
"إن قوة الذكاء الاصطناعي لا تصدق، وأعتقد أن الأمر يستحق التركيز على الإيجابيات. عادةً ما يكون الخوف من التقنيات الجديدة مدفوعًا بعدم الفهم. ومن المهم أن نتذكر أننا نمتلك زمام السيطرة ويجب أن نبقى مسيطرين. ويمكن للذكاء الاصطناعي أن يساعدنا. يمكننا أن نعتمد عليه لنرى أبعد، لنفعل المزيد، ولنكون أسرع. وعندما نصل إلى هذا المزيج المناسب ويفهم الناس هذا الجزء، عندها يمكننا القيام ببعض الإنجازات الرائعة."
¹ “Gartner 2022 AI Survey” (Link resides outside ibm.com), Gartner, 2022.
² “What Is Artificial Intelligence? Ignore the Hype; Here’s Where to Start”, Gartner, 2022.
³ “AI ethics in action”, IBM Institute for Business Value, 2022.