قبل خمس سنوات، قام Rob Thomas و Paul Zikopoulos من شركة IBM ببناء إطار عمل لتبني الذكاء الاصطناعي الناجح، والذي أطلق عليه اسم AI Ladder، وهو "نهج موحد وتوجيهي لمساعدة [القادة] على فهم وتسريع رحلة الذكاء الاصطناعي." أصبح الإطار كتابًا، تم الترويج له بخطاف يبدو الآن قديمًا إلى حد ما.
"يتحدث الجميع عن الذكاء الاصطناعي. لماذا؟ حسنًا، نحن نعتقد أن الذكاء الاصطناعي يقدم فرصة هائلة للشركات بمختلف أحجامها وفي أي صناعة.
بالنظر إلى مشهد الذكاء الاصطناعي اليوم، من المضحك تخيل عالم شعر فيه Rob و Paul بالحاجة إلى إقناع القراء بأن الذكاء الاصطناعي سيكون له شأن كبير. ومن الجدير بالذكر أيضًا "درجات" السلم: التحديث، التجميع، التنظيم، التحليل، والإدماج.
مرة أخرى في عام 2020، كانت هناك العديد من المؤسسات التي لم تبدأ حتى في رفع أقدامها إلى تلك الدرجة الأولى. وبعد مرور خمس سنوات فقط، لم تعد بحاجة إلى تقرير McKinsey ليخبرك أن الذكاء الاصطناعي هو المستقبل.
يمكن لكل مؤسسة تقريبًا تبني الذكاء الاصطناعي بدرجة أو بأخرى. جعلت التطورات التكنولوجية الجديدة من السهل إنجاز عمليات تكامل الذكاء الاصطناعي التي تنتج عائدًا فوريًا على الاستثمار (ROI).
إن عدم الحماس تجاه الذكاء الاصطناعي ليس أبداً مسألة شك في إمكانات الذكاء الاصطناعي، بل يتعلق بكيفية القيام به بشكل صحيح.
معهد IBM لقيمة الأعمال أصدر تقريرًا كشف عن بعض البيانات المثيرة للاهتمام حول تبني الذكاء الاصطناعي، وبالتحديد، العقبات التي لا تزال تمنع المؤسسات من إحراز تقدم في مجال الذكاء الاصطناعي التوليدي (gen AI).
أشار ما يقرب من نصف المستجيبين إلى قلقهم بشأن دقة البيانات أو التحيز. يمكن لقادة الأعمال التغلب على مثل هذه المخاوف من خلال إعطاء الأولوية للحوكمة والشفافية وأخلاقيات الذكاء الاصطناعي.
حوكمة الذكاء الاصطناعي ضرورية للوصول إلى حالة من الامتثال والثقة والكفاءة في تطوير تقنيات الذكاء الاصطناعي وتطبيقها. تتضمن الحوكمة الفعالة للذكاء الاصطناعي آليات الإشراف التي تعالج المخاطر مثل التحيز وانتهاك الخصوصية وسوء الاستخدام مع تعزيز الابتكار وبناء الثقة.
وتساعد هياكل الحوكمة القوية، مثل لجان الذكاء الاصطناعي الأخلاقية والامتثال لأطر العمل، في الحفاظ على المساءلة ونشر الذكاء الاصطناعي المسؤول.
يُعد مجال أخلاقيات الذكاء الاصطناعي مجالاً متعدد التخصصات، يدرس كيفية تعزيز التأثير النافع للذكاء الاصطناعي مع تقليل مخاطره ونتائجه السلبية. تشمل أخلاقيات الذكاء الاصطناعي مسؤولية البيانات والخصوصية والإنصاف وقابلية التفسير والمتانة والشفافية والاعتبارات الأخلاقية الأخرى.
فحوصات الإنصاف والإجراءات التصحيحية الأخرى تندرج تحت أخلاقيات الذكاء الاصطناعي وتساعد على ضمان أن تكون مخرجات الذكاء الاصطناعي موثوقة وعادلة.
تساعد شفافية الذكاء الاصطناعي في الوصول إلى المعلومات لفهم الكيفية التي تم بها إنشاء حلول الذكاء الاصطناعي وكيف يقوم باتخاذ القرارات. يصف الباحثون أحيانًا الذكاء الاصطناعي بأنه "الصندوق الأسود"، حيث لا يزال من الصعب شرح وإدارة وتنظيم نتائج الذكاء الاصطناعي بسبب التعقيد المتزايد للتقنية. تساعد شفافية الذكاء الاصطناعي في فتح هذا الصندوق الأسود لفهم نتائج الذكاء الاصطناعي بشكل أفضل.
قال حوالي 42% من المستجيبون إنهم يشعرون أن المؤسسات تفتقر إلى إمكانية الوصول إلى بيانات الملكية الكافية. يمكن للمؤسسات التغلب على التحدي الكبير المتمثل في عدم وجود بيانات عالية الجودة كافية لتخصيص نماذج الذكاء الاصطناعي من خلال استخدام مزيج من تعزيز البيانات وتوليد البيانات الاصطناعية والشراكات الاستراتيجية للبيانات.
يتمثل أحد الأساليب الفعالة في تحسين مجموعات البيانات الحالية من خلال تقنيات التعزيز مثل إعادة الصياغة أو الترجمة أو إضافة ضوضاء لزيادة التنوع دون جمع بيانات جديدة تمامًا.
يمكن للبيانات الاصطناعية التي تم إنشاؤها بشكل مصطنع من خلال محاكاة الكمبيوتر أو التي تم إنشاؤها بواسطة خوارزميات الذكاء الاصطناعي أن تحل محل البيانات الواقعية. تستطيع استخدام البيانات كبديل أو مكمل للبيانات الواقعية عندما لا تتوفر بسهولة.
هناك استراتيجية رئيسية أخرى تتمثل في تشكيل الشراكات الإستراتيجية والمشاركة في مبادرات مشاركة البيانات على مستوى الصناعات. يتيح التعاون مع الشركات أو المؤسسات البحثية أو الاتحادات غير المنافسة للشركات الوصول إلى مجموعات بيانات أكبر وأكثر تنوعًا مع تجنب المخاوف الأخلاقية والالتزام بالمعايير القانونية.
يُعد التعلم الموحد، حيث يتم تدريب النماذج عبر مصادر بيانات لامركزية دون مشاركة البيانات غير المنسقة، هو طريقة أخرى للاستفادة من البيانات الخارجية مع الحفاظ على الأمان والامتثال.
لا تزال تقنيات الذكاء الاصطناعي التوليدي جديدة، ولكن يمكن للمؤسسات معالجة نقص الخبرة في هذا المجال عن طريق الاستثمار في تطوير المواهب، والشراكات الاستراتيجية، وأدوات الذكاء الاصطناعي المتاحة.
ومن أكثر الأساليب فعاليةً لتحسين مهارات الموظفين الحاليين من خلال البرامج التدريبية المتخصصة وورش العمل والشهادات في مجال الذكاء الاصطناعي والتعلم الآلي (ML). توفير الخبرة العملية باستخدام أدوات الذكاء الاصطناعي وتعزيز ثقافة التعلم المستمر يساعد في سد فجوة المهارات داخليًا.
وبالإضافة إلى تطوير الخبرات الداخلية، يمكن للشركات التعاون مع مزودي خدمات الذكاء الاصطناعي والمؤسسات البحثية والشركات الاستشارية للوصول إلى المعرفة المتخصصة.
تتيح الشراكة مع شركات الذكاء الاصطناعي الناشئة أو مزودي التقنية للشركات استخدام الخبرات الخارجية دون الحاجة إلى بناء كل شيء من الصفر. المشاركة في النظام البنائي مفتوح المصدر يمكن أن توفر أيضًا رؤى قيّمة ونماذج جاهزة تعمل على تقليل تعقيد تنفيذ استراتيجية الذكاء الاصطناعي.
هناك حل آخر يتمثل في اعتماد منصات الذكاء الاصطناعي منخفضة التعليمات البرمجية أو بدون تعليمات برمجية تسمح للموظفين ذوي الخلفيات التقنية المحدودة بالعمل باستخدام الذكاء الاصطناعي التوليدي. تعمل هذه الأدوات على تبسيط نشر الذكاء الاصطناعي وتخصيصه، مما يجعل من الأسهل على المؤسسات دمج الذكاء الاصطناعي في مهام سير العمل الخاصة بها دون الحاجة إلى خبرة عميقة.
يجب على الشركات أن تتعامل مع تقديم مبرر مالي لاستكشاف مبادرات الذكاء الاصطناعي التوليدي من خلال التركيز على توفير التكاليف، ونمو الإيرادات، والميزة التنافسية، وتخفيف المخاطر.
إنهم بحاجة إلى تحديد حالات استخدام محددة حيث يمكن لقدرات الذكاء الاصطناعي أن تحقق الكفاءة، مثل أتمتة العمليات التجارية، أو إنشاء محتوى تسويقي أو تسريع التحول الرقمي.
من خلال القياس الكمي لمزايا الذكاء الاصطناعي—مثل خفض تكاليف العمالة الناتجة عن أتمتة سلسلة التوريد، أو تسريع وقت الوصول إلى السوق أو تحسين مشاركة العملاء—يمكن للشركات تقدير عائد الاستثمار.
وينبغي للشركات أيضًا أن تأخذ في الاعتبار الإمكانات الكاملة لمصادر الإيرادات الجديدة، مثل عروض المنتجات المدعومة بالذكاء الاصطناعي، أو تجربة العملاء المخصصة، أو اتخاذ القرارات في الوقت الفعلي. يمكن أن يؤدي البدء بالمشاريع التجريبية الصغيرة منخفضة المخاطر إلى نتائج ملموسة تبرر المزيد من الاستثمار.
كما يلعب التقييم دورًا في التبرير المالي أيضًا. يجب على المؤسسات أن توازن بين تكلفة التقاعس عن اتخاذ إجراء، بما في ذلك فقدان حصتها في السوق لصالح المنافسين المدعومين بالذكاء الاصطناعي أو أوجه القصور التي يمكن لمشاريع الذكاء الاصطناعي حلها.
تظل مخاوف الخصوصية تشكل عائقًا رئيسيًا أمام تنفيذ الذكاء الاصطناعي. مرة أخرى، تلعب إدارة البيانات ومبادئ الذكاء الاصطناعي المسؤول دورًا. وتتمثل الخطوة الأولى الحاسمة في الحد من انكشاف البيانات الحساسة من خلال استخدام تقنيات إدارة البيانات مثل التشفير والخصوصية التفاضلية وإخفاء الهوية قبل إدخال المعلومات في نماذج الذكاء الاصطناعي.
هذا يقلل من مخاطر الكشف عن معلومات التعريف الشخصية (PII) أو بيانات الأعمال الخاصة. يجب على المؤسسات أيضًا المساعدة في ضمان اتباع أنظمة الذكاء الاصطناعي لضوابط وصول صارمة وآليات تدقيق لتتبع من يتفاعل مع البيانات وكيفية استخدامها.
يمكن أن يكون التعلم الموحد نهجاً فعالاً، مما يسمح بتدريب نماذج الذكاء الاصطناعي عبر مجموعات بيانات لا مركزية متعددة دون نقل البيانات نفسها، وبالتالي الحفاظ على الخصوصية.
الامتثال التنظيمي هو عامل رئيسي آخر. يتعين على الشركات مواءمة استخدامها للذكاء الاصطناعي مع قوانين خصوصية البيانات العالمية مثل GDPR و CCPA واللوائح الخاصة بالصناعة. إجراء تقييمات منتظمة لتأثير الخصوصية والحفاظ على توثيق واضح لكيفية تعامل تطبيقات الذكاء الاصطناعي مع البيانات يمكن أن يساعد المؤسسات على البقاء متوافقة وبناء ثقة العملاء.
على الجانب المشرق، فإن العديد من المؤسسات في طريقها للتعامل مع هذه التحديات:
80% من المشاركين لديهم جزء منفصل من وظيفة إدارة المخاطر مخصص للمخاطر المرتبطة بالذكاء الاصطناعي أو الذكاء الاصطناعي التوليدي.
81% يقومون بإجراء التقييم المنتظم للمخاطر لتحديد التهديدات الأمنية المحتملة التي يفرضها الذكاء الاصطناعي.
78% يحتفظون بتوثيق قوي لتعزيز قابلية شرح كيفية عمل نماذج الذكاء الاصطناعي التوليدي وتدريبها.
76% يؤسسون هياكل تنظيمية وسياسات وعمليات واضحة لحوكمة الذكاء الاصطناعي التوليدي.
72% يطورون سياسات وإجراءات لإدارة البيانات ومعالجة المخاطر المحتملة.
يتطلب التغلب على التحديات الشائعة التي تواجه اعتماد الذكاء الاصطناعي نهجاً شاملاً لا يقتصر على فرق تطوير الذكاء الاصطناعي فحسب، بل يشمل الأطراف المعنية من مختلف الأقسام التقنية والمالية والأمنية والقانونية. ومع ذلك، بالنظر إلى السرعة التي تتطور بها التقنية، فإن أفضل وقت للمتأخرين للبدء هو اليوم.
تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي بسرعة أكبر وببيانات أقل.
استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.
أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.