لطالما كان والدي يقول أثناء تربيته لي يقول بالإنجليزية "do good"، أي "افعل الخير". عندما كنت طفلاً، كنت أعتقد أنها كانت قواعد نحوية خاطئة وكنت أصحح له ذلك، وأصر على أن تكون "do well" أي "أحسنت". حتى أطفالي يسخرون مني عندما يسمعون نصيحته "do good" وأنا أعترف بأنني سمحت له بالتدخل في قواعد اللغة، حيث يقصد "افعل الخير".
في حالة الذكاء الاصطناعي المسؤول، يجب أن تعطي المؤسسة الأولوية للقدرة على تجنب الضرر باعتبارها محور تركيز رئيسي. قد تهدف بعض المؤسسات أيضًا إلى استخدام الذكاء الاصطناعي من أجل "فعل الخير". ومع ذلك، يتطلب الذكاء الاصطناعي في بعض الأحيان وجود حواجز واضحة قبل أن يتمكن المرء من الموافقة على معنى "الخير".
اقرأ ورقة "إطار عمل الذكاء الاصطناعي Presidio" لتتعلم كيفية معالجة مخاطر الذكاء الاصطناعي التوليدي باستخدام حواجز على مستوى دورة حياة الذكاء الاصطناعي الموسعة (الرابط موجود خارج ibm.com)
ومع استمرار الذكاء الاصطناعي التوليدي في التحول إلى اتجاه سائد، تتحمس المؤسسات تجاه إمكانية تحويل العمليات وتقليل التكاليف وزيادة قيمة الأعمال. يتوق قادة الأعمال إلى إعادة تصميم إستراتيجيات الأعمال الخاصة بهم لتقديم خدمة أفضل للعملاء أو المرضى أو الموظفين أو الشركاء أو المواطنين بشكل أكثر كفاءة وتحسين التجربة بشكل عام. يفتح الذكاء الاصطناعي التوليدي الأبواب ويخلق فرصًا ومخاطر جديدة للمؤسسات على مستوى العالم، حيث تلعب قيادة الموارد البشرية دورًا رئيسيًا في إدارة هذه التحديات.
التكيف مع تداعيات زيادة اعتماد الذكاء الاصطناعي قد يشمل الامتثال لمتطلبات تنظيمية معقدة مثل NIST، وقانون الذكاء الاصطناعي في الاتحاد الأوروبي (EU AI Act)، وNYC 144، ولجنة تكافؤ فرص العمل الأمريكية (US EEOC)، وقانون الذكاء الاصطناعي في البيت الأبيض (جميع الروابط السابقة تقع خارج ibm.com)، والتي تؤثر مباشرة على سياسات الموارد البشرية والسياسات التنظيمية، بالإضافة إلى اتفاقيات العمل الاجتماعية، ومهارات الوظائف، واتفاقيات العمل الجماعية. يتطلب اعتماد الذكاء الاصطناعي المسؤول استراتيجية متعددة الأطراف كما أكدتها كبرى الموارد الدولية بما في ذلك NIST وOECD ومعهد الذكاء الاصطناعي المسؤول وتحالف البيانات والثقة وIEEE (جميع الروابط السابقة تقع خارج ibm.com).
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
يقدم قادة الموارد البشرية الآن المشورة للشركات حول المهارات المطلوبة للعمل اليوم وكذلك المهارات المستقبلية، مع الأخذ في الاعتبار الذكاء الاصطناعي والتقنيات الأخرى. ووفقًا للمنتدى الاقتصادي العالمي، يقدر أصحاب العمل أن 44% من مهارات العمال ستتعطل في السنوات الخمس المقبلة. يستكشف متخصصو الموارد البشرية بشكل متزايد إمكاناتهم لتحسين الإنتاجية من خلال تعزيز عمل الموظفين وتمكينهم من التركيز على العمل على مستوى أعلى. ومع توسع قدرات الذكاء الاصطناعي، هناك مخاوف أخلاقية وتساؤلات يجب على كل قائد أعمال أخذها في الاعتبار حتى لا يأتي استخدام الذكاء الاصطناعي على حساب العمال أو الشركاء أو العملاء.
تعلم مبادئ الثقة والشفافية التي توصي بها IBM للمؤسسات لدمج الذكاء الاصطناعي في العمليات.
يتم حاليًا تنسيق التعليم وإدارة المعرفة بشكل محكم كاستراتيجية متعددة الأطراف المعنية مع اشتراك تكنولوجيا المعلومات والشؤون القانونية والامتثال ومشغلي الأعمال كعملية مستمرة، بدلاً من خانة الاختيار مرة واحدة في السنة. وبالتالي، يحتاج قادة الموارد البشرية إلى المشاركة الفطرية في تطوير البرامج لوضع السياسات وتنمية فطنة الذكاء الاصطناعي لدى الموظفين، وتحديد أماكن تطبيق القدرات، ووضع استراتيجية حوكمة الذكاء الاصطناعي المسؤول، واستخدام أدوات مثل الذكاء الاصطناعي والأتمتة للمساعدة في ضمان التوقير والاحترام للموظفين من خلال اعتماد الذكاء الاصطناعي الموثوق والشفاف.
على الرغم من استمرار تبني استخدام الذكاء الاصطناعي واستمرار اتساع رقعة حالات الاستخدام، قد لا تكون المؤسسات مستعدة تماماً للعديد من الاعتبارات والعواقب المترتبة على تبني قدرات الذكاء الاصطناعي في عملياتها وأنظمتها. في حين أن 79% من المديرين التنفيذيين المشمولين بالاستطلاع يؤكدون على أهمية أخلاقيات الذكاء الاصطناعي في نهج الذكاء الاصطناعي على مستوى المؤسسة، فإن أقل من 25% منهم قاموا بتنفيذ مبادئ مشتركة لأخلاقيات الذكاء الاصطناعي، وفقًا للبحث من معهد IBM لقيمة الأعمال.
يوجد هذا التناقض لأن السياسات وحدها لا تستطيع القضاء على انتشار الأدوات الرقمية وزيادة استخدامها. أصبح استخدام العمال المتزايد للأجهزة الذكية والتطبيقات مثل ChatGPT أو نماذج الصندوق الأسود العامة الأخرى، دون موافقة مناسبة، مشكلة مستمرة ولا يشمل إدارة التغيير المناسبة لإبلاغ العمال بالمخاطر المرتبطة بها.
على سبيل المثال، قد يستخدم العمال هذه الأدوات لكتابة رسائل البريد الإلكتروني للعملاء باستخدام بيانات عملاء حساسة، أو قد يستخدمها المديرون لكتابة التقييمات التي تكشف عن بيانات الموظفين الشخصية.
للمساعدة في الحد من هذه المخاطر، قد يكون من المفيد تضمين نقاط اتصال أو مناصرين لممارسات الذكاء الاصطناعي المسؤول داخل كل قسم ووحدة أعمال ومستوى وظيفي. يمكن أن يكون هذا المثال فرصة للموارد البشرية لقيادة الجهود المبذولة في سبيل إحباط التحديات الأخلاقية والمخاطر التشغيلية المحتملة ودعمها.
في النهاية، من الضروري إنشاء استراتيجية الذكاء الاصطناعي المسؤول تحتوي على قيم ومبادئ مشتركة تتماشى مع قيم الشركة الأوسع واستراتيجية الأعمال وتنقل إلى جميع الموظفين. تحتاج هذه الإستراتيجية إلى الدفاع عن الموظفين وتحديد الفرص المتاحة للمؤسسة لتبني الذكاء الاصطناعي والابتكار الذي يدفع أهداف العمل إلى الأمام. كما يجب أن تساعد الموظفين في التعليم للمساعدة في الوقاية من الآثار الضارة للذكاء الاصطناعي ومعالجة المعلومات المضللة والتحيز وتعزيز الذكاء الاصطناعي المسؤول، سواءً على المستوى الداخلي أو داخل المجتمع.
أهم ثلاثة اعتبارات يجب أن يضعها قادة الأعمال والموارد البشرية في اعتبارهم أثناء تطوير استراتيجية الذكاء الاصطناعي المسؤول هي:
ضع الأولوية لموظفيك عند تخطيطك لاستراتيجيتك التقنية المتقدمة. ويعني ذلك تحديد كيفية عمل الذكاء الاصطناعي مع موظفيك، والتواصل مع هؤلاء الموظفين على وجه التحديد حول كيفية مساعدة الذكاء الاصطناعي لهم على التفوق في أدوارهم وإعادة تعريف طرق العمل. بدون التعليم، قد يشعر الموظفون بقلق مفرط من الذكاء الاصطناعي الذي ينشر لاستبدالهم أو القضاء على القوى العاملة. التواصل مباشرة مع الموظفين بصدق حول كيفية بناء هذه النماذج. يجب على قادة الموارد البشرية معالجة التغييرات المحتملة في الوظائف، بالإضافة إلى واقع الفئات والوظائف الجديدة التي تخلقها الذكاء الاصطناعي والتقنيات الأخرى.
الذكاء الاصطناعي ليس كتلة واحدة. يمكن للمؤسسات نشر الذكاء الاصطناعي المسؤول بطرق عديدة، لذا يجب أن تحدد بوضوح ما يعنيه الذكاء الاصطناعي المسؤول بالنسبة لها، وكيف تخطط لاستخدامه، وكيف ستمتنع عن استخدامه. يجب مراعاة مبادئ مثل الشفافية والثقة والإنصاف والعدالة والإنصاف والقوة واستخدام فرق متنوعة، بما يتماشى مع المبادئ التوجيهية لمنظمة التعاون الاقتصادي والتنمية (OECD) أو المبادئ التوجيهية لمعهد البحوث والتطوير والابتكار (RAII) في مجال الذكاء الاصطناعي، وتصميمها في كل حالة استخدام للذكاء الاصطناعي، سواء كانت تنطوي على الذكاء الاصطناعي التوليدي أم لا. بالإضافة إلى ذلك، يجب إجراء مراجعات روتينية للتحقق من انحراف النماذج وتدابير الخصوصية لكل نموذج، بالإضافة إلى مقاييس محددة للتنوع والمساواة والشمول لتقليل التحيز.
الواقع هو أن بعض الموظفين بدأوا بالفعل في تجربة أدوات الذكاء الاصطناعي التوليدي لمساعدتهم في أداء مهام مثل الإجابة عن الأسئلة، وصياغة رسائل البريد الإلكتروني، وأداء مهام روتينية أخرى. لذلك، يجب على المؤسسة أن تعمل على الفور للإبلاغ عن خططها لاستخدام هذه الأدوات، ووضع توقعات للموظفين الذين يستخدمونها، والمساعدة في ضمان توافق استخدام هذه الأدوات مع قيم المؤسسة وأخلاقياتها. كما يجب على المؤسسة تقديم فرص تطوير المهارات لمساعدة الموظفين على تطوير مهاراتهم في الذكاء الاصطناعي وفهم المسارات المهنية المحتملة.
يعد ممارسة الذكاء الاصطناعي المسؤول ودمجه في مؤسستك أمرًا ضروريًا لاعتماده بنجاح. جعلت IBM من الذكاء الاصطناعي المسؤول محور نهج الذكاء الاصطناعي الذي تتبعه مع العملاء والشركاء. في عام 2018، أنشأت IBM مجلس أخلاقيات الذكاء الاصطناعي الجدير بالثقة كمجلس مركزي متعدد التخصصات لدعم ثقافة الذكاء الاصطناعي الأخلاقي والمسؤول والجدير بالثقة. يتألف من قادة كبار من أقسام مختلفة مثل البحث العلمي، ووحدات الأعمال، والموارد البشرية، والتنوع والشمول، والشؤون القانونية، والحكومية والتنظيمية، والمشتريات والاتصالات. يوجه المجلس وينفذ المبادرات والقرارات المتعلقة بالذكاء الذكاء الاصطناعي. تأخذ IBM الفوائد وتحديات الذكاء الاصطناعي على محمل الجد، ونعمل على تضمين المسؤولية في كل ما نقوم به.
سأسمح لوالدي بهذه القاعدة النحوية المخالفة. يمكن الذكاء الاصطناعي أن "يفعل الخير" عند إدارته بشكل صحيح، مع مشاركة العديد من البشر، والحواجز، والإشراف، والحوكمة، وإطار عمل أخلاقيات الذكاء الاصطناعي.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.