الأخلاق هي مجموعة من المبادئ الأخلاقية التي تساعدنا على التمييز بين الصواب والخطأ. يعد مجال أخلاقيات الذكاء الاصطناعي مجالاً متعدد التخصصات، يدرس كيفية تحسين تأثير الذكاء الاصطناعي (AI) المفيد، مع تقليل مخاطره ونتائجه السلبية.
تشمل أمثلة قضايا أخلاقيات الذكاء الاصطناعي مسؤولية البيانات والخصوصية، والعدالة، والقابلية للشرح، والمتانة، والشفافية، والاستدامة البيئية، والشمول، والوكالة الأخلاقية، ومواءمة القيم، والمساءلة، والثقة، وإساءة استخدام التكنولوجيا. يهدف هذا المقال إلى تقديم نظرة شاملة للسوق حول أخلاقيات الذكاء الاصطناعي في الصناعة اليوم. للتعرف على المزيد حول وجهة نظر IBM، راجع صفحة أخلاقيات الذكاء الاصطناعي هنا.
مع ظهور البيانات الكبيرة، زادت الشركات من تركيزها على دفع الأتمتة واتخاذ القرارات القائمة على البيانات في جميع مؤسساتها. بينما يكون القصد من ذلك عادةً، إن لم يكن دائمًا، تحسين نتائج الأعمال، فإن الشركات تواجه عواقب غير متوقعة في بعض تطبيقات الذكاء الاصطناعي الخاصة بها، خاصةً بسبب ضعف تصميم البحث المسبق ومجموعات البيانات المتحيزة.
لقد ظهرت إرشادات جديدة، بشكل أساسي من مجتمعات البحث وعلوم البيانات، لمعالجة المخاوف المتعلقة بأخلاقيات الذكاء الاصطناعي، وذلك بعد أن تم الكشف عن حالات لنتائج غير عادلة. لقد أبدت الشركات الرائدة في مجال الذكاء الاصطناعي اهتمامًا راسخًا بصياغة هذه المبادئ التوجيهية، حيث بدأت هي نفسها في تجربة بعض عواقب الإخفاق في الحفاظ على المعايير الأخلاقية داخل منتجاتها. لا يمكن أن يؤدي عدم توخي الحرص في هذا المجال إلى تعريض السمعة والتنظيمية والقانونية للخطر، مما يؤدي إلى نتائج مكلفة. كما هو الحال مع جميع التطورات التكنولوجية، يميل الابتكار إلى تجاوز التنظيم الحكومي في المجالات الجديدة والناشئة. مع تطور الخبرات المناسبة داخل القطاع الحكومي، يمكننا أن نتوقع المزيد من بروتوكولات الذكاء الاصطناعي التي يجب على الشركات اتباعها، مما يمكّنها من تجنب أي انتهاكات لحقوق الإنسان والحريات المدنية.
في حين يتم تطوير القواعد والبروتوكولات لإدارة استخدام الذكاء الاصطناعي، استفاد المجتمع الأكاديمي من تقرير Belmont كوسيلة لتوجيه الأخلاقيات في البحث التجريبي والتطوير الخوارزمي. هناك ثلاثة مبادئ رئيسية انبثقت عن تقرير Belmont وهي بمثابة دليل إرشادي لتصميم التجربة والخوارزمية، وهي
هناك عدد من القضايا التي تتصدر المحادثات الأخلاقية المتعلقة بتقنيات الذكاء الاصطناعي في العالم الحقيقي. ومن بين هذه الأنواع:
كان إصدار ChatGPT في عام 2022 بمثابة نقطة انعطاف حقيقية للذكاء الاصطناعي. قدرات روبوت المحادثة الخاص بـ OpenAI—من كتابة المذكرات القانونية إلى تصحيح أخطاء البرمجة—فتحت كوكبة جديدة من الإمكانيات لما يمكن للذكاء الاصطناعي فعله وكيف يمكن تطبيقه في جميع الصناعات تقريبًا.
تم بناء ChatGPT والأدوات المماثلة على نماذج الأساس، ونماذج الذكاء الاصطناعي التي يمكن تكييفها مع مجموعة واسعة من المهام النهائية. عادةً ما تكون نماذج الأساس عبارة عن نماذج توليدية واسعة النطاق، وتتكون من مليارات المعلمات، التي يتم تدريبها على البيانات غير المصنفة باستخدام الإشراف الذاتي. يسمح ذلك للنماذج الأساسية بتطبيق ما تعلمته بسرعة في سياق ما على سياق آخر، مما يجعلها قابلة للتكيف بدرجة كبيرة وقادرة على أداء مجموعة متنوعة من المهام المختلفة. ومع ذلك، هناك العديد من القضايا المحتملة والمخاوف الأخلاقية المتعلقة بنماذج الأساس والتي يتم الاعتراف بها بشكل شائع في صناعة التكنولوجيا، مثل التحيز، وتوليد محتوى زائف، ونقص القابلية للتفسير، وإساءة الاستخدام والتأثير المجتمعي. يرتبط العديد من هذه المشكلات بالذكاء الاصطناعي بشكل عام، ولكنها تكتسب أهمية جديدة في ضوء قوة نماذج الأساس وتوافرها.
التفرد التكنولوجي هو سيناريو نظري حيث يصبح النمو التكنولوجي غير قابل للسيطرة ولا يمكن عكس اتجاهه، ويبلغ ذروته في تغييرات عميقة لا يمكن التنبؤ بها في الحضارة البشرية. في حين أن هذا الموضوع يحظى بالكثير من الاهتمام العام، إلا أن العديد من الباحثين لا يهتمون بفكرة تفوق الذكاء الاصطناعي على الذكاء البشري في المستقبل القريب أو الفوري.
الذكاء الاصطناعي القوي (الذكاء الاصطناعي الذي يمتلك ذكاءً ووعيًا ذاتيًا مساويًا لذكاء البشر) والذكاء الفائق لا يزالان افتراضيين، لكن الأفكار تطرح بعض الأسئلة المثيرة للاهتمام بينما نفكر في استخدام الأنظمة المستقلة، مثل السيارات ذاتية القيادة. من غير الواقعي الاعتقاد بأن سيارة ذاتية القيادة لن تتعرض لحادث سيارة أبدًا، ولكن من المسؤول والملزم بالتعويض في ظل هذه الظروف؟ هل يجب علينا الاستمرار في تطوير المركبات ذاتية القيادة، أم نقتصر على دمج هذه التقنية لإنتاج مركبات شبه ذاتية القيادة فقط، والتي تعزز السلامة بين السائقين؟ الأمر لا يزال قيد المناقشة، ولكن هذه هي أنواع المناقشات الأخلاقية التي تحدث مع تطور تقنيات الذكاء الاصطناعي الجديدة والمبتكرة.
مع أن التصور العام للذكاء الاصطناعي يدور بشكل كبير حول فقدان الوظائف، إلا أنه ينبغي على الأغلب إعادة النظر في هذا القلق. مع كل تكنولوجيا جديدة ثورية، نرى أن طلب السوق على أدوار وظيفية محددة يتغير.
على سبيل المثال، عندما ننظر إلى صناعة السيارات، نجد أن العديد من الشركات المصنعة، مثل GM، تتحول للتركيز على إنتاج السيارات الكهربائية للتوافق مع المبادرات الخضراء. صناعة الطاقة لن تختفي، لكن مصدر الطاقة يتحول من الاقتصاد في استهلاك الوقود إلى الاقتصاد الكهربائي.
يجب النظر إلى الذكاء الاصطناعي بطريقة مماثلة، حيث سيحوّل الذكاء الاصطناعي الطلب على الوظائف إلى مجالات أخرى. سيحتاج الأمر إلى وجود أفراد لإدارة هذه الأنظمة مع نمو البيانات وتغيرها يوميًا. سيتعين توفير موارد لمعالجة المشاكل الأكثر تعقيدًا في الصناعات التي من المرجح أن تتأثر بتغيرات الطلب على الوظائف، مثل خدمة العملاء. إن الجانب الهام في الذكاء الاصطناعي وتأثيره على سوق العمل هو مساعدة الأفراد على الانتقال إلى هذه المجالات الجديدة من طلب السوق.
غالبًا ما تتم مناقشة الخصوصية في سياق خصوصية البيانات وحماية البيانات وأمن البيانات، وقد سمحت هذه المخاوف لصانعي السياسات بتحقيق المزيد من التقدم في هذا المجال في السنوات الأخيرة. على سبيل المثال، في عام 2016، تم إنشاء تشريع اللائحة العامة لحماية البيانات (GDPR) لحماية البيانات الشخصية للأشخاص في الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية، مما يمنح الأفراد مزيدًا من التحكم في بياناتهم. في الولايات المتحدة، تقوم الولايات بتطوير سياسات، مثل قانون خصوصية المستهلك في كاليفورنيا (CCPA)، الذي يلزم الشركات بإبلاغ المستهلكين عن جمع بياناتهم.
وقد أجبر هذا التشريع وغيره من التشريعات الأخيرة الشركات على إعادة التفكير في كيفية تخزين البيانات التي يمكن من خلالها تحديد الهوية الشخصية (PII) واستخدامها. نتيجة لذلك، أصبحت الاستثمارات في الأمن أولوية متزايدة للشركات، حيث يسعون إلى القضاء على أي ثغرات وفرص للمراقبة والاختراق والهجمات الإلكترونية.
أثارت حالات التحيز والتمييز في عدد من الأنظمة الذكية العديد من التساؤلات الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي. كيف يمكننا التحوط ضد التحيز والتمييز عندما يمكن أن تؤدي مجموعات بيانات التدريب إلى التحيز؟ بينما عادةً ما تكون لدى الشركات نوايا حسنة فيما يتعلق بجهود الأتمتة الخاصة بها، قد تكون هناك عواقب غير متوقعة لدمج الذكاء الاصطناعي في ممارسات التوظيف. في محاولتهم لأتمتة وتبسيط عملية، تسببت Amazon عن غير قصد في تحيز ضد المرشحين المحتملين للوظائف حسب الجنس لأدوار تقنية مفتوحة، واضطروا في النهاية إلى إلغاء المشروع. مع ظهور أحداث كهذه، أثارت مجلة Harvard Business Review أسئلة محددة أخرى حول استخدام الذكاء الاصطناعي في ممارسات التوظيف، مثل ما هي البيانات التي يجب أن تكون قادرًا على استخدامها عند تقييم مرشح لدور ما.
التحيز والتمييز لا يقتصران على وظيفة الموارد البشرية فحسب؛ بل يمكن العثور عليهما في عدد من التطبيقات بدءًا من برامج التعرف على الوجوه وصولًا إلى خوارزميات وسائل التواصل الاجتماعي.
بينما تزداد الشركات وعيًا بمخاطر الذكاء الاصطناعي، أصبحت أيضًا أكثر نشاطًا في هذا النقاش حول أخلاقيات وقيم الذكاء الاصطناعي. على سبيل المثال، شارك Arvind Krishna وهو الرئيس التنفيذي لشركة IBM، العام الماضي بأن IBM قد أوقفت منتجاتها العامة لأغراض التعرف على الوجه وتحليلها، مؤكدًا أن "IBM تعارض بشدة ولن تتغاضى عن استخدام أي تقنية، بما في ذلك تقنية التعرف على الوجه المقدمة من بائعين آخرين، للمراقبة الجماعية، أو التنميط العنصري، أو انتهاكات حقوق الإنسان وحرياته الأساسية، أو أي غرض لا يتوافق مع قيمنا ومبادئ الثقة والشفافية."
لا توجد تشريعات عالمية وشاملة تنظم ممارسات الذكاء الاصطناعي، ولكن العديد من الدول تعمل على تطويرها وتنفيذها محليًا. توجد بعض اللوائح التنظيمية للذكاء الاصطناعي اليوم، مع وجود العديد من اللوائح التنظيمية الأخرى القادمة. ولسد هذه الفجوة، ظهرت أطر العمل الأخلاقية كجزء من التعاون بين علماء الأخلاق والباحثين لتنظيم بناء نماذج الذكاء الاصطناعي وتوزيعها داخل المجتمع. ومع ذلك، في الوقت الحالي، هذه مجرد أدلة توجيهية، وتُظهر الأبحاث أن الجمع بين المسؤولية الموزعة وعدم التبصر بالعواقب المحتملة ليس بالضرورة مؤدياً إلى منع الضرر عن المجتمع.
الذكاء الاصطناعي يعمل وفقًا للطريقة التي يتم تصميمه وتطويره وتدريبه وضبطه واستخدامه بها، وأخلاقيات الذكاء الاصطناعي تتعلق بإنشاء نظام بنائي من المعايير الأخلاقية والضوابط الوقائية في جميع مراحل دورة حياة نظام الذكاء الاصطناعي.
لقد بدأت المنظمات والحكومات والباحثون على حد سواء في تجميع أطر عمل لمعالجة المخاوف الأخلاقية الحالية المتعلقة بالذكاء الاصطناعي وتشكيل مستقبل العمل في هذا المجال. بينما يُضَاف المزيد من الهيكلة إلى هذه الإرشادات يوميًا، هناك إجماعٌ ما حول تضمين ما يلي:
تُعرّف الحوكمة بأنها عملية إشراف المؤسسة على دورة حياة الذكاء الاصطناعي، وذلك من خلال تطبيق سياسات وإجراءات داخلية، وتوظيف الكوادر المناسبة، واستخدام الأنظمة الملائمة. تساعد الحوكمة على ضمان أن أنظمة الذكاء الاصطناعي تعمل وفقًا لمبادئ المؤسسة وقيمها، وكما يتوقع الأطراف المعنية، وكما هو مطلوب بموجب اللوائح التنظيمية ذات الصلة. برنامج الحوكمة الناجح سوف يعمل على:
تحديد الأدوار والمسؤوليات للأشخاص العاملين مع الذكاء الاصطناعي.
تثقيف جميع الأشخاص المشاركين في دورة حياة الذكاء الاصطناعي حول بناء الذكاء الاصطناعي بطريقة مسؤولة.
تأسيس إجراءات لتطوير وإدارة ومراقبة والتواصل بشأن الذكاء الاصطناعي ومخاطره.
الاستفادة من الأدوات لتحسين أداء الذكاء الاصطناعي وموثوقيته طوال دورة حياة الذكاء الاصطناعي.
ويُعد مجلس أخلاقيات الذكاء الاصطناعي آلية حوكمة فعالة بشكل خاص. في IBM، يتألف مجلس أخلاقيات الذكاء الاصطناعي من قادة متنوعين من جميع أنحاء الأعمال. ويوفر عملية حوكمة ومراجعة مركزية واتخاذ قرارات لسياسات وممارسات IBM الأخلاقية. تعرف على المزيد حول مجلس أخلاقيات الذكاء الاصطناعي التابع لشركة IBM.
يمكن توجيه نهج المنظمة لأخلاقيات الذكاء الاصطناعي بمبادئ يمكن تطبيقها على المنتجات والسياسات والعمليات والممارسات في جميع أنحاء المؤسسة للمساعدة في تمكين الذكاء الاصطناعي الجدير بالثقة. يجب هيكلة هذه المبادئ ودعمها من خلال مجالات تركيز، مثل القابلية للشرح أو الإنصاف، والتي يمكن تطوير المعايير والممارسات حولها وتوحيدها.
عندما يتم بناء الذكاء الاصطناعي بوضع الأخلاق في صميم تصميمه، فإنه يكون قادراً على إحداث تأثير هائل على المجتمع نحو الخير. لقد بدأنا نرى ذلك في التكامل في مجالات الرعاية الصحية، مثل الأشعة. من المهم أيضًا إجراء حوار حول أخلاقيات الذكاء الاصطناعي لتقييم المخاطر المحتملة المتعلقة باستخدامات الذكاء الاصطناعي والتخفيف من حدتها بشكل مناسب، بدءًا من مرحلة التصميم.
نظرًا لأن المعايير الأخلاقية ليست الشغل الشاغل لمهندسي البيانات وعلماء البيانات في القطاع الخاص، فقد ظهرت مجموعة لتعزيز السلوك الأخلاقي في مجال الذكاء الاصطناعي. بالنسبة للباحثين عن مزيد من المعلومات، توفر المجموعات والمشاريع التالية الموارد لتفعيل أخلاقيات الذكاء الاصطناعي:
رسخت IBM أيضًا رؤيتها الخاصة حول أخلاقيات الذكاء الاصطناعي، حيث أنشأت مبادئ الثقة والشفافية لمساعدة العملاء على فهم القيم التي تتبناها في الحوار الدائر حول الذكاء الاصطناعي. لدى IBM ثلاثة مبادئ أساسية تحدد نهجها في تطوير البيانات والذكاء الاصطناعي، وهي:
كما قامت شركة IBM بتطوير خمسة ركائز لتوجيه التبني المسؤول لتقنيات الذكاء الاصطناعي. وذلك يتضمن:
تشكل هذه المبادئ ومجالات التركيز أساس نهجنا لأخلاقيات الذكاء الاصطناعي. لمعرفة المزيد عن آراء IBM حول الأخلاقيات والذكاء الاصطناعي، اقرأ المزيد هنا.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.
تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.