لقد ساهمت طفرة الذكاء الاصطناعي التوليدي في تقديم كل شيء بدءًا من روبوتات المحادثة الفيروسية إلى تقييمات تقدر بمليارات الدولارات. لكن الأساس الأخلاقي الكامن وراء كل ذلك لا يزال ضعيفًا بشكل مقلق.
في غضون شهر واحد، فازت OpenAI وخسرت قضايا العلامات التجارية في المحكمة الفيدرالية ، وتراجعت Anthropic بهدوء عن مدونة تم إنشاؤها بواسطة نموذج Claude الخاص بها بعد أن انتقد المستخدمون الكتابة باعتبارها غامضة ومضللة. ومع توسع أنظمة الذكاء الاصطناعي عبر مختلف الصناعات والواجهات، لم تعد الأسئلة المتعلقة بالمسؤولية والسلامة والنزاهة نظرية بعد الآن. بل أصبحت مسائل تشغيلية.
هذه الفجوة بين القدرة والمصداقية هي جوهر الحساب الأخلاقي المتزايد داخل عالم الذكاء الاصطناعي. وعادةً ما يتم التعامل مع الأخلاقيات على أنها تراكب، وليست طبقة هيكلية. ومع ذلك، تحاول بعض الفرق داخل IBM عكس هذا النمط من خلال دمج القيود الأخلاقية مباشرة في التدريب والتسويق ونشر الأنظمة.
PJ Hagerty، مخضرم في مجتمع المطورين له جذور راسخة في الأدوات مفتوحة المصدر والتبشير بالمنتجات، هو أحد الأفراد المشاركين في هذا العمل. بصفته قائد مناصرة الذكاء الاصطناعي في شركة IBM، فإن مهمته هي مساعدة المطورين على استخدام الذكاء الاصطناعي بشكل أكثر فعالية ومسؤولية. إلا أن هذا يعني في الممارسة العملية ما هو أوسع من ذلك: تحدي الضجيج وتوضيح الحدود ووضع توقعات واقعية. قال لي: "نحن لا نبني العقول". "نحن نبني الأدوات. دعونا نتصرف على هذا النحو ".
يتركز معظم الاهتمام في الذكاء الاصطناعي اليوم على النتائج—ما يولده النموذج، مدى دقته أو إقناعه، ومدى أدائه مقارنة بالمعايير القياسية. لكن بالنسبة لى Hagerty، يبدأ التوتر الأخلاقي الحقيقي في وقت مبكر عن ذلك، على مستوى نموذج الأساس. هذه هي البنية التحتية الخام للذكاء الاصطناعي، الطبقة الأساسية للتعلم الآلي المدربة على مجموعات البيانات الضخمة التي تم جمعها من الويب. وهو ما يغذي النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وClaude.
قال لي Hagerty: "المؤسسة هي المكان الذي يحدث فيه ذلك". "فإن هذا هو أول شيء يتعلمه النظام، وإذا كان مليئًا بالقمامة، فلن يختفي هذا الأمر."
تم تصميم هذه النماذج الأساسية لتكون ذات أغراض عامة. وقال Hagerty إن هذا ما يجعلها قوية وخطيرة في آن واحد. فبما أنها لا تُبنى لتنفيذ مهام محددة أو ضمن قيود واضحة، فإنها تميل إلى استيعاب كل شيء، بدءًا من البُنى الدلالية القيّمة إلى النفايات السامة المنتشرة على الإنترنت وبمجرد تدريب النماذج، فإنه يصعب تدقيقها. وحتى مُنشئوها غالبًا لا يمكنهم الجزم بما يعرفه النموذج أو بكيف سيستجيب لموجِّه معين.
وشبه Hagerty ذلك بصب قاعدة خرسانية معيبة لبناء ناطحة سحاب. فإذا كان الخليط الخرساني خاطئًا منذ البداية، فقد لا ترى تشققات على الفور. ولكن بمرور الوقت، يصبح البناء غير مستقر. وفي الذكاء الاصطناعي، المعادل هو السلوك الهش أو التحيز غير المقصود أو سوء الاستخدام الكارثي بمجرد نشر النظام. وبدون تشكيل دقيق في المراحل المبكرة، يحمل النموذج معه المخاطر التي قام باستيعابها أثناء التدريب إلى كل تطبيق لاحق يُبنى عليه.
فإنه ليس وحده في هذا الأمر. ولقد حذر باحثون من مركز ستانفورد للبحث في نماذج الأساس (CRFM) مرارًا وتكرارًا من المخاطر الناشئة للتدريب واسع النطاق، بما في ذلك انتشار التحيز، ووهم المعرفة، وتلوث البيانات، وصعوبة تحديد حالات الفشل. ويمكن التخفيف من حدة هذه المشاكل ولكن لا يمكن القضاء عليها، مما يجعل اختيارات التصميم المبكرة، مثل تنظيم البيانات والتصفية والحوكمة، أمرًا أكثر حساسية.
وكما يرى Hagerty، فإن أحد أكبر العوائق الأخلاقية التي تحول دون إحراز تقدم ملموس هو الغموض المطلق لما تعنيه الشركات عندما تقول "الذكاء الاصطناعي". اسأل خمسة فرق منتجات عما يقصدون بعبارة "مدعوم بالذكاء الاصطناعي"، وستجد على الأرجح خمس إجابات مختلفة. وينظر Hagerty إلى هذا الخطأ التعريفي باعتباره أحد الإخفاقات الأخلاقية الأساسية في العصر الحالي.
"في معظم الأوقات، عندما يقول الأشخاص الذكاء الاصطناعي، فإنهم يقصدون الأتمتة. أو شجرة القرار. أو عبارة "إذا كان الأمر كذلك".
إن عدم الوضوح حول المصطلحات ليس مشكلة أكاديمية. عندما تقدم الشركات البرامج الحتمية على أنها تفكير ذكي، يميل المستخدمون إلى الوثوق بها. عندما تطرح الشركات الناشئة أدوات البحث والفلترة الأساسية كنماذج توليدية، يرمي المستثمرون أموالهم على السراب. ويشير Hagerty إلى هذا الأمر على أنه "تسرب ضجيج" ويرى أنه مصدر متزايد للارتباك والإضرار بالسمعة.
في الصناعات المُنظّمة مثل التمويل أو الرعاية الصحية، يمكن أن تكون العواقب أكثر خطورة. وإذا تم تضليل المستخدم ليعتقد أن النظام لديه وعي أعمق مما هو عليه، فقد يفوض قرارات كان يجب أن تبقى بشرية. ويصبح الخط الفاصل بين الأداة والوكيل غير واضح، ومعه تتلاشى المسؤولية.
هذه المشكلة تؤدي أيضًا إلى إهدار الجهد. استشهد Hagerty ببحث أُجري مؤخرًا حول سوء استخدام النماذج اللغوية الكبيرة في التنبؤ بالسلاسل الزمنية، وهي طريقة إحصائية تستخدم للتنبؤ بالقيم المستقبلية بناء على البيانات التاريخية، وهي مهمة تظل فيها الطرق التقليدية أكثر دقة وكفاءة. ومع ذلك، تستمر بعض الشركات في استخدام النماذج اللغوية الكبيرة على أي حال، بحثاً عن الجديد أو الإشارة إلى الابتكار.
قال: "إنك تحرق وحدات معالجة الرسومات للحصول على إجابات سيئة". "والأسوأ من ذلك، أنك تطلق على ذلك اسم التقدم."
إن القضية الأخلاقية ليست مجرد عدم كفاءة. إنه تحريف. تبني الفرق منتجات حول تقنيات بالكاد يفهمونها، وتضيف تسويقاً يبالغ في قدراتها وتنشرها للمستخدمين الذين لا يمكنهم تقييم ما يستخدمونه.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
لقد ركز الكثير من القلق العام المحيط بالذكاء الاصطناعي على إمكانية فقدان الوظائف على نطاق واسع. هل سيحل الذكاء الاصطناعي محل المحامين والمعلمين والمبرمجين والكتاب؟ ويرى Hagerty أن هذا السؤال سابق لأوانه وسيئ الصياغة.
وقال: "معظم هذه الأدوات لا تحل محل الأشخاص". بل تحل محل المهام،، وخصوصًا تلك المملة حقًا."
أشار إلى مساعدي التعليمات البرمجية مثل watsonx Code Assistant وGitHub Copilot، وأدوات مثل Cursor وCodeWhisperer من Amazon . لا تقوم هذه الأنظمة بكتابة تطبيقات كاملة من الصفر. ما تفعله هو ملء الكتل التي يمكن التنبؤ بها من التعليمات البرمجية، واقتراح النماذج المعيارية، وتقليل تكاليف كتابة المنطق المتكرر. المكسب ليس الإبداع؛ إنها السرعة.
ويعتقد Hagerty أن هذا أمر جيد للغاية. يمكن للمطورين المبتدئين البدء بشكل أسرع. يمكن لكبار المهندسين التركيز على البنية بدلاً من تركيبها. حاجز الدخول أقل، وألم الصيانة يقل. لكنه يحذر من تخيل هذا كمشكلة محلولة.
قال: "يتم تدريب هذه النماذج على الشبكة المفتوحة". "وهناك الكثير من القمامة في مجموعات البيانات تلك، بما في ذلك مجموعة بياناتي."
تتضمن هذه القمامة التعليمات البرمجية غير الآمنة والممارسات المهملة والاختراقات الخاصة بالسياق. ويتضمن أيضًا السرقة الأدبية وانتهاكات الترخيص والأخطاء الوهمية التي يمكن أن تعاود الظهور في المخرجات التي تم إنشاؤها. لذا، في حين أن النموذج قد يوفر الوقت، فإنه يخاطر أيضًا بإعادة تقديم المشكلات نفسها التي كان من المفترض تقليلها. إن ما يتم قياسه ليس الجودة، بل ما تعرض له النموذج.
ويؤمن Hagerty أن التدقيق البشري يظل أمرًا أساسيًا في هذه المرحلة. ويمكن للأداة أن تساعد، ولكن لا تزال المساءلة تقع على عاتق المطور.
واحدة من أشهر إخفاقات سلامة الذكاء الاصطناعي حدثت قبل ما يقرب من عقد من الزمن، عندما تم إصدار روبوت المحادثة Tay على تويتر. وفي غضون ساعات، تم اختطافه لدفعه إلى نشر محتوى مسيء ونظريات المؤامرة. ومن ثمّ قام مبتكروه بسحبه من الإنترنت وأصدروا اعتذارًا. لكن الحلقة أصبحت رمزًا دائمًا لما يحدث عندما يطلق المطورون أنظمة دون حواجز حماية.
اليوم ، تعلمت معظم الشركات أن تغلف نماذجها التوليدية في طبقات الاعتدال. يمكن أن تساعد الفلاتر والمصنفات ومطهرات الموجِّهات وضبط التعزيز، ولكنها ليست مضمونة. وبحسب Hagerty، تميل هذه التدابير إلى التركيز على المشكلات السطحية، مثل نبرة اللغة أو الألفاظ النابية، بدلاً من التركيز على الثغرات الأعمق، مثل حقن الموجِّه أو إعادة التوجيه الخبيث. وبدلاً من ذلك، فإنه يرى أن السلامة مسألة تصميم أوسع نطاقًا. قال، "هل سيتم إساءة استخدام هذا النموذج؟ هل سيتم إخراجه من السياق؟ هل سيتم الوثوق بالمخرجات بينما لا ينبغي أن تكون كذلك؟" "إذا لم تكن قد فكرت في هذه الأسئلة ، فإنك لم تنته بعد. أنت لست مستعدًا للإنتاج".
وأشار Hagerty إلى مثال على الأدوات التي تتلاعب بالوسائط أو تولدها، مثل مولدات الصور ومحرري الفيديو والنسخ الصوتي. ولا تقتصر هذه الأنظمة على إنتاج المحتوى فحسب، بل تعمل أيضًا على تغيير التصور. وقال إنه عندما تكون المخرجات واقعية بما فيه الكفاية، فإنها تبدأ في التأثير على الذاكرة والحكم والإسناد.
في هذه الحالات، لا تتعلق السلامة بالدقة التقنية، بل بالوعي السياقي. ماذا يحدث لهذه المخرجات بمجرد أن تغادر واجهتك؟ من يراها؟ وما الافتراضات التي سيبنونها عليها؟
نادرًا ما يكون لهذه الأسئلة إجابة واحدة. لكن تجاهلها تمامًا، كما قال Hagerty، يُعد خطأ.
في البيئات التقنية سريعة الحركة، قد تبدو الحوكمة وكأنها عقبة. تبطئ الإصدارات. تضيف إلى الأعمال الورقية. تقدم الغموض. ولكن بالنسبة إلى Hagerty، فإن هذا الرأي لا يصل إلى الهدف.
قال: "لن ترسل كود دون اختباره." "لماذا تطلق نموذجًا دون تدقيق؟"
إنه ينظر إلى أدوات مثل watsonx.governance من IBM باعتبارها بنية تحتية ضرورية، وليست إضافات اختيارية. وتسمح هذه الأنظمة للفرق بتتبع بيانات التدريب، ومراقبة تغييرات النماذج، وتحديد الانحرافات بمرور الوقت. كما أنها تساعد المجموعات على الامتثال للوائح التنظيمية الناشئة، ولكن الأهم من ذلك أنها تبني الذاكرة المؤسسية. فلقد سمحوا للفرق برؤية ما فعلوه، وكيف فعلوا ذلك ولماذا.
وهذا مهم ليس للامتثال فحسب ولكن للجودة. إذا كان أداء النموذج مختلفًا في الشهر المقبل، فأنت بحاجة إلى معرفة ما تغير. إذا بدأت الهلوسة في الإنتاج، فأنت بحاجة إلى طريقة لتتبع المشكلة مرة أخرى إلى المصدر. الحوكمة الجيدة هي ما يعادل التحكم في الإصدارات ولكن في مجال الذكاء الاصطناعي.
ويتجاوز النماذج. أشار Hagerty إلى تزايد الاهتمام "بإلغاء التعلم الآلي"، وهو القدرة على إزالة البيانات أو السلوكيات الإشكالية جراحياً دون إعادة التدريب من الصفر. ورغم أن هذا النهج لا يزال مبكرًا، إلا أنه يعكس تحولاً أوسع نطاقاً في العقلية. والهدف من ذلك ليس بناء نماذج أكثر ذكاءً، بل بناء نماذج يمكنها التكيف، والتصحيح، والخضوع للمساءلة.
لا شيء من هذا يتطلب الكمال. وسارع Hagerty إلى الاعتراف بأن التحيز سيستمر، وأن السلامة ستفشل، وسوف يُساء استخدام الأدوات. لكن الفرق بين الفشل المقبول والضرر الناتج عن الإهمال يكمن في العملية.
وقال "لا تفرط في الطلب. ولا تفرط في الثقة. اطرح أسئلة أفضل في وقت مبكر".
وهو يوصي ببناء تقييمات أخلاقية في دورات التخطيط، وليس فقط قوائم مراجعة الإطلاق. باستخدام أدوات مثل Fairness 360 من IBM و Granite Guardian، بالإضافة إلى ARX، لاكتشاف المشاكل الواضحة. إجراء اختبارات الفريق الأحمر للعثور على حالات الحافة قبل المستخدمين للعثور عليها. والأهم من ذلك كله، هو بناء الأنظمة التي تجعل من السهل تصحيح المسار.
ويقول إن العمل لا يهدف إلى وقف الضرر. الأمر يتعلق بتشكيل التأثير.
قال: "لن تبني نظامًا مثاليًا". "ولكن يمكنك بناء خطة تفشل على نحو أبطأ، أو تفشل بطرق تفهمها".
وفي هذا الصدد ، فإن الأخلاقيات ليست قيدًا ، بل هي مبدأ تصميمي. إنها طريقة لصنع برامج أفضل، وأنظمة أكثر قابلية للتنبؤ، وتوقعات أوضح، وفي نهاية المطاف، قيمة أكبر.
عندما سُئل عما يمنحه الأمل، لم يتحدث Hagerty عن المواءمة أو الذكاء الاصطناعي العام أو أطر عمل السياسة. تحدث عن مساعدي التعليمات البرمجية.
قال: "إنهم يعملون". "ويقللون العقبات. ولا يتظاهرون بأنهم يفعلون أكثر مما يستطيعون. هذا هو النموذج الذي يجب اتباعه".
إنه يريد أن يكون الذكاء الاصطناعي مملاً. ومفيدًا. ومحدودًا. وصادقًا بشأن ما يفعله وكيفية عمله. وهذا لا يعني الحد من الطموح. بل يعني توضيحها. البناء من أجل الاعتمادية بدلاً من المفاجآت. تصميم أنظمة تتصرف بشكل جيد ليس فقط في العروض التوضيحية، بل أيضًا عند نشرها.
الذكاء الاصطناعي لن يختفي. ستستمر الأدوات في التطور، ولكن التوقعات سوف تستمر أيضًا. ويعتقد Hagerty أن الفرق التي ستنجح هي الفرق التي ستوفق بين القوة التقنية والانضباط الأخلاقي. لأنها تعمل.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.