لا تتوقف عن تطوير الذكاء الاصطناعي، بل أعطِ الأولوية للأخلاقيات بدلاً من ذلك

صورة تمثل البناء من أجل البيانات والذكاء الاصطناعي

عرّض إدخال أنظمة الذكاء الاصطناعي التوليدي في المجال العام الناس في جميع أنحاء العالم لإمكانات وتداعيات وحتى عواقب تكنولوجية جديدة لم يكن الكثيرون قد فكروا فيها بعد. وبفضل أنظمة مثل ChatGPT، يمكن لأي شخص تقريبًا الآن استخدام نماذج ذكاء اصطناعي متقدمة لا تقتصر على اكتشاف الأنماط وصقل البيانات وتقديم التوصيات كما كانت تفعل الإصدارات السابقة من الذكاء الاصطناعي، بل تتجاوز ذلك لتوليد محتوى جديد وتطوير استجابات محادثة أصلية وغير ذلك الكثير.

نقطة تحول للذكاء الاصطناعي

وعندما تُصمَّم إمكانات الذكاء الاصطناعي التوليدي بشكل أخلاقي وتُطرَح في السوق بمسؤولية، فهي تدعم فرصًا غير مسبوقة لإفادة الأعمال والمجتمع. فيمكن أن تساعد على تقديم خدمة أفضل للعملاء وتحسين أنظمة الرعاية الصحية والخدمات القانونية. ويمكنها أيضًا دعم الإبداع البشري وزيادته وتسريع الاكتشافات العلمية وحشد طرق أكثر فعالية لمواجهة التحديات المناخية.

نحن نقف بصدد نقطة تحول حساسة في تطوير الذكاء الاصطناعي ونشره واستخدامه، وتطوير إمكاناته لتسريع التقدم البشري. ومع ذلك، فإن هذه الإمكانات الهائلة محفوفة بالمخاطر، مثل إنشاء محتوى وهمي ونصوص ضارة واحتمالية تسريب الخصوصية وزيادة التحيز والافتقار إلى الشفافية فيما يتعلق بكيفية عمل هذه الأنظمة. لذلك، فمن الضروري أن نتساءل عما يمكن أن يعنيه الذكاء الاصطناعي لمستقبل القوى العاملة والديمقراطية والإبداع والرفاهية العامة للبشر ولكوكبنا.

الحاجة إلى معايير أخلاقية جديدة للذكاء الاصطناعي

دعا بعض قادة التكنولوجيا مؤخرًا إلى التوقف لمدة ستة أشهر عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة للسماح بوضع معايير أخلاقية جديدة. وفي حين أن النوايا والدوافع من الرسالة كانت جيدة بلا شك، إلا أنها تفتقد نقطة أساسية: هذه الأنظمة تحت سيطرتنا اليوم، وكذلك الحلول.

إن التدريب المسؤول، إلى جانب نهج الأخلاق بالتصميم المطبق على مسار عمل الذكاء الاصطناعي بأكمله، والمدعوم بتعاون متعدد الأطراف حول الذكاء الاصطناعي، يمكن أن يجعل هذه الأنظمة أفضل، وليس أسوأ. الذكاء الاصطناعي تقنية دائمة التطور. لذلك، يجب أن يكون التدريب جزءًا من نهج مسؤول لبناء الذكاء الاصطناعي سواء بالنسبة إلى الأنظمة المستخدمة اليوم أو الأنظمة التي ستصبح متصلة بالإنترنت غدًا. نحن لسنا بحاجة إلى التوقف مؤقتًا لإعطاء الأولوية للذكاء الاصطناعي المسؤول.

لقد حان الوقت للتعامل بجدية مع معايير أخلاقيات الذكاء الاصطناعي والحواجز التي يجب علينا جميعًا الاستمرار في اعتمادها وتحسينها. ومن جانبها، أنشأت شركة IBM منذ سنوات أحد أوائل مجالس أخلاقيات الذكاء الاصطناعي في هذا المجال، إلى جانب إطار عمل لأخلاقيات الذكاء الاصطناعي على مستوى الشركة. نسعى باستمرار لتعزيز هذا الإطار وتحسينه من خلال تقييم المشهد التكنولوجي الحالي والمستقبلي –من موقعنا في الصناعة وكذلك من خلال نهج متعدد الأطراف يعطي الأولوية للتعاون مع الآخرين.

يوفر مجلس إدارتنا هيكل حوكمة مسؤولاً ومركزيًا يضع سياسات واضحة ويعزز المساءلة طوال دورة حياة الذكاء الاصطناعي، ولكنه يتميز أيضًا بالمرونة لدعم احتياجات أعمال IBM. وهذا أمر ضروري، وهو شيء نقوم به لكل من أنظمة الذكاء الاصطناعي التقليدية والأكثر تقدمًا. لأنه لا يمكننا التركيز فقط على مخاطر أنظمة الذكاء الاصطناعي المستقبلية وتجاهل المخاطر الحالية. ثمة حاجة الآن إلى أنشطة مواءمة القيمة وأخلاقيات الذكاء الاصطناعي، ويجب أن تتطور باستمرار مع تطور الذكاء الاصطناعي.

إلى جانب التعاون والرقابة، يجب أيضًا أن يتشكل النهج التقني لبناء هذه الأنظمة من البداية على أساس الاعتبارات الأخلاقية. فعلى سبيل المثال، غالبًا ما تنبع المخاوف حول الذكاء الاصطناعي من نقص الفهم لما يحدث داخل "الصندوق الأسود". ولهذا السبب، طورت IBM منصة حوكمة تراقب النماذج لضمان العدالة وعدم التحيز والتقاط أصول البيانات المستخدمة، ويمكنها في النهاية توفير عملية إدارة للذكاء الاصطناعي تتميز بزيادة الشفافية وقابلية الشرح والموثوقية. بالإضافة إلى ذلك، تركز إستراتيجية الذكاء الاصطناعي للمؤسسات من IBM على نهج يغرس الثقة في جميع مراحل دورة حياة الذكاء الاصطناعي. يبدأ هذا بإنشاء النماذج نفسها ويمتد إلى البيانات التي ندرب عليها الأنظمة، وفي النهاية إلى تطبيق هذه النماذج في مجالات تطبيقات الأعمال المحددة، بدلاً من المجالات المفتوحة.

بعد كل هذه المعلومات - ما الذي يجب أن يحدث؟

أولاً، نحن نحث الآخرين في القطاع الخاص على وضع الأخلاقيات والمسؤولية في مقدمة جداول أعمالهم في مجال الذكاء الاصطناعي. إن التوقف الشامل عن تدريب الذكاء الصناعي إلى جانب الاتجاهات الحالية التي تبدو وكأنها تقلل من أولوية الاستثمار في جهود أخلاقيات الذكاء الاصطناعي في الصناعة، سيؤدي فقط إلى مزيد من الضرر والنكسات.

ثانيًا، يجب على الحكومات تجنب تنظيم الذكاء الاصطناعي بشكل واسع على مستوى التقنية. وإلا فسينتهي بنا الأمر بنهج إصلاح المشكلات مؤقتًا لتعاود الظهور مرة أخرى، ما يعوق الابتكار المفيد ولا يواكب المستقبل. إننا نحث المشرعين حول العالم على تبني تنظيم ذكي ودقيق يطبق أقوى ضوابط تنظيمية على حالات استخدام الذكاء الاصطناعي ذات أعلى مخاطر على المجتمع.

وأخيرًا، لا يزال هناك نقص في الشفافية فيما يتصل بكيفية حماية الشركات لخصوصية البيانات التي تتفاعل مع أنظمة الذكاء الاصطناعي الخاصة بها. لهذا السبب نحتاج إلى قانون وطني متسق للخصوصية في الولايات المتحدة. لا ينبغي أن تتغير تدابير حماية خصوصية الفرد لمجرد عبوره لحدود الولاية.

إن التركيز الأخير على الذكاء الاصطناعي في مجتمعنا هو تذكير بالمقولة القديمة بأن أي قوة تصاحبها مسؤولية كبيرة. بدلاً من التوقف الشامل عن تطوير أنظمة الذكاء الاصطناعي، لنستمر في كسر الحواجز التي تعوق دون التعاون ولنعمل معًا على تطوير الذكاء الاصطناعي المسؤول—بدءًا من كونه فكرة ولدت في غرفة الاجتماعات ووصولاً إلى تدريبه وتطويره ونشره في العالم الحقيقي. إن المخاطر عالية للغاية، ومجتمعنا لا يستحق إلا الأفضل.

 
اتخِذ الخطوة التالية

احصل على وصول شامل إلى القدرات التي تغطي دورة حياة تطوير الذكاء الاصطناعي. توصَّل إلى حلول ذكاء اصطناعي قوية باستخدام واجهات سهلة الاستخدام وتدفقات سير عمل سلسة وإمكانية الوصول إلى واجهات برمجة التطبيقات ومجموعات تطوير البرمجيات وفق معايير الصناعة (SDKs).

استكشف watsonx.ai احجز عرضًا توضيحيًا مباشرًا