ما المقصود بأخلاقيات الذكاء الاصطناعي؟

17 سبتمبر 2024

ما المقصود بأخلاقيات الذكاء الاصطناعي؟

الأخلاق هي مجموعة من المبادئ الأخلاقية التي تساعدنا على التمييز بين الصواب والخطأ. يعد مجال أخلاقيات الذكاء الاصطناعي مجالاً متعدد التخصصات، يدرس كيفية تحسين تأثير الذكاء الاصطناعي (AI) المفيد، مع تقليل مخاطره ونتائجه السلبية.

تشمل أمثلة قضايا أخلاقيات الذكاء الاصطناعي مسؤولية البيانات والخصوصية، والعدالة، والقابلية للشرح، والمتانة، والشفافية، والاستدامة البيئية، والشمول، والوكالة الأخلاقية، ومواءمة القيم، والمساءلة، والثقة، وإساءة استخدام التكنولوجيا. يهدف هذا المقال إلى تقديم نظرة شاملة للسوق حول أخلاقيات الذكاء الاصطناعي في الصناعة اليوم. للتعرف على المزيد حول وجهة نظر IBM، راجع صفحة أخلاقيات الذكاء الاصطناعي هنا.

مع ظهور البيانات الكبيرة، زادت الشركات من تركيزها على دفع الأتمتة واتخاذ القرارات القائمة على البيانات في جميع مؤسساتها. بينما يكون القصد من ذلك عادةً، إن لم يكن دائمًا، تحسين نتائج الأعمال، فإن الشركات تواجه عواقب غير متوقعة في بعض تطبيقات الذكاء الاصطناعي الخاصة بها، خاصةً بسبب ضعف تصميم البحث المسبق ومجموعات البيانات المتحيزة.

لقد ظهرت إرشادات جديدة، بشكل أساسي من مجتمعات البحث وعلوم البيانات، لمعالجة المخاوف المتعلقة بأخلاقيات الذكاء الاصطناعي، وذلك بعد أن تم الكشف عن حالات لنتائج غير عادلة. لقد أبدت الشركات الرائدة في مجال الذكاء الاصطناعي اهتمامًا راسخًا بصياغة هذه المبادئ التوجيهية، حيث بدأت هي نفسها في تجربة بعض عواقب الإخفاق في الحفاظ على المعايير الأخلاقية داخل منتجاتها. لا يمكن أن يؤدي عدم توخي الحرص في هذا المجال إلى تعريض السمعة والتنظيمية والقانونية للخطر، مما يؤدي إلى نتائج مكلفة. كما هو الحال مع جميع التطورات التكنولوجية، يميل الابتكار إلى تجاوز التنظيم الحكومي في المجالات الجديدة والناشئة. مع تطور الخبرات المناسبة داخل القطاع الحكومي، يمكننا أن نتوقع المزيد من بروتوكولات الذكاء الاصطناعي التي يجب على الشركات اتباعها، مما يمكّنها من تجنب أي انتهاكات لحقوق الإنسان والحريات المدنية.

تحديد المبادئ لأخلاقيات الذكاء الاصطناعي

في حين يتم تطوير القواعد والبروتوكولات لإدارة استخدام الذكاء الاصطناعي، استفاد المجتمع الأكاديمي من تقرير Belmont كوسيلة لتوجيه الأخلاقيات في البحث التجريبي والتطوير الخوارزمي. هناك ثلاثة مبادئ رئيسية انبثقت عن تقرير Belmont وهي بمثابة دليل إرشادي لتصميم التجربة والخوارزمية، وهي

  1. احترام الأشخاص: يعترف هذا المبدأ باستقلالية الأفراد ويؤكد على توقع حماية الباحثين للأفراد ذوي الاستقلالية المنقوصة، والتي قد تنجم عن مجموعة متنوعة من الظروف مثل المرض، أو الإعاقة الذهنية، أو القيود العمرية. يتطرق هذا المبدأ في المقام الأول إلى فكرة الموافقة. يجب أن يكون الأفراد على دراية بالمخاطر والفوائد المحتملة لأي تجربة يشاركون فيها، ويجب أن يكونوا قادرين على اختيار المشاركة أو الانسحاب في أي وقت قبل وأثناء التجربة.

  2. المنفعة: هذا المبدأ مأخوذ من أخلاقيات الرعاية الصحية، حيث يقسم الأطباء على "عدم إلحاق الضرر". يمكن تطبيق هذه الفكرة بسهولة على الذكاء الاصطناعي حيث يمكن للخوارزميات أن تضخم التحيزات المتعلقة بالعرق والجنس والميول السياسية وما إلى ذلك، على الرغم من نية فعل الخير وتحسين نظام معين.

  3. العدالة: يتناول هذا المبدأ قضايا مثل العدل والمساواة. من يجب أن يجني الفائدة من التجريب والتعلم الآلي؟ يقدم تقرير Belmont خمس طرق لتوزيع الأعباء والفوائد، وهي من خلال:
    • حصة متساوية
    • الحاجة الفردية
    • الجهد الفردي
    • المساهمة المجتمعية
    • الجدارة
تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

الاهتمامات الرئيسية للذكاء الاصطناعي اليوم

هناك عدد من القضايا التي تتصدر المحادثات الأخلاقية المتعلقة بتقنيات الذكاء الاصطناعي في العالم الحقيقي. ومن بين هذه الأنواع:

نماذج الأساس والذكاء الاصطناعي التوليدي

كان إصدار ChatGPT في عام 2022 بمثابة نقطة انعطاف حقيقية للذكاء الاصطناعي. قدرات روبوت المحادثة الخاص بـ OpenAI—من كتابة المذكرات القانونية إلى تصحيح أخطاء البرمجة—فتحت كوكبة جديدة من الإمكانيات لما يمكن للذكاء الاصطناعي فعله وكيف يمكن تطبيقه في جميع الصناعات تقريبًا.

تم بناء ChatGPT والأدوات المماثلة على نماذج الأساس، ونماذج الذكاء الاصطناعي التي يمكن تكييفها مع مجموعة واسعة من المهام النهائية. عادةً ما تكون نماذج الأساس عبارة عن نماذج توليدية واسعة النطاق، وتتكون من مليارات المعلمات، التي يتم تدريبها على البيانات غير المصنفة باستخدام الإشراف الذاتي. يسمح ذلك للنماذج الأساسية بتطبيق ما تعلمته بسرعة في سياق ما على سياق آخر، مما يجعلها قابلة للتكيف بدرجة كبيرة وقادرة على أداء مجموعة متنوعة من المهام المختلفة. ومع ذلك، هناك العديد من القضايا المحتملة والمخاوف الأخلاقية المتعلقة بنماذج الأساس والتي يتم الاعتراف بها بشكل شائع في صناعة التكنولوجيا، مثل التحيز، وتوليد محتوى زائف، ونقص القابلية للتفسير، وإساءة الاستخدام والتأثير المجتمعي. يرتبط العديد من هذه المشكلات بالذكاء الاصطناعي بشكل عام، ولكنها تكتسب أهمية جديدة في ضوء قوة نماذج الأساس وتوافرها.

التفرد القني

التفرد التكنولوجي هو سيناريو نظري حيث يصبح النمو التكنولوجي غير قابل للسيطرة ولا يمكن عكس اتجاهه، ويبلغ ذروته في تغييرات عميقة لا يمكن التنبؤ بها في الحضارة البشرية. في حين أن هذا الموضوع يحظى بالكثير من الاهتمام العام، إلا أن العديد من الباحثين لا يهتمون بفكرة تفوق الذكاء الاصطناعي على الذكاء البشري في المستقبل القريب أو الفوري.  

الذكاء الاصطناعي القوي (الذكاء الاصطناعي الذي يمتلك ذكاءً ووعيًا ذاتيًا مساويًا لذكاء البشر) والذكاء الفائق لا يزالان افتراضيين، لكن الأفكار تطرح بعض الأسئلة المثيرة للاهتمام بينما نفكر في استخدام الأنظمة المستقلة، مثل السيارات ذاتية القيادة. من غير الواقعي الاعتقاد بأن سيارة ذاتية القيادة لن تتعرض لحادث سيارة أبدًا، ولكن من المسؤول والملزم بالتعويض في ظل هذه الظروف؟ هل يجب علينا الاستمرار في تطوير المركبات ذاتية القيادة، أم نقتصر على دمج هذه التقنية لإنتاج مركبات شبه ذاتية القيادة فقط، والتي تعزز السلامة بين السائقين؟ الأمر لا يزال قيد المناقشة، ولكن هذه هي أنواع المناقشات الأخلاقية التي تحدث مع تطور تقنيات الذكاء الاصطناعي الجديدة والمبتكرة.

تأثير الذكاء الاصطناعي على الوظائف

مع أن التصور العام للذكاء الاصطناعي يدور بشكل كبير حول فقدان الوظائف، إلا أنه ينبغي على الأغلب إعادة النظر في هذا القلق. مع كل تكنولوجيا جديدة ثورية، نرى أن طلب السوق على أدوار وظيفية محددة يتغير.

على سبيل المثال، عندما ننظر إلى صناعة السيارات، نجد أن العديد من الشركات المصنعة، مثل GM، تتحول للتركيز على إنتاج السيارات الكهربائية للتوافق مع المبادرات الخضراء. صناعة الطاقة لن تختفي، لكن مصدر الطاقة يتحول من الاقتصاد في استهلاك الوقود إلى الاقتصاد الكهربائي.

يجب النظر إلى الذكاء الاصطناعي بطريقة مماثلة، حيث سيحوّل الذكاء الاصطناعي الطلب على الوظائف إلى مجالات أخرى. سيحتاج الأمر إلى وجود أفراد لإدارة هذه الأنظمة مع نمو البيانات وتغيرها يوميًا. سيتعين توفير موارد لمعالجة المشاكل الأكثر تعقيدًا في الصناعات التي من المرجح أن تتأثر بتغيرات الطلب على الوظائف، مثل خدمة العملاء. إن الجانب الهام في الذكاء الاصطناعي وتأثيره على سوق العمل هو مساعدة الأفراد على الانتقال إلى هذه المجالات الجديدة من طلب السوق.

الخصوصية

غالبًا ما تتم مناقشة الخصوصية في سياق خصوصية البيانات وحماية البيانات وأمن البيانات، وقد سمحت هذه المخاوف لصانعي السياسات بتحقيق المزيد من التقدم في هذا المجال في السنوات الأخيرة. على سبيل المثال، في عام 2016، تم إنشاء تشريع اللائحة العامة لحماية البيانات (GDPR) لحماية البيانات الشخصية للأشخاص في الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية، مما يمنح الأفراد مزيدًا من التحكم في بياناتهم. في الولايات المتحدة، تقوم الولايات بتطوير سياسات، مثل قانون خصوصية المستهلك في كاليفورنيا (CCPA)، الذي يلزم الشركات بإبلاغ المستهلكين عن جمع بياناتهم.

وقد أجبر هذا التشريع وغيره من التشريعات الأخيرة الشركات على إعادة التفكير في كيفية تخزين البيانات التي يمكن من خلالها تحديد الهوية الشخصية (PII) واستخدامها. نتيجة لذلك، أصبحت الاستثمارات في الأمن أولوية متزايدة للشركات، حيث يسعون إلى القضاء على أي ثغرات وفرص للمراقبة والاختراق والهجمات الإلكترونية.

التحيز والتمييز

أثارت حالات التحيز والتمييز في عدد من الأنظمة الذكية العديد من التساؤلات الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي. كيف يمكننا التحوط ضد التحيز والتمييز عندما يمكن أن تؤدي مجموعات بيانات التدريب إلى التحيز؟ بينما عادةً ما تكون لدى الشركات نوايا حسنة فيما يتعلق بجهود الأتمتة الخاصة بها، قد تكون هناك عواقب غير متوقعة لدمج الذكاء الاصطناعي في ممارسات التوظيف. في محاولتهم لأتمتة وتبسيط عملية، تسببت Amazon عن غير قصد في تحيز ضد المرشحين المحتملين للوظائف حسب الجنس لأدوار تقنية مفتوحة، واضطروا في النهاية إلى إلغاء المشروع. مع ظهور أحداث كهذه، أثارت مجلة Harvard Business Review أسئلة محددة أخرى حول استخدام الذكاء الاصطناعي في ممارسات التوظيف، مثل ما هي البيانات التي يجب أن تكون قادرًا على استخدامها عند تقييم مرشح لدور ما.

التحيز والتمييز لا يقتصران على وظيفة الموارد البشرية فحسب؛ بل يمكن العثور عليهما في عدد من التطبيقات بدءًا من برامج التعرف على الوجوه وصولًا إلى خوارزميات وسائل التواصل الاجتماعي.

بينما تزداد الشركات وعيًا بمخاطر الذكاء الاصطناعي، أصبحت أيضًا أكثر نشاطًا في هذا النقاش حول أخلاقيات وقيم الذكاء الاصطناعي. على سبيل المثال، شارك Arvind Krishna وهو الرئيس التنفيذي لشركة IBM، العام الماضي بأن IBM قد أوقفت منتجاتها العامة لأغراض التعرف على الوجه وتحليلها، مؤكدًا أن "IBM تعارض بشدة ولن تتغاضى عن استخدام أي تقنية، بما في ذلك تقنية التعرف على الوجه المقدمة من بائعين آخرين، للمراقبة الجماعية، أو التنميط العنصري، أو انتهاكات حقوق الإنسان وحرياته الأساسية، أو أي غرض لا يتوافق مع قيمنا ومبادئ الثقة والشفافية."

المساءلة

لا توجد تشريعات عالمية وشاملة تنظم ممارسات الذكاء الاصطناعي، ولكن العديد من الدول تعمل على تطويرها وتنفيذها محليًا. توجد بعض اللوائح التنظيمية للذكاء الاصطناعي اليوم، مع وجود العديد من اللوائح التنظيمية الأخرى القادمة. ولسد هذه الفجوة، ظهرت أطر العمل الأخلاقية كجزء من التعاون بين علماء الأخلاق والباحثين لتنظيم بناء نماذج الذكاء الاصطناعي وتوزيعها داخل المجتمع. ومع ذلك، في الوقت الحالي، هذه مجرد أدلة توجيهية، وتُظهر الأبحاث أن الجمع بين المسؤولية الموزعة وعدم التبصر بالعواقب المحتملة ليس بالضرورة مؤدياً إلى منع الضرر عن المجتمع.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال. ومن المفهوم أيضًا أنه موضوع شائك. سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

كيفية إرساء أخلاقيات الذكاء الاصطناعي

الذكاء الاصطناعي يعمل وفقًا للطريقة التي يتم تصميمه وتطويره وتدريبه وضبطه واستخدامه بها، وأخلاقيات الذكاء الاصطناعي تتعلق بإنشاء نظام بنائي من المعايير الأخلاقية والضوابط الوقائية في جميع مراحل دورة حياة نظام الذكاء الاصطناعي.

لقد بدأت المنظمات والحكومات والباحثون على حد سواء في تجميع أطر عمل لمعالجة المخاوف الأخلاقية الحالية المتعلقة بالذكاء الاصطناعي وتشكيل مستقبل العمل في هذا المجال. بينما يُضَاف المزيد من الهيكلة إلى هذه الإرشادات يوميًا، هناك إجماعٌ ما حول تضمين ما يلي:

الحوكمة

تُعرّف الحوكمة بأنها عملية إشراف المؤسسة على دورة حياة الذكاء الاصطناعي، وذلك من خلال تطبيق سياسات وإجراءات داخلية، وتوظيف الكوادر المناسبة، واستخدام الأنظمة الملائمة. تساعد الحوكمة على ضمان أن أنظمة الذكاء الاصطناعي تعمل وفقًا لمبادئ المؤسسة وقيمها، وكما يتوقع الأطراف المعنية، وكما هو مطلوب بموجب اللوائح التنظيمية ذات الصلة. برنامج الحوكمة الناجح سوف يعمل على:

  • تحديد الأدوار والمسؤوليات للأشخاص العاملين مع الذكاء الاصطناعي.

  • تثقيف جميع الأشخاص المشاركين في دورة حياة الذكاء الاصطناعي حول بناء الذكاء الاصطناعي بطريقة مسؤولة.

  • تأسيس إجراءات لتطوير وإدارة ومراقبة والتواصل بشأن الذكاء الاصطناعي ومخاطره.

  • الاستفادة من الأدوات لتحسين أداء الذكاء الاصطناعي وموثوقيته طوال دورة حياة الذكاء الاصطناعي.

ويُعد مجلس أخلاقيات الذكاء الاصطناعي آلية حوكمة فعالة بشكل خاص. في IBM، يتألف مجلس أخلاقيات الذكاء الاصطناعي من قادة متنوعين من جميع أنحاء الأعمال. ويوفر عملية حوكمة ومراجعة مركزية واتخاذ قرارات لسياسات وممارسات IBM الأخلاقية. تعرف على المزيد حول مجلس أخلاقيات الذكاء الاصطناعي التابع لشركة IBM.

المبادئ ومجالات التركيز

يمكن توجيه نهج المنظمة لأخلاقيات الذكاء الاصطناعي بمبادئ يمكن تطبيقها على المنتجات والسياسات والعمليات والممارسات في جميع أنحاء المؤسسة للمساعدة في تمكين الذكاء الاصطناعي الجدير بالثقة. يجب هيكلة هذه المبادئ ودعمها من خلال مجالات تركيز، مثل القابلية للشرح أو الإنصاف، والتي يمكن تطوير المعايير والممارسات حولها وتوحيدها.

عندما يتم بناء الذكاء الاصطناعي بوضع الأخلاق في صميم تصميمه، فإنه يكون قادراً على إحداث تأثير هائل على المجتمع نحو الخير. لقد بدأنا نرى ذلك في التكامل في مجالات الرعاية الصحية، مثل الأشعة. من المهم أيضًا إجراء حوار حول أخلاقيات الذكاء الاصطناعي لتقييم المخاطر المحتملة المتعلقة باستخدامات الذكاء الاصطناعي والتخفيف من حدتها بشكل مناسب، بدءًا من مرحلة التصميم.

المنظمات التي تعزز أخلاقيات الذكاء الاصطناعي

نظرًا لأن المعايير الأخلاقية ليست الشغل الشاغل لمهندسي البيانات وعلماء البيانات في القطاع الخاص، فقد ظهرت مجموعة لتعزيز السلوك الأخلاقي في مجال الذكاء الاصطناعي. بالنسبة للباحثين عن مزيد من المعلومات، توفر المجموعات والمشاريع التالية الموارد لتفعيل أخلاقيات الذكاء الاصطناعي:

  • AlgorithmWatch: تركز هذه المنظمة غير الربحية على خوارزمية وعملية اتخاذ قرار قابلة للشرح والتتبع في برامج الذكاء الاصطناعي. انقر هنا لمعرفة المزيد.

  • معهد AI Now: تبحث هذه المنظمة غير الربحية في جامعة نيويورك في الآثار الاجتماعية للذكاء الاصطناعي. انقر هنا لمعرفة المزيد.

  • DARPA: وكالة مشاريع الأبحاث الدفاعية المتقدمة التابعة لوزارة الدفاع الأمريكية تركز على تعزيز الذكاء الاصطناعي القابل للشرح وأبحاث الذكاء الاصطناعي.

  • CHAI: مركز الذكاء الاصطناعي المتوافق مع الإنسان هو تعاون بين معاهد وجامعات مختلفة لتعزيز الذكاء الاصطناعي الجدير بالثقة والأنظمة المفيدة القابلة للإثبات.

  • NASCAI: لجنة الأمن القومي للذكاء الاصطناعي هي لجنة مستقلة "تنظر في الأساليب والوسائل اللازمة لتعزيز تطوير الذكاء الاصطناعي والتعلم الآلي والتقنيات المرتبطة به لمعالجة احتياجات الأمن القومي والدفاع للولايات المتحدة بشكل شامل".

وجهة نظر IBM بشأن أخلاقيات الذكاء الاصطناعي

رسخت IBM أيضًا رؤيتها الخاصة حول أخلاقيات الذكاء الاصطناعي، حيث أنشأت مبادئ الثقة والشفافية لمساعدة العملاء على فهم القيم التي تتبناها في الحوار الدائر حول الذكاء الاصطناعي. لدى IBM ثلاثة مبادئ أساسية تحدد نهجها في تطوير البيانات والذكاء الاصطناعي، وهي:

  1. الغرض من الذكاء الاصطناعي هو تعزيز الذكاء البشري. هذا يعني أننا لا نسعى إلى استبدال الذكاء البشري بالذكاء الاصطناعي، بل ندعمه. نظراً لأن كل تقنية جديدة تنطوي على تغييرات في العرض والطلب على أدوار وظيفية معينة، تلتزم شركة IBM بدعم العمال في هذا الانتقال من خلال الاستثمار في المبادرات العالمية لتعزيز التدريب على المهارات المتعلقة بهذه التقنية.

  2. البيانات والرؤى مملوكة لمنشئها. يمكن لعملاء IBM الاطمئنان بأنهم هم وحدهم من يمتلكون بياناتهم. لم ولن تسمح IBM للحكومات بالوصول إلى بيانات العملاء لأي برامج مراقبة، وتظل ملتزمة بحماية خصوصية عملائها.

  3. يجب أن تتسم أنظمة الذكاء الاصطناعي بالشفافية والقابلية للشرح. تعتقد IBM أن شركات التكنولوجيا بحاجة إلى أن تكون واضحة بشأن من يدرب أنظمة الذكاء الاصطناعي الخاصة بها، وما هي البيانات التي تم استخدامها في هذا التدريب، والأهم من ذلك، ما الذي دخل في توصيات خوارزمياتها.

كما قامت شركة IBM بتطوير خمسة ركائز لتوجيه التبني المسؤول لتقنيات الذكاء الاصطناعي. وذلك يتضمن:

  • قابلية الشرح: يجب أن يكون نظام الذكاء الاصطناعي شفافًا، خاصة فيما يتعلق بما دخل في توصيات خوارزميته، بما يتناسب مع مجموعة متنوعة من الأطراف المعنية ذوي الأهداف المتنوعة.

  • الإنصاف: يشير هذا إلى المعاملة العادلة للأفراد أو مجموعات الأفراد من قِبل نظام الذكاء الاصطناعي. عندما تتم معايرته بشكل صحيح، يمكن للذكاء الاصطناعي مساعدة البشر في اتخاذ خيارات أكثر عدالة، ومواجهة التحيزات البشرية وتعزيز الشمولية.

  • المتانة: يجب الدفاع بنشاط عن الأنظمة المدعومة بالذكاء الاصطناعي ضد الهجمات العدائية، لتقليل المخاطر الأمنية وتمكين الثقة في نتائج النظام.

  • الشفافية: لتعزيز الثقة، يجب أن يكون المستخدمون قادرين على رؤية كيفية عمل الخدمة وتقييم وظائفها وفهم نقاط قوتها وحدودها.

  • الخصوصية: يجب على أنظمة الذكاء الاصطناعي أن تعطي الأولوية لخصوصية المستهلكين وحقوقهم في البيانات وتحميها، وأن تقدم ضمانات صريحة للمستخدمين حول كيفية استخدام بياناتهم الشخصية وحمايتها.

تشكل هذه المبادئ ومجالات التركيز أساس نهجنا لأخلاقيات الذكاء الاصطناعي. لمعرفة المزيد عن آراء IBM حول الأخلاقيات والذكاء الاصطناعي، اقرأ المزيد هنا.

حلول ذات صلة
IBM watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

استكشف خدمات حوكمة الذكاء الاصطناعي
IBM OpenPages

تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.

استكشف OpenPages
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا