يثير الذكاء الاصطناعي وجهات نظر مختلفة. فهو يثير حماس أصحاب النظرة المستقبلية ويثير الخوف لدى المحافظين. في منشوري السابق، وصفت الإمكانات المختلفة لكل من الذكاء الاصطناعي التمييزي والذكاء الاصطناعي التوليدي، وحددت عالمًا من الفرص حيث يغير الذكاء الاصطناعي طريقة تفاعل شركات التأمين مع المؤمن عليهم. تواصل هذه المدونة النقاش، حيث تحقق الآن في مخاطر تبني الذكاء الاصطناعي وتقترح تدابير لاستجابة آمنة وحكيمة لتبني الذكاء الاصطناعي.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
يمكن تقسيم المخاطر المرتبطة بتبني الذكاء الاصطناعي في مجال التأمين إلى فئتين—مخاطر تقنية ومخاطر الاستخدام.
تتمثل المخاطر التقنية الرئيسية في سرية البيانات. لقد أتاح تطور الذكاء الاصطناعي إمكانية جمع المعلومات وتخزينها ومعالجتها على نطاق غير مسبوق، ومن ثَم أصبح من السهل للغاية تحديد البيانات الشخصية وتحليلها واستخدامها بتكلفة منخفضة من دون موافقة الآخرين. يُعد خطر انتهاك الخصوصية الناتج عن التفاعل مع تقنيات الذكاء الاصطناعي مصدرًا رئيسيًا لقلق المستهلكين وعدم ثقتهم.
يشكل ظهور الذكاء الاصطناعي التوليدي، حيث يتلاعب الذكاء الاصطناعي ببياناتك لإنشاء محتوى جديد، خطرًا إضافيًا على سرية بيانات الشركة. على سبيل المثال، تزويد نظام الذكاء الاصطناعي التوليدي مثل Chat GPT ببيانات الشركة لإنتاج ملخص للأبحاث السرية للشركة يعني أن بصمة البيانات ستبقى بشكل لا يمحى على الخادم السحابي الخارجي للذكاء الاصطناعي وتكون متاحة لاستعلامات المنافسين.
خوارزميات الذكاء الاصطناعي هي المعلمات التي تحسن بيانات التدريب وتمنح الذكاء الاصطناعي الفرصة لتقديم معارف. في حال تسرب معلمات الخوارزمية، قد يتمكن طرف خارجي من نسخ النموذج، ما يتسبب في خسارة اقتصادية وضياع حقوق الملكية الفكرية لصاحب النموذج. بالإضافة إلى ذلك، في حال تعديل معلمات نموذج خوارزمية الذكاء الاصطناعي بشكل غير قانوني من قبل مهاجم إلكتروني، فإن ذلك سيتسبب في تدهور أداء نموذج الذكاء الاصطناعي ويؤدي إلى عواقب وخيمة.
الخاصية الغامضة لأنظمة الذكاء الاصطناعي، خاصة الذكاء الاصطناعي التوليدي، تجعل عملية اتخاذ القرار في خوارزميات الذكاء الاصطناعي صعبة الفهم. والأهم من ذلك، أن قطاع التأمين هو مجال يخضع للوائح مالية حيث تُعد شفافية وقابلية التفسير والتدقيق للخوارزميات ذات أهمية رئيسية للجهات التنظيمية.
يعتمد أداء نظام الذكاء الاصطناعي بشكل كبير على البيانات التي يتعلم منها. في حال تدريب نظام الذكاء الاصطناعي على بيانات غير دقيقة أو متحيزة أو منسوخة، سيعطي نتائج غير مرغوبة حتى لو كان مصممًا تقنيًا بشكل جيد.
على الرغم من أن نظام الذكاء الاصطناعي قد يعمل بشكل صحيح في التحليل، وصناعة القرار، والتنسيق، والأنشطة الأخرى، فإنه لا يزال ينطوي على خطر الاستغلال. يمكن أن يكون غرض استخدام المشغل، وطريقة الاستخدام، ونطاق الاستخدام، وما إلى ذلك، منحرفًا، ويقصد به إحداث آثار ضارة. أحد الأمثلة على ذلك هو التعرف على الوجه الذي يُستخدم للتتبع غير القانوني لحركة الأشخاص.
يحدث الإفراط في الاعتماد على الذكاء الاصطناعي عندما يبدأ المستخدمون في قبول توصيات الذكاء الاصطناعي غير الصحيحة—ما يؤدي إلى ارتكاب أخطاء. يواجه المستخدمون صعوبة في تحديد مستويات الثقة المناسبة لأنهم يفتقرون إلى الوعي بما يمكن للذكاء الاصطناعي فعله، أو مدى كفاءته، أو كيفية عمله. والنتيجة المترتبة على هذا الخطر هي ضعف تطوير مهارات مستخدم الذكاء الاصطناعي. على سبيل المثال، مسؤول تسوية المطالبات الذي تتدهور قدرته على التعامل مع المواقف الجديدة، أو النظر في وجهات نظر متعددة، أو يقتصر على الحالات التي يمكن للذكاء الاصطناعي أيضًا الوصول إليها.
تسلط المخاطر التي ينطوي عليها تبني الذكاء الاصطناعي الضوء على الحاجة إلى وضع نهج حوكمة للحد من المخاطر التقنية ومخاطر الاستخدام التي تنجم عن تبني الذكاء الاصطناعي.
وللحد من مخاطر الاستخدام، نوصي بنهج ثلاثي الأبعاد:
وللحد من المخاطر التقنية، ينبغي توسيع نطاق حوكمة تكنولوجيا المعلومات لمراعاة ما يلي:
يكمن وعد الذكاء الاصطناعي وإمكاناته في مجال التأمين في إمكانية استخلاص معارف جديدة من مجموعات البيانات الاكتوارية وبيانات المطالبات الأكبر والأكثر تعقيدًا. تتيح مجموعات البيانات هذه، إلى جانب البيانات السلوكية والبيئية، الإمكانية لأنظمة الذكاء الاصطناعي التي تستعلم قواعد البيانات لاستخلاص استنتاجات بيانات خاطئة، ما ينذر بعواقب تأمين فعلية.
يتطلب الذكاء الاصطناعي الفعال والدقيق تطبيقًا دقيقًا لعلم البيانات. وذلك يتطلب تنسيقًا دقيقًا لتمثيلات المعرفة في قواعد البيانات، وتحليل مصفوفات البيانات لتقليل الأبعاد، والمعالجة المسبقة لمجموعات البيانات لتقليل التأثيرات المربكة للبيانات المفقودة والمتكررة وبيانات القيمة الخارجية. يجب أن يعي مستخدمو الذكاء الاصطناعي في مجال التأمين أن قيود جودة بيانات الإدخال لها آثار على مجال التأمين، ما قد يقلل من دقة النموذج التحليلي الاكتواري.
مع استمرار تطور تقنيات الذكاء الاصطناعي وتوسع حالات الاستخدام، يجب على شركات التأمين ألا تغفل عن هذه التقنية. بل يجب على شركات التأمين أن تسهم بخبرتها في مجال التأمين لتطوير تقنيات الذكاء الاصطناعي. فقدرتهم على معرفة مصدر بيانات الإدخال وضمان جودة البيانات ستسهم في استخدام آمن ومتحكم فيه للذكاء الاصطناعي في مجال التأمين.
بينما تبدأ رحلتك نحو استخدام الذكاء الاصطناعي في مجال التأمين، استكشف وأنشئ حالات تأمينية. والأهم من ذلك كله هو وضع برنامج فائق لحوكمة الذكاء الاصطناعي.