ما هي المواءمة الفائقة؟

أيقونة تحذير على شاشة LCD رقمية مع انعكاس

المؤلفين

Alexandra Jonker

Staff Editor

IBM Think

Amanda McGrath

Staff Writer

IBM Think

ما هي المواءمة الفائقة؟

المواءمة الفائقة هي عملية الإشراف على أنظمة الذكاء الاصطناعي الفائقة والتحكم فيها وإدارتها. يمكن أن تساعد مواءمة أنظمة الذكاء الاصطناعي المتقدمة مع القيم والأهداف البشرية في منعها من إظهار سلوك ضار وغير قابل للسيطرة.
 

لا يزال الذكاء الاصطناعي الفائق (ASI) مجرد مفهوم افتراضي. لذلك، تركز جهود مواءمة الذكاء الاصطناعي الحالية إلى حد كبير على جعل نماذج الذكاء الاصطناعي الحالية مفيدة وآمنة وموثوقة. على سبيل المثال، تساعد المواءمة على ضمان أن روبوتات المحادثة المدعومة بالذكاء الاصطناعي مثل ChatGPT لا تديم التحيز البشري أو لا يمكن استغلالها من قِبل جهات سيئة النية.

ولكن كلما أصبح الذكاء الاصطناعي أكثر تعقيداً وتطوراً، أصبح من الصعب توقع مخرجاته ومواءمتها مع النوايا البشرية. هذا التحدي يُشار إليه بشكل أكثر باسم "مشكلة المواءمة". هناك قلق من أن أنظمة الذكاء الاصطناعي فائقة الذكاء يمكن أن تصل يومًا ما إلى نقطة الانهيار وتتحايل على السيطرة البشرية تمامًا. ويعتقد بعض الخبراء أن مخاطر الذكاء الاصطناعي في الوقت الحاضر قد تصبح أكثر خطورة بشكل كبير مع تقدم الذكاء الاصطناعي.

ألهمت هذه المخاوف، من بين أمور أخرى، فرعًا ناشئًا من جهود المواءمة المتقدمة المعروفة باسم المواءمة الفائقة.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

ما هو الذكاء الاصطناعي الفائق ؟

لفهم الذكاء الاصطناعي الفائق (ASI)، من المفيد رؤيته في سياق الأنواع الأخرى من الذكاء الاصطناعي: الذكاء الاصطناعي المحدود (ANI) والذكاء الاصطناعي العام (AGI). يمكننا تصنيف الأنواع الثلاثة بناءً على قدراتها:

  • ANI: في المستوى الأول توجد أنظمة الذكاء الاصطناعي التي نستخدمها اليوم. تعتبر هذه الأنظمة ذكاء اصطناعي محدود (ANI) أو ذكاء اصطناعي ضعيف أو تقنيات الذكاء الاصطناعي المحدود. وتشمل الأمثلة الشائعة المركبات ذاتية القيادة والنماذج اللغوية الكبيرة وأدوات الذكاء الاصطناعي التوليدي.  

  • AGI: المستوى التالي هو الذكاء الاصطناعي القوي (AI)، والمعروف أيضًا باسم الذكاء الاصطناعي العام أو AGI. وعلى الرغم من أنه لا يزال نظريًا، إلا أن الذكاء الاصطناعي العام، إذا تحقق، سيكون له ذكاء على مستوى ذكاء الإنسان. في حين يركز الذكاء الاصطناعي الضعيف على أداء مهمة محددة، يمكن للذكاء الاصطناعي القوي أن يؤدي مجموعة متنوعة من الوظائف، وفي النهاية يعلّم نفسه حل مشاكل جديدة.

  • ASI: في المستوى الأعلى يوجد الذكاء الاصطناعي الفائق (ASI). أنظمة ASI هي تقنيات ذكاء اصطناعي افتراضية ذات نطاق فكري يتجاوز مستوى الذكاء البشري. سيكون للذكاء الاصطناعي الفائق وظائف معرفية متطورة ومهارات تفكير متطورة. ومع ذلك، فإن الجدوى الواقعية للذكاء الاصطناعي الفائق (ASI) موضع خلاف. لا تزال طريقة عمل الدماغ البشري غير مفهومة تمامًا—مما يجعل من الصعب إعادة إنشائها من خلال الخوارزميات وعلوم الكمبيوتر.
أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال.ومن المفهوم أيضًا أنه موضوع شائك.سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

لماذا نحتاج إلى المواءمة الفائقة؟

يحقق مجال الذكاء الاصطناعي اختراقات تقنية مثيرة للإعجاب. على سبيل المثال، يمكن لـ AlphaFold 3 من DeepMind التنبؤ بالتركيب الجزيئي والتفاعل بدقة غير عادية. ويمكن لـ GPT-4o من OpenAI التفكير في الوقت الفعلي.

رغم هذه التطورات، لا يزال الذكاء الاصطناعي ليس بشريًا. لا يهم الذكاء الاصطناعي في جوهره بالعقل أو الولاء أو السلامة. له هدف واحد: إكمال المهمة التي تمت برمجته من أجلها.

لذلك، يقع على عاتق مطوري الذكاء الاصطناعي مسؤولية بناء القيم والأهداف الإنسانية. وبخلاف ذلك، يحدث سوء التوافق ويمكن أن تنتج أنظمة الذكاء الاصطناعي مخرجات ضارة تؤدي إلى التحيز والتمييز والتضليل.

تعمل جهود المواءمة الحالية على الحفاظ على أنظمة الذكاء الاصطناعي الضعيفة متماشية مع القيم والأهداف الإنسانية. لكن أنظمة AGI و ASI يمكن أن تكون أكثر خطورة بشكل كبير، ويصعب فهمها وأكثر صعوبة في التحكم فيها. من المحتمل أن تكون تقنيات مواءمة الذكاء الاصطناعي الحالية، التي تعتمد على الذكاء البشري، غير ملائمة لمواءمة أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر.

على سبيل المثال، يعد التعلم المعزز من التعليقات البشرية (RLHF) إحدى تقنيات التعلم الآلي التي يتم فيها تدريب "نموذج المكافأة" باستخدام التعليقات البشرية المباشرة. استخدم OpenAI تقنية RLHF كطريقة رئيسية لمواءمة سلسلة نماذج GPT-3 و GPT-4 الخاصة به خلف ChatGPT، والتي تعتبر جميعها نماذج ذكاء اصطناعي ضعيفة. سيكون من الضروري استخدام تقنيات مواءمة أكثر تقدمًا بشكل كبير للمساعدة في ضمان امتلاك أنظمة الذكاء الاصطناعي الفائقة مستويات مماثلة من المتانة وقابلية التفسير وقابلية التحكم والأخلاقيات.

ما هي مخاطر أنظمة الذكاء الاصطناعي المتقدمة؟

بدون المواءمة الفائقة، يمكن أن تؤدي أنظمة الذكاء الاصطناعي المتقدمة إلى العديد من المخاطر، بما في ذلك:

  • فقدان التحكم
  • عواقب غير مقصودة
  • التحيز والتمييز
  • الاضطراب الاجتماعي والاقتصادي
  • الاعتماد على الذكاء الاصطناعي

فقدان التحكم

إذا أصبحت أنظمة الذكاء الاصطناعي المتقدمة معقدة للغاية وغير متوائمة بحيث يستحيل الإشراف البشري عليها، فقد تكون نتائجها غير متوقعة ولا يمكن السيطرة عليها. يعتبر الخبراء أن سيناريو استيلاء الروبوتات الآلية على الإنسان أمرًا مستبعدًا. ومع ذلك، فإن نظام AGI أو ASI الذي ينحرف بعيدًا جدًا عن أهدافه المقصودة يمكن أن يكون كارثيًا في المواقف عالية الخطورة، مثل البنية التحتية الحساسة أو الدفاع الوطني.

عواقب غير مقصودة

يمكن أن يسعى الذكاء الاصطناعي فائق الذكاء إلى تحقيق الأهداف بطرق ضارة وجوديًا بالبشرية. ومن الأمثلة الشائعة التي يتم الاستشهاد بها هو تجربة الفيلسوف Nick Bostrom الفكرية لتعظيم صنع مشبك الورق حيث تمت برمجة نموذج الذكاء الاصطناعي الفائق لصنع مشابك الورق. وبفضل قوة الحوسبة الفائقة، يقوم النموذج في نهاية المطاف بتحويل كل شيء—حتى أجزاء من الفضاء—إلى مرافق لتصنيع المشابك الورقية في سبيل تحقيق هدفه.1

التحيز والتمييز

في حين أن هناك العديد من الطرق الموثوقة للتخفيف من التحيز في أنظمة الذكاء الاصطناعي، إلا أن المخاطر لا تزال تمثل اعتبارًا للذكاء الاصطناعي في المستقبل. يمكن لأنظمة الذكاء الاصطناعي المتقدمة أن تديم التحيزات البشرية بنتائج غير عادلة أو تمييزية. نظرًا لتعقيد النظام، قد يكون من الصعب تحديد هذه النتائج المتحيزة والتخفيف من حدتها. يعتبر تحيز الذكاء الاصطناعي مقلقًا بشكل خاص عند وجوده في مجالات مثل الرعاية الصحية وإنفاذ القانون والموارد البشرية

الاضطراب الاجتماعي والاقتصادي

يمكن أن تستغل الجهات الفاعلة السيئة الذكاء الاصطناعي الفائق لأغراض شنيعة مثل السيطرة الاجتماعية أو القرصنة المالية على نطاق واسع. ومع ذلك، يمكن أن يحدث اضطراب مجتمعي واقتصادي أيضًا إذا تبنت الصناعات الذكاء الاصطناعي المتقدم دون الأطر القانونية اللازمة.

على سبيل المثال، يتم استخدام وكلاء الذكاء الاصطناعي المالي بشكل متزايد في مهام مثل التداول أو إدارة الأصول—ولكن غالباً ما تكون المساءلة عن أفعالهم غير واضحة. من هو المسؤول إذا انتهك وكيل الذكاء الاصطناعي لوائح لجنة الأوراق المالية والبورصات؟ ومع نضوج التقنية، يمكن أن يؤدي انعدام المساءلة هذا إلى انعدام الثقة وعدم الاستقرار.2

الاعتماد على الذكاء الاصطناعي

تثير بعض المحادثات حول الذكاء الاصطناعي الفائق القلق من أن يصبح البشر في نهاية المطاف معتمدين بشكل كبير على أنظمة الذكاء الاصطناعي المتقدمة. ونتيجة لذلك، من المحتمل أن نفقد القدرات المعرفية وقدرات صنع القرار. وبالمثل، فإن الاعتماد بشكل كبير على الذكاء الاصطناعي في مجالات مثل الأمن السيبراني يمكن أن يؤدي إلى تهاون الفرق البشرية. الذكاء الاصطناعي ليس معصومًا عن الخطأ ولا تزال الرقابة البشرية ضرورية للمساعدة في ضمان تخفيف جميع التهديدات. 

تقنيات المواءمة الفائقة

هناك حاليًا العديد من التقنيات لمواءمة الذكاء الاصطناعي، بما في ذلك التعلم المعزز من التعليقات البشرية (RLHF)،ونهج البيانات الصناعية  والاختبار العدائي. ولكن من المرجح أن تكون هذه الطرق غير كافية لمواءمة نماذج الذكاء الاصطناعي فائقة الذكاء. وحتى وقت كتابة هذا التقرير، لا يوجد لا الذكاء الاصطناعي العام (AGI) ولا الذكاء الاصطناعي الفائق (ASI)، ولا توجد طرق مثبتة لمواءمة هذه الأنظمة الأكثر تعقيدًا من الذكاء الاصطناعي.

ومع ذلك، هناك العديد من أفكار المواءمة الفائقة ذات نتائج بحثية واعدة:

الإشراف القابل للتوسع

كبشر، لا يمكننا الإشراف بشكل موثوق على أنظمة الذكاء الاصطناعي الأكثر ذكاءً منا. الإشراف القابل للتوسع هو طريقة تدريب قابل للتوسع حيث يمكن للبشر استخدام أنظمة الذكاء الاصطناعي الأضعف للمساعدة في مواءمة أنظمة الذكاء الاصطناعي الأكثر تعقيداً.

الأبحاث لاختبار هذه التقنية وتوسيع نطاقها محدودة—لأن أنظمة الذكاء الاصطناعي فائقة الذكاء غير موجودة بعد. ومع ذلك، أجرى الباحثون في Anthropic (شركة أبحاث وسلامة الذكاء الاصطناعي) تجربة إثبات صحة المفهوم.

في التجربة، تم توجيه المشاركين من البشر للإجابة على الأسئلة بمساعدة نموذج لغوي كبير. تفوق هؤلاء البشر المدعومون بمساعدة الذكاء الاصطناعي على كل من النموذج بمفرده والبشر غير المدعومين في مقياس الدقة. وقال الباحثون في النتائج التي توصلوا إليها إن هذه النتائج مشجعة وتساعد في تأكيد فكرة أن أجهزة التعلم الآلي القابلة للتوسع "يمكن أن تساعد البشر على إنجاز المهام الصعبة في البيئات ذات الصلة بالإشراف القابل للتوسع."3

التعميم من ضعيف إلى قوي

التعميم هو قدرة أنظمة الذكاء الاصطناعي على عمل تنبؤات موثوقة من البيانات التي لم يتم تدريبها عليها. التعميم من الضعيف إلى القوي هو أسلوب تدريب للذكاء الاصطناعي تُستخدم فيه النماذج الأضعف لتدريب نماذج أقوى لأداء أفضل على البيانات الجديدة، مما يحسّن التعميم.

ناقش فريق المواءمة الفائقة في OpenAI—بقيادة Ilya Sutskever (المؤسس المشارك لشركة OpenAI وكبير العلماء السابقين) و Jan Leike (الرئيس السابق للمواءمة)—التعميم من الضعيف إلى القوي في ورقته البحثية الأولى. استخدمت التجربة نموذجًا "ضعيفًا" على مستوى GPT-2 من أجل ضبط نموذج المستوى GPT-4. باستخدام هذه الطريقة، وجد الفريق أن أداء النموذج الناتج كان بين مستوى نموذج GPT-3 و GPT-3.5. وخلصوا إلى أنه باستخدام الأساليب الضعيفة إلى القوية يمكنهم تحسين التعميم بشكل هادف.

فيما يتعلق بالمواءمة الفائقة، يُظهر هذا العرض التوضيحي لإثبات المفهوم أن التحسين الكبير للتعميم من الضعيف إلى القوي ممكن. ووفقًا للورقة البحثية الناتجة عن الفريق البحثي، "من الممكن إحراز تقدم تجريبي اليوم في التحدي الأساسي المتمثل في مواءمة النماذج الفائقة."4 كما أظهرت دراسة متابعة من جامعة بكين جياوتونغ الصينية أنه يمكن تحسين التعميم من الضعيف إلى القوي باستخدام الإشراف القابل للتوسع.5

ومع ذلك، تم حل فريق المواءمة الفائقة في OpenAI في مايو 2024 بسبب التحولات ذات الأولوية داخل الشركة. وفي منشور على وسائل التواصل الاجتماعي، شكر الرئيس التنفيذي Sam Altman الفريق وقال إن OpenAI "[وضع] الأسس اللازمة للنشر الآمن للأنظمة ذات القدرات المتزايدة."6

أبحاث المواءمة الآلية

في أسفل مسار المواءمة توجد أبحاث المواءمة الآلية. تستخدم تقنية المواءمة الفائقة هذه أنظمة ذكاء اصطناعي تتجاوز الذكاء البشري متوافقة بالفعل لإجراء أبحاث المواءمة الآلية. سيكون "باحثو الذكاء الاصطناعي" هؤلاء أسرع وأكثر ذكاءً من الباحثين البشريين. مع هذه المزايا، يمكنهم ابتكار تقنيات جديدة للمواءمة الفائقة. بدلاً من تطوير أبحاث التوافق الفني وتنفيذها بشكل مباشر، يفضل الباحثون البشريون مراجعة الأبحاث التي تم إنشاؤها.

يصف Leopold Aschenbrenner، مستثمر الذكاء الاصطناعي العام والعضو السابق في فريق المواءمة الفائقة في OpenAI، الإمكانات الهائلة لهذه التقنية: "إذا تمكنا من مواءمة الأنظمة الفائقة إلى حد ما بما يكفي للوثوق بها =، فسنكون في وضع لا يصدق: سيكون لدينا الملايين من الباحثين الآليين في مجال الذكاء الاصطناعي، أكثر ذكاء من أفضل الباحثين في مجال الذكاء الاصطناعي، تحت تصرفنا."7

المواءمة الفائقة مقابل ابتكار الذكاء الاصطناعي

تواجه المواءمة الفائقة العديد من التحديات. على سبيل المثال، من الذي يحدد معيار القيم والأهداف والأخلاق؟ ولكن هناك تحدٍ واحد يلقي بظلاله عليها جميعًا: من الصعب للغاية ابتكار تقنيات مواءمة موثوقة لأنظمة الذكاء الاصطناعي القوية التي لا تتفوق علينا في الذكاء فحسب، بل هي موجودة نظريًا فقط.

يواجه خبراء الصناعة أيضًا خلافات فلسفية بشأن المواءمة الفائقة. على سبيل المثال، تفترض بعض مختبرات الذكاء الاصطناعي أن تركيز جهود تطوير الذكاء الاصطناعي على مواءمة أنظمة الذكاء الاصطناعي المستقبلية قد يعيق أولويات الذكاء الاصطناعي الحالية والأبحاث الجديدة. على الجانب الآخر، يجادل مؤيدو سلامة الذكاء الاصطناعي بأن مخاطر الذكاء الاصطناعي الفائق شديدة للغاية بحيث لا يمكن تجاهلها وتفوق الفوائد المحتملة.

ألهم خط التفكير الأخير كبير العلماء السابق في OpenAI، Ilya Sutskever، للانضمام إلى المستثمر Daniel Gross والباحث السابق Daniel Levy في OpenAI في إنشاء شركة Safe Superintelligence Inc. ينصب التركيز الوحيد للشركة الناشئة على "بناء ذكاء فائق آمن (SSI)" دون "تشتيت الانتباه عن طريق الإدارة أو النفقات العامة أو دورات المنتج" والتقدم "المعزول عن الضغوط التجارية قصيرة الأجل".8

الحواشي

الروابط خارج موقع ibm.com.

1Ethical Issues in Advanced Artificial Intelligence,” Nick Bostrom, n.d.

2Will Financial AI Agents Destroy The Economy?,” The Tech Buzz, 25 October 2024.

3 Measuring Progress on Scalable Oversight for Large Language Models,” Anthropic, 4 November 2022.

4Weak-to-strong generalization,” OpenAI, 14 December 2023.

5Improving Weak-to-Strong Generalization with Scalable Oversight and Ensemble Learning,” arXiv, 1 February 2024.

6 X post, Greg Brockman, 18 May 2024.

7Superalignment,” Situational Awareness: The Decade Ahead, June 2024.

8Superintelligence is within reach,” Safe Superintelligence Inc., 19 June 2024.

حلول ذات صلة
™IBM® watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول حوكمة الذكاء الاصطناعي

اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

اكتشف خدمات إدارة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا