لا يزال الذكاء الاصطناعي الفائق (ASI) مجرد مفهوم افتراضي. لذلك، تركز جهود مواءمة الذكاء الاصطناعي الحالية إلى حد كبير على جعل نماذج الذكاء الاصطناعي الحالية مفيدة وآمنة وموثوقة. على سبيل المثال، تساعد المواءمة على ضمان أن روبوتات المحادثة المدعومة بالذكاء الاصطناعي مثل ChatGPT لا تديم التحيز البشري أو لا يمكن استغلالها من قِبل جهات سيئة النية.
ولكن كلما أصبح الذكاء الاصطناعي أكثر تعقيداً وتطوراً، أصبح من الصعب توقع مخرجاته ومواءمتها مع النوايا البشرية. هذا التحدي يُشار إليه بشكل أكثر باسم "مشكلة المواءمة". هناك قلق من أن أنظمة الذكاء الاصطناعي فائقة الذكاء يمكن أن تصل يومًا ما إلى نقطة الانهيار وتتحايل على السيطرة البشرية تمامًا. ويعتقد بعض الخبراء أن مخاطر الذكاء الاصطناعي في الوقت الحاضر قد تصبح أكثر خطورة بشكل كبير مع تقدم الذكاء الاصطناعي.
ألهمت هذه المخاوف، من بين أمور أخرى، فرعًا ناشئًا من جهود المواءمة المتقدمة المعروفة باسم المواءمة الفائقة.
لفهم الذكاء الاصطناعي الفائق (ASI)، من المفيد رؤيته في سياق الأنواع الأخرى من الذكاء الاصطناعي: الذكاء الاصطناعي المحدود (ANI) والذكاء الاصطناعي العام (AGI). يمكننا تصنيف الأنواع الثلاثة بناءً على قدراتها:
يحقق مجال الذكاء الاصطناعي اختراقات تقنية مثيرة للإعجاب. على سبيل المثال، يمكن لـ AlphaFold 3 من DeepMind التنبؤ بالتركيب الجزيئي والتفاعل بدقة غير عادية. ويمكن لـ GPT-4o من OpenAI التفكير في الوقت الفعلي.
رغم هذه التطورات، لا يزال الذكاء الاصطناعي ليس بشريًا. لا يهم الذكاء الاصطناعي في جوهره بالعقل أو الولاء أو السلامة. له هدف واحد: إكمال المهمة التي تمت برمجته من أجلها.
لذلك، يقع على عاتق مطوري الذكاء الاصطناعي مسؤولية بناء القيم والأهداف الإنسانية. وبخلاف ذلك، يحدث سوء التوافق ويمكن أن تنتج أنظمة الذكاء الاصطناعي مخرجات ضارة تؤدي إلى التحيز والتمييز والتضليل.
تعمل جهود المواءمة الحالية على الحفاظ على أنظمة الذكاء الاصطناعي الضعيفة متماشية مع القيم والأهداف الإنسانية. لكن أنظمة AGI و ASI يمكن أن تكون أكثر خطورة بشكل كبير، ويصعب فهمها وأكثر صعوبة في التحكم فيها. من المحتمل أن تكون تقنيات مواءمة الذكاء الاصطناعي الحالية، التي تعتمد على الذكاء البشري، غير ملائمة لمواءمة أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر.
على سبيل المثال، يعد التعلم المعزز من التعليقات البشرية (RLHF) إحدى تقنيات التعلم الآلي التي يتم فيها تدريب "نموذج المكافأة" باستخدام التعليقات البشرية المباشرة. استخدم OpenAI تقنية RLHF كطريقة رئيسية لمواءمة سلسلة نماذج GPT-3 و GPT-4 الخاصة به خلف ChatGPT، والتي تعتبر جميعها نماذج ذكاء اصطناعي ضعيفة. سيكون من الضروري استخدام تقنيات مواءمة أكثر تقدمًا بشكل كبير للمساعدة في ضمان امتلاك أنظمة الذكاء الاصطناعي الفائقة مستويات مماثلة من المتانة وقابلية التفسير وقابلية التحكم والأخلاقيات.
بدون المواءمة الفائقة، يمكن أن تؤدي أنظمة الذكاء الاصطناعي المتقدمة إلى العديد من المخاطر، بما في ذلك:
إذا أصبحت أنظمة الذكاء الاصطناعي المتقدمة معقدة للغاية وغير متوائمة بحيث يستحيل الإشراف البشري عليها، فقد تكون نتائجها غير متوقعة ولا يمكن السيطرة عليها. يعتبر الخبراء أن سيناريو استيلاء الروبوتات الآلية على الإنسان أمرًا مستبعدًا. ومع ذلك، فإن نظام AGI أو ASI الذي ينحرف بعيدًا جدًا عن أهدافه المقصودة يمكن أن يكون كارثيًا في المواقف عالية الخطورة، مثل البنية التحتية الحساسة أو الدفاع الوطني.
يمكن أن يسعى الذكاء الاصطناعي فائق الذكاء إلى تحقيق الأهداف بطرق ضارة وجوديًا بالبشرية. ومن الأمثلة الشائعة التي يتم الاستشهاد بها هو تجربة الفيلسوف Nick Bostrom الفكرية لتعظيم صنع مشبك الورق حيث تمت برمجة نموذج الذكاء الاصطناعي الفائق لصنع مشابك الورق. وبفضل قوة الحوسبة الفائقة، يقوم النموذج في نهاية المطاف بتحويل كل شيء—حتى أجزاء من الفضاء—إلى مرافق لتصنيع المشابك الورقية في سبيل تحقيق هدفه.1
في حين أن هناك العديد من الطرق الموثوقة للتخفيف من التحيز في أنظمة الذكاء الاصطناعي، إلا أن المخاطر لا تزال تمثل اعتبارًا للذكاء الاصطناعي في المستقبل. يمكن لأنظمة الذكاء الاصطناعي المتقدمة أن تديم التحيزات البشرية بنتائج غير عادلة أو تمييزية. نظرًا لتعقيد النظام، قد يكون من الصعب تحديد هذه النتائج المتحيزة والتخفيف من حدتها. يعتبر تحيز الذكاء الاصطناعي مقلقًا بشكل خاص عند وجوده في مجالات مثل الرعاية الصحية وإنفاذ القانون والموارد البشرية.
يمكن أن تستغل الجهات الفاعلة السيئة الذكاء الاصطناعي الفائق لأغراض شنيعة مثل السيطرة الاجتماعية أو القرصنة المالية على نطاق واسع. ومع ذلك، يمكن أن يحدث اضطراب مجتمعي واقتصادي أيضًا إذا تبنت الصناعات الذكاء الاصطناعي المتقدم دون الأطر القانونية اللازمة.
على سبيل المثال، يتم استخدام وكلاء الذكاء الاصطناعي المالي بشكل متزايد في مهام مثل التداول أو إدارة الأصول—ولكن غالباً ما تكون المساءلة عن أفعالهم غير واضحة. من هو المسؤول إذا انتهك وكيل الذكاء الاصطناعي لوائح لجنة الأوراق المالية والبورصات؟ ومع نضوج التقنية، يمكن أن يؤدي انعدام المساءلة هذا إلى انعدام الثقة وعدم الاستقرار.2
تثير بعض المحادثات حول الذكاء الاصطناعي الفائق القلق من أن يصبح البشر في نهاية المطاف معتمدين بشكل كبير على أنظمة الذكاء الاصطناعي المتقدمة. ونتيجة لذلك، من المحتمل أن نفقد القدرات المعرفية وقدرات صنع القرار. وبالمثل، فإن الاعتماد بشكل كبير على الذكاء الاصطناعي في مجالات مثل الأمن السيبراني يمكن أن يؤدي إلى تهاون الفرق البشرية. الذكاء الاصطناعي ليس معصومًا عن الخطأ ولا تزال الرقابة البشرية ضرورية للمساعدة في ضمان تخفيف جميع التهديدات.
هناك حاليًا العديد من التقنيات لمواءمة الذكاء الاصطناعي، بما في ذلك التعلم المعزز من التعليقات البشرية (RLHF)،ونهج البيانات الصناعية والاختبار العدائي. ولكن من المرجح أن تكون هذه الطرق غير كافية لمواءمة نماذج الذكاء الاصطناعي فائقة الذكاء. وحتى وقت كتابة هذا التقرير، لا يوجد لا الذكاء الاصطناعي العام (AGI) ولا الذكاء الاصطناعي الفائق (ASI)، ولا توجد طرق مثبتة لمواءمة هذه الأنظمة الأكثر تعقيدًا من الذكاء الاصطناعي.
ومع ذلك، هناك العديد من أفكار المواءمة الفائقة ذات نتائج بحثية واعدة:
كبشر، لا يمكننا الإشراف بشكل موثوق على أنظمة الذكاء الاصطناعي الأكثر ذكاءً منا. الإشراف القابل للتوسع هو طريقة تدريب قابل للتوسع حيث يمكن للبشر استخدام أنظمة الذكاء الاصطناعي الأضعف للمساعدة في مواءمة أنظمة الذكاء الاصطناعي الأكثر تعقيداً.
الأبحاث لاختبار هذه التقنية وتوسيع نطاقها محدودة—لأن أنظمة الذكاء الاصطناعي فائقة الذكاء غير موجودة بعد. ومع ذلك، أجرى الباحثون في Anthropic (شركة أبحاث وسلامة الذكاء الاصطناعي) تجربة إثبات صحة المفهوم.
في التجربة، تم توجيه المشاركين من البشر للإجابة على الأسئلة بمساعدة نموذج لغوي كبير. تفوق هؤلاء البشر المدعومون بمساعدة الذكاء الاصطناعي على كل من النموذج بمفرده والبشر غير المدعومين في مقياس الدقة. وقال الباحثون في النتائج التي توصلوا إليها إن هذه النتائج مشجعة وتساعد في تأكيد فكرة أن أجهزة التعلم الآلي القابلة للتوسع "يمكن أن تساعد البشر على إنجاز المهام الصعبة في البيئات ذات الصلة بالإشراف القابل للتوسع."3
التعميم هو قدرة أنظمة الذكاء الاصطناعي على عمل تنبؤات موثوقة من البيانات التي لم يتم تدريبها عليها. التعميم من الضعيف إلى القوي هو أسلوب تدريب للذكاء الاصطناعي تُستخدم فيه النماذج الأضعف لتدريب نماذج أقوى لأداء أفضل على البيانات الجديدة، مما يحسّن التعميم.
ناقش فريق المواءمة الفائقة في OpenAI—بقيادة Ilya Sutskever (المؤسس المشارك لشركة OpenAI وكبير العلماء السابقين) و Jan Leike (الرئيس السابق للمواءمة)—التعميم من الضعيف إلى القوي في ورقته البحثية الأولى. استخدمت التجربة نموذجًا "ضعيفًا" على مستوى GPT-2 من أجل ضبط نموذج المستوى GPT-4. باستخدام هذه الطريقة، وجد الفريق أن أداء النموذج الناتج كان بين مستوى نموذج GPT-3 و GPT-3.5. وخلصوا إلى أنه باستخدام الأساليب الضعيفة إلى القوية يمكنهم تحسين التعميم بشكل هادف.
فيما يتعلق بالمواءمة الفائقة، يُظهر هذا العرض التوضيحي لإثبات المفهوم أن التحسين الكبير للتعميم من الضعيف إلى القوي ممكن. ووفقًا للورقة البحثية الناتجة عن الفريق البحثي، "من الممكن إحراز تقدم تجريبي اليوم في التحدي الأساسي المتمثل في مواءمة النماذج الفائقة."4 كما أظهرت دراسة متابعة من جامعة بكين جياوتونغ الصينية أنه يمكن تحسين التعميم من الضعيف إلى القوي باستخدام الإشراف القابل للتوسع.5
ومع ذلك، تم حل فريق المواءمة الفائقة في OpenAI في مايو 2024 بسبب التحولات ذات الأولوية داخل الشركة. وفي منشور على وسائل التواصل الاجتماعي، شكر الرئيس التنفيذي Sam Altman الفريق وقال إن OpenAI "[وضع] الأسس اللازمة للنشر الآمن للأنظمة ذات القدرات المتزايدة."6
في أسفل مسار المواءمة توجد أبحاث المواءمة الآلية. تستخدم تقنية المواءمة الفائقة هذه أنظمة ذكاء اصطناعي تتجاوز الذكاء البشري متوافقة بالفعل لإجراء أبحاث المواءمة الآلية. سيكون "باحثو الذكاء الاصطناعي" هؤلاء أسرع وأكثر ذكاءً من الباحثين البشريين. مع هذه المزايا، يمكنهم ابتكار تقنيات جديدة للمواءمة الفائقة. بدلاً من تطوير أبحاث التوافق الفني وتنفيذها بشكل مباشر، يفضل الباحثون البشريون مراجعة الأبحاث التي تم إنشاؤها.
يصف Leopold Aschenbrenner، مستثمر الذكاء الاصطناعي العام والعضو السابق في فريق المواءمة الفائقة في OpenAI، الإمكانات الهائلة لهذه التقنية: "إذا تمكنا من مواءمة الأنظمة الفائقة إلى حد ما بما يكفي للوثوق بها =، فسنكون في وضع لا يصدق: سيكون لدينا الملايين من الباحثين الآليين في مجال الذكاء الاصطناعي، أكثر ذكاء من أفضل الباحثين في مجال الذكاء الاصطناعي، تحت تصرفنا."7
تواجه المواءمة الفائقة العديد من التحديات. على سبيل المثال، من الذي يحدد معيار القيم والأهداف والأخلاق؟ ولكن هناك تحدٍ واحد يلقي بظلاله عليها جميعًا: من الصعب للغاية ابتكار تقنيات مواءمة موثوقة لأنظمة الذكاء الاصطناعي القوية التي لا تتفوق علينا في الذكاء فحسب، بل هي موجودة نظريًا فقط.
يواجه خبراء الصناعة أيضًا خلافات فلسفية بشأن المواءمة الفائقة. على سبيل المثال، تفترض بعض مختبرات الذكاء الاصطناعي أن تركيز جهود تطوير الذكاء الاصطناعي على مواءمة أنظمة الذكاء الاصطناعي المستقبلية قد يعيق أولويات الذكاء الاصطناعي الحالية والأبحاث الجديدة. على الجانب الآخر، يجادل مؤيدو سلامة الذكاء الاصطناعي بأن مخاطر الذكاء الاصطناعي الفائق شديدة للغاية بحيث لا يمكن تجاهلها وتفوق الفوائد المحتملة.
ألهم خط التفكير الأخير كبير العلماء السابق في OpenAI، Ilya Sutskever، للانضمام إلى المستثمر Daniel Gross والباحث السابق Daniel Levy في OpenAI في إنشاء شركة Safe Superintelligence Inc. ينصب التركيز الوحيد للشركة الناشئة على "بناء ذكاء فائق آمن (SSI)" دون "تشتيت الانتباه عن طريق الإدارة أو النفقات العامة أو دورات المنتج" والتقدم "المعزول عن الضغوط التجارية قصيرة الأجل".8
الروابط خارج موقع ibm.com.
1 “Ethical Issues in Advanced Artificial Intelligence,” Nick Bostrom, n.d.
2 “Will Financial AI Agents Destroy The Economy?,” The Tech Buzz, 25 October 2024.
3 “Measuring Progress on Scalable Oversight for Large Language Models,” Anthropic, 4 November 2022.
4 “Weak-to-strong generalization,” OpenAI, 14 December 2023.
5 “Improving Weak-to-Strong Generalization with Scalable Oversight and Ensemble Learning,” arXiv, 1 February 2024.
6 X post, Greg Brockman, 18 May 2024.
7 “Superalignment,” Situational Awareness: The Decade Ahead, June 2024.
8 “Superintelligence is within reach,” Safe Superintelligence Inc., 19 June 2024.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.