قد تتفوّق النماذج اللغوية الكبيرة في إعطاء إرشادات عبر شوارع مدينة نيويورك، لكن يكشف بحثًا جديدًا أنها تفعل ذلك دون أن تفهم فعليًا كيف تتناسب المدينة مع بعضها البعض. وتنهار هذه النماذج بشكل لافت عندما تواجه منعطفات بسيطة، كاشفةً أن خبرتها الظاهرية ليست سوى مطابقة أنماط متقدمة.
تتطرق هذه النتائج إلى صميم سؤال محوري في الذكاء الاصطناعي: هل تطوّر أنظمة الذكاء الاصطناعي فعليًا "نماذج للعالم"، أي فهمًا متماسكًا لكيفية عمل الأشياء وترابطها، أم أنها مجرد تجيد محاكاة السلوك الصحيح دون أي استيعاب حقيقي؟.
يقول Ashesh Rambachan، الأستاذ المساعد في الاقتصاد بمعهد ماساتشوستس للتكنولوجيا (MIT) وأحد مؤلفي الورقة البحثية: "ما نجده في عملنا هو أن النماذج التوليدية يمكن أن تنتج مخرجات مثيرة للإعجاب من دون استعادة النموذج العالمي الأساسي". "عندما نرى هذه المخرجات المثيرة للإعجاب، فمن الطبيعي أن نفترض أن هذه النماذج التوليدية تتعلّم حقيقة ما كامنة عن العالم، ففي النهاية، من الصعب عليّ أن أتخيل شخصًا يستطيع الانتقال من النقطة أ إلى النقطة ب في مدينة نيويورك من دون أن يكون لديه فهم لخريطتها".
إن التحدي الجوهري الذي يكشف عنه البحث، بحسب Brent Smolinksi، نائب رئيس شركة ®IBM والشريك الأول ورئيس قسم التكنولوجيا والبيانات واستراتيجية الذكاء الاصطناعي عالميًا، هو أن نموذج اللغة الكبير "لا يستطيع القيام بالاستدلال المنطقي الاستنباطي". فإنه لم يتم إعداده للقيام بذلك. وإنما تم إعداده للتعرف على الأنماط والرد على تلك الأنماط".
طور فريق Rambachan طريقتين جديدتين لقياس مدى فهم نماذج الذكاء الاصطناعي لبيئتها: التمييز بين التسلسل وضغط التسلسل. وقد اختبر هذه المقاييس باستخدام الأتمتة الحتمية المحدودة (DFA) في سيناريوهين: التنقل في مدينة نيويورك ولعب Othello.
ما اكتشفه الفريق كان مفاجئًا. طوّرت النماذج التي تعلمت من الحركات العشوائية فهمًا أفضل من تلك التي تم تدريبها على اللعب الاستراتيجي. ما السبب في ذلك؟ عمل التدريب العشوائي على تعريض النماذج للعديد من المواقف والتحولات المحتملة، مما أعطاها صورة أكثر اكتمالاً عن بيئتها مقارنةً بالنماذج التي لم ترَ سوى تحركات استراتيجية "مثالية".
وعندما اختبر الباحثون أنظمة الذكاء الاصطناعي هذه تحت ضغط، اكتشفوا فجوة مُقلقة بين الأداء والفهم. وبدت الأنظمة مثيرة للإعجاب ظاهريًا - يمكنها توليد حركات واتجاهات صحيحة بدقة عالية. ولكن أسفل هذه الواجهة، فشل كل نموذج تقريبًا في الاختبارات الأساسية للنمذجة العالمية.
مثال على ذلك جاء من اختبارات التنقل في مدينة نيويورك. انهارت نماذج التنقل عندما أجرى الباحثون تغييرات بسيطة على خريطة المدينة عن طريق إضافة منعطفات. وكشف هذا عن أن النماذج لم تفهم في الواقع جغرافية المدينة أو مبادئ التوجيه على الإطلاق، كانت تقدم اقتراحات صحيحة سطحيًا من دون أي فهم حقيقي.
ويشير هذا إلى نقطة ضعف حاسمة في أنظمة الذكاء الاصطناعي الحالية: يمكن أن تكون جيدة جدًا في وضع التنبؤات بينما تحتاج إلى فهم أكثر واقعية لما تعمل عليه. ووفقًا لـ Smolinski، قد تبدو النماذج اللغوية الكبيرة ذكية، لكنها جيدة جدًا في مطابقة الأنماط بدلاً من الاستدلال الفعلي (الاستنتاجي). وقال إنه عندما تظهر أنظمة الذكاء الاصطناعي هذه لحل المشاكل المنطقية، فإنها تتعرف فقط على الأنماط التي واجهتها من قبل، ولا تفكر في الأمور خطوة بخطوة.
ويجادل Smolinksi بأن التمييز الرئيسي هو أننا نحتاج إلى أنواع مختلفة من تقنيات الذكاء الاصطناعي التي تعمل معًا، على سبيل المثال، قد يكون لديك تقنية واحدة للتعرف على الأنماط، وأخرى لتمثيل المعرفة، وثالثة للتفكير المنطقي من أجل حل مشكلة ما.
وإن الاكتشاف القائل بأن أكثر أنظمة الذكاء الاصطناعي تطورًا اليوم قادرة على اجتياز الاختبارات دون فهم حقيقي يمس جوهر النقاش المحتدم الذي يستهلك عاصمة التكنولوجيا (وادي السيليكون) حاليًا: هل الذكاء الاصطناعي العام قريب جدًا أم لا يزال بعيد المنال جوهريًا؟.
أصبح السباق نحو تحقيق الذكاء الاصطناعي العام (AGI) أحد أكثر المناقشات إثارة للجدل في مجال التكنولوجيا، مما يسلط الضوء على تعمق الخلاف بين المتفائلين والمشككين. وفي قاعات الاجتماعات ومختبرات الأبحاث في جميع أنحاء وادي السيليكون، تتمحور المحادثات بشكل متزايد ليس فقط حول ما إذا كانت الآلات ستضاهي قدرات الإنسان المعرفية، بل أيضًا حول متى سيحدث ذلك.
أدى الجدول الزمني لتطوير الذكاء الاصطناعي العام إلى تقسيم مجتمع الذكاء الاصطناعي إلى معسكرين متميزين. فمن ناحية يقف المتفائلون بالتقنية، الذين ينظرون إلى الذكاء الاصطناعي العام على أنه إنجاز وشيك يمكن أن يعيد تشكيل الحضارة خلال حياتنا. وعلى الجانب الآخر هناك الواقعيون، الذين يحذرون من أننا قد نكون على بُعد عقود من الزمن من الآلات التي تفكر حقًا مثل البشر.
وهذا الخلاف الجوهري حول جداول الذكاء الاصطناعي العام ليس مجرد أمر أكاديمي - بل يشكل أولويات البحث وقرارات الاستثمار والنقاشات السياسية حول سلامة وتنظيم الذكاء الاصطناعي. ومع تدفق مليارات الدولارات في البحث وتطوير الذكاء الاصطناعي العام، تستمر مخاطر هذا النقاش في الارتفاع.
بينما اقترح بعض قادة التكنولوجيا البارزين مثل Sam Altman من OpenAI أن الذكاء الاصطناعي العام، أي أنظمة الذكاء الاصطناعي التي يمكنها مجاراة أو تجاوز مستوى الإدراك البشري في جميع المهام تقريبًا، قد تصل خلال سنوات، يقدم Smolinski من IBM رؤية أكثر تشككًا. وهو يزعم أن أنظمة الذكاء الاصطناعي الحالية، ولا سيما النماذج اللغوية الكبيرة، تقتصر بشكل أساسي على مطابقة الأنماط بدلاً من التفكير الفعلي.
بدلاً من أن نكون على أعتاب الذكاء المشابه للذكاء البشري، يشير Smolinski إلى أننا "ربما بعيدين جدًا" عندما يتعلق الأمر بالهندسة المعمارية اللازمة للوصول إلى الذكاء الاصطناعي العام الحقيقي (AGI). وكما يقول مباشرة: "أود أن أميز بين الذكاء الاصطناعي المفيد في حل مشاكل محددة عن الذكاء الاصطناعي العام... وعندما أفكر في وجود نظام يعمل مثل الإنسان، ولديه نفس نوع عمليات التفكير التي يقوم بها الإنسان، أو حل المشكلات... أُدرك أننا على بُعد سنوات عديدة من ذلك. وقد لا نصل إلى هناك أبدًا".
يقوم Smolinski بتقسيم قدرات الذكاء الاصطناعي إلى فئات واضحة تخدم كل منها أغراضًا مختلفة. فمن ناحية، لديك نماذج لغوية كبيرة حديثة شبيهة بالذكاء الاصطناعي ممتازة في التعرف على الأنماط، مثل رؤية أوجه التشابه والاتجاهات في البيانات. وعلى العكس من ذلك، لديك أنظمة تقليدية قائمة على القواعد يمكنها اتباع خطوات منطقية. ويوضح أن التحدي الحقيقي لا يتمثل في تحسين أي من النوعين، بل في اكتشاف كيفية الجمع بينهما بشكل فعال.
يقترح Smolinski أن الذكاء الاصطناعي العصبي الرمزي قد يوفر أحد المسارات للمضي قدمًا. ويحاول هذا الفرع من الذكاء الاصطناعي دمج الشبكات العصبية مع التفكير الرمزي، على الرغم من أن إمكاناته النهائية لا تزال غير واضحة. ويمكن لهذه الأنظمة الهجينة التعلم من البيانات غير المنسقة وتطبيق القواعد المنطقية. وتساعد هذه الطبيعة المزدوجة الآلات على التعامل مع التحديات المعقدة، بدءًا من تحليل اللغة الطبيعية وحتى حل المشكلات في البيئات الديناميكية مع توفير تفسيرات أكثر وضوحًا لقراراتها.
قال: "أعتقد أنه يظهر أكبر قدر من الأمل للذكاء الحقيقي".