يشير الاستدلال في الذكاء الاصطناعي (AI) إلى آلية استخدام المعلومات المتاحة لتوليد التنبؤات وإجراء الاستنتاجات واستخلاص النتائج. يتضمن تمثيل البيانات في شكل يمكن للآلة معالجته وفهمه، ثم تطبيق المنطق للوصول إلى قرار.
لقد وضعت الإصدارات الحديثة لنماذج الاستدلال، بما في ذلك DeepSeek-R1، و Gemini 2.0 Flash Thinking من Google، و Granite 3.2 من IBM، وسلسلتي o1 و o3-mini من OpenAI، الاستدلال القائم على الذكاء الاصطناعي في دائرة الضوء. وقد سمحت التطورات في الذكاء الاصطناعي لقدراته بالتطور من اتباع قواعد محددة مسبقًا إلى دمج شكل من أشكال الاستدلال. ومع تزايد تبني الذكاء الاصطناعي، فإن دور هذه التكنولوجيا آخذ في التحول.
بدلاً من مجرد توليد الإجابات، تستطيع نماذج الاستدلال اليوم التفكير في تحليلها وتقسيمه خطوة بخطوة. وهذا يمكّن الذكاء الاصطناعي من معالجة مشاكل أكثر تعقيدًا على نحو متزايد، وتوجيه المستخدمين لاتخاذ إجراءات ذات مغزى.
ومع ذلك، فإن قدرة الذكاء الاصطناعي على الاستدلال ليست حديثة العهد، بل تمت برمجتها في الذكاء الاصطناعي منذ أيامه الأولى، وفقًا لـ Francesca Rossi زميلة أبحاث IBM. لقد منحت مهارات الاستدلال المبرمجة مسبقًا تنبؤات نماذج الذكاء الاصطناعي درجة من اليقين التي يمكن الوثوق بها والاعتماد عليها. لكن نماذج الذكاء الاصطناعي الأحدث قد تفتقر إلى هذا اليقين والموثوقية بسبب قدراتها الأكثر ديناميكية على الاستدلال، كما قالت Rossi.
وفي حين أن استدلال الذكاء الاصطناعي مصمم لتقليد التفكير البشري، أشارت Rossi إلى أن الذكاء الاصطناعي لا يزال بحاجة إلى الكثير من العمل للتفكير حقًا كما يفعل البشر.
يتم تصوير الاستدلال في الذكاء الاصطناعي على أنه نظام يتكون عادةً من عنصرين أساسيين:
● قاعدة المعرفة
● محرك الاستنتاج
قاعدة المعرفة هي العمود الفقري لنظام الاستدلال في الذكاء الاصطناعي. يحتوي على الرسوم البيانية المعرفية والأنطولوجيا والشبكات الدلالية ونماذج أخرى لتمثيل المعرفة. تقوم هذه النماذج المنظمة بتعيين كيانات العالم الحقيقي—مثل المفاهيم والمعلومات الخاصة بالمجال والأحداث والحقائق والكائنات والعلاقات والقواعد والمواقف—في هيكل يمكن لنماذج الذكاء الاصطناعي معالجته وفهمه.
لتوضيح كيفية عمل نظام الاستدلال للذكاء الاصطناعي، لنأخذ روبوتًا مستقلًا لتنظيف الأرضيات كمثال. يمكن أن تحتوي قاعدة معارفه على معلومات حول أنواع الأرضيات المختلفة ونوع التنظيف الذي تتطلبه. كما تم تدريب خوارزميات التعلم الآلي الخاصة بالروبوت على التعرف على كل نوع من أنواع الأرضيات وتصنيفه بناءً على قاعدة المعارف هذه.
عند نشره للتنظيف، يستقبل الروبوت ويعالج بيانات الإدخال، بما في ذلك الصور وبيانات المستشعرات. ثم، يعتمد على قاعدة معارفه وتدريبه ويطبق أسلوب الاستدلال المناسب لاتخاذ قرار في الوقت الفعلي بشأن إجراء التنظيف الخاص به، مثل كنس ومسح الأرضيات الخشبية والبلاط والفينيل، ولكن فقط كنس الأرضيات المغطاة بالسجاد.
تقوم أنظمة الذكاء الاصطناعي بتطبيق استراتيجيات استدلال مختلفة اعتمادًا على مجموعات البيانات الخاصة بها والتطبيق المستهدف. وعادةً ما تستخدم مزيجًا من هذه الأساليب:
● الاستدلال الاستخلاصي
● الاستدلال الوكيل
● الاستدلال القياسي
● الاستدلال المنطقي
● الاستدلال الاستنتاجي
● الاستدلال الضبابي
● الاستدلال الاستقرائي
● الاستدلال الرمزي العصبي
● الاستدلال الاحتمالي
● الاستدلال المكاني
● الاستدلال الزمني
يهدف الاستدلال الاستخلاصي إلى صياغة الاستنتاج الأكثر احتمالية بناءً على الملاحظات المتاحة حاليًا. ففي مجال الرعاية الصحية، على سبيل المثال، تستخدم الخوارزميات التشخيصية الاستدلال الاحتمالي لتحديد أفضل مرض ممكن يتوافق مع مجموعة من الأعراض وفقًا لمعايير محددة مسبقًا في قاعدة المعرفة.
يسمح الاستدلال الوكيل لوكلاء الذكاء الاصطناعي بتنفيذ المهام بشكل مستقل. يعتمد الوكلاء البسيطون على قواعد محددة مسبقًا، بينما تستخدم الوكلاء القائمون على النموذج إدراكهم الحالي وذاكرتهم بالإضافة إلى مجموعة من القواعد للعمل في البيئات. يخطط الوكلاء القائمون على الهدف ويختاروا الإجراءات التي تساعدهم في تحقيق هدف ما. أما الوكلاء القائمون على المنفعة فلديهم أيضًا هدف يسعون لتحقيقه ولكنهم يأخذون في الاعتبار مدى مثالية النتيجة أيضًا.
يتضمن نموذجان شائعان للاستدلال في الذكاء الاصطناعي الفاعل نموذج ReAct (الاستدلال والفعل) ونموذج ReWOO (الاستدلال بدون مراقبة). يستخدم نموذج ReAct استراتيجية التفكير-الفعل-الملاحظة لحل المشكلات خطوة بخطوة وتحسين الاستجابات بشكل متكرر. بينما يخطط نموذج ReWOO مسبقًا قبل صياغة الاستجابة.
الاستدلال القياسي ينقل المعرفة من موقف إلى آخر. تعتمد منهجية هذا المنطق على القياس لإيجاد أوجه تشابه أو مماثلة بين السيناريوهات السابقة والسيناريوهات الجديدة. تُظهر الأبحاث أن نماذج الذكاء الاصطناعي، وخاصة المحولات التوليدية المدربة مسبقًا (GPTs)، لا تزال تعاني مع الاستدلال القياسي.1
يستخدم الاستدلال المنطقي المعرفة العامة عن العالم والمعرفة العملية حول الحياة اليومية لاتخاذ القرارات. يمكن للنماذج اللغوية الكبيرة (LLMs)، على سبيل المثال، أن تستنتج أنماطًا من اللغة الطبيعية تعكس الاستدلال المنطقي.
يستخلص الاستدلال الاستنتاجي استنتاجات محددة من الحقائق العامة أو الفرضيات الأوسع نطاقًا. وهذا يعني أنه إذا كان الافتراض صحيحًا، فلا بد أن يكون الاستنتاج صحيحًا أيضًا.
تُعد الأنظمة الخبيرة مثالًا على أنظمة الذكاء الاصطناعي التي تعتمد على الاستدلال الاستنتاجي. وهي مُصممة لمحاكاة قدرات التفكير لدى الخبراء البشريين. تُجهز هذه الأنظمة بقاعدة معرفية تحتوي على معلومات وقواعد ذات صلة بمجال معين.
تعتمد الأنظمة القائمة على القواعد، وهي مجموعة فرعية من الأنظمة الخبيرة، على قواعد "إذا-إذن" لتوجيه عملية الاستدلال الخاصة بها. ويمكن تطبيقها في مجال التمويل، على سبيل المثال، للمساعدة في اكتشاف الاحتيال.
يلبي الاستدلال الضبابي درجات الحقيقة بدلاً من الثنائيات المطلقة للصواب أو الخطأ. وهو يساعد في التعامل مع الغموض.
على سبيل المثال، في تحليل المشاعر، يمكن أن يساعد الاستدلال الضبابي في تقييم النصوص وتحديد ما إذا كانت تعبر عن شعور إيجابي أو سلبي أو محايد.
بالمقارنة مع الاستدلال الاستنتاجي، يستخدم الاستدلال الاستقرائي ملاحظات محددة لاستخلاص تعميم أوسع. يُطبق هذا النوع من الاستدلال عادةً في تقنيات التعلم الآلي مثل التعلم الخاضع للإشراف، الذي يدرب نماذج الذكاء الاصطناعي للتنبؤ بالمخرجات بناءً على بيانات تدريب مصنفة. كما تسخر الشبكات العصبية الاستدلال الاستقرائي لتحديد الأنماط والعلاقات الكامنة داخل مجموعات البيانات.
الاستدلال الرمزي يمثل المفاهيم أو الكائنات كرموز بدلاً من الأرقام ويتعامل معها وفقًا لقواعد منطقية. يجمع الذكاء الاصطناعي العصبي الرمزي بين قدرات التعلم العميق للشبكات العصبية والاستدلال الرمزي لاتخاذ قرارات أكثر قوة. هذا تطور حديث نسبيًا ولا يزال مجالًا بحثيًا ناشئًا.
تقيس طريقة الاستدلال هذه الاحتمالية الإحصائية للنتائج المختلفة. وهي تساعد في صناعة القرار في الظروف الغامضة أو غير المؤكدة، مثل عندما تكون البيانات محدودة أو إذا كانت هناك نتائج متنوعة محتملة ويجب تقييمها.
تستخدم مصنفات Naïve Bayes، على سبيل المثال، مبادئ الاحتمالات لمهام التصنيف. يُستخدم الاستدلال الاحتمالي أيضا لمهام معالجة اللغة الطبيعية (NLP) وتطبيقات الذكاء الاصطناعي التوليدي.
يتيح الاستدلال المكاني للأنظمة الذكية مثل المركبات ذاتية القيادة والروبوتات التعامل مع الفراغات ثلاثية الأبعاد. يمكن لهذا النوع من الاستدلال أن يدمج النمذجة الهندسية لفهم الأشكال والأسطح وخوارزميات إيجاد المسار التي تساعد في تحديد أقصر أو أفضل طريق للتنقل بكفاءة في البيئات الديناميكية.
يمكن للاستدلال المكاني أيضًا دمج الشبكات العصبية التلافيفية (CNNs)، التي تستخدم بيانات ثلاثية الأبعاد لمهام تصنيف الصور والتعرف على الكائنات.
من خلال الاستدلال الزمني، تتعلم أنظمة الذكاء الاصطناعي معالجة البيانات ذات الصلة بالوقت وفهم تسلسل الأحداث، مما يسمح لها بوضع الخطط وجدولة المهام أو بناء التوقعات.
تُدرَّب الشبكات العصبية المتكررة (RNNs)، على سبيل المثال، على بيانات تسلسلية أو سلاسل زمنية لاستنتاج استنتاجات منطقية حول النتائج المستقبلية. يمكن استخدام شبكة عصبية متكررة للتنبؤ بالمبيعات المستقبلية، أو توقع أداء سوق الأسهم، أو إنشاء تنبؤات جوية.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
يمكن أن يؤدي الاستدلال إلى تطبيقات ذكاء اصطناعي أكثر قوة، ولكن له حدوده أيضًا. فيما يلي بعض التحديات المرتبطة بأنظمة الاستدلال بالذكاء الاصطناعي:
● التحيز
● التكاليف الحاسوبية
● قابلية التفسير
قد تتسرب التحيزات الموجودة في بيانات التدريب إلى أنظمة الاستدلال الذكائي. ويمكن أن يساعد تنويع مصادر البيانات في تخفيف هذا التحيز. علاوة على ذلك، يُعد دمج الرقابة البشرية، وتضمين أخلاقيات الذكاء الاصطناعي في تطوير الخوارزميات، وإنشاء حوكمة للذكاء الاصطناعي، أمورًا حاسمة لضمان توصل أنظمة الاستدلال هذه إلى قرارات أخلاقية وعادلة.
تتطلب مهام الاستدلال المعقدة قوة حوسبة كبيرة، مما يجعل توسيع نطاق هذه الأنظمة أمرًا صعبًا. يجب على المؤسسات تحسين نماذج الذكاء الاصطناعي لتحقيق الكفاءة مع الحفاظ على الدقة. ويجب عليها أيضًا أن تكون مستعدة للاستثمار في الموارد اللازمة لتطوير وتدريب ونشر أنظمة الاستدلال هذه.
غالبًا ما تكون أنظمة الاستدلال بالذكاء الاصطناعي، وخاصة الأنظمة الأكثر تعقيدًا منها، نماذج صندوق أسود. فهي تفتقر إلى الشفافية في تقنيات الاستدلال وعمليات اتخاذ القرار الخاصة بها. يمكن أن تساعد عدة طرق في إرساء قابلية التفسير في نماذج الذكاء الاصطناعي، كما أن إنشاء أنظمة قابلة للتفسير يمكن أن يساعد في بناء الثقة مع المستخدمين.
يمكن أن يكون الاستدلال في الذكاء الاصطناعي ذا فائدة في سياقات المؤسسات، حيث يساعد في حل المشكلات وأتمتة المهام المعقدة. فيما يلي بعض الصناعات التي يمكن أن تستفيد من أنظمة الاستدلال بالذكاء الاصطناعي:
● خدمة العملاء
● الأمن السيبراني
● الرعاية الصحية
● التصنيع
● التشغيل الآلي
الذكاء الاصطناعي الحواري، مثل روبوتات المحادثة أو الوكلاء الافتراضيون، يمكنه استخدام منطق الذكاء الاصطناعي لتقديم ردود أكثر دقة لاستفسارات العملاء. يمكن لتجار التجزئة أيضًا تسخير الاستدلال لمحركات التوصيات الخاصة بهم، واقتراح عناصر ذات صلة لتجربة مستخدم أكثر تخصيصًا وتحسينًا.
تستطيع أنظمة الاستدلال بالذكاء الاصطناعي دعم تقنيات الأمن السيبراني في مراقبة التهديدات واكتشافها. كما يمكنها أن توصي بسرعة باتخاذ الإجراء المناسب، مما يساعد في تحسين أوقات الاستجابة.
يمكن لنماذج الاستدلال بالذكاء الاصطناعي المساعدة في التشخيصات الطبية واقتراح خطط العلاج. كما يمكنها أيضًا تسريع اكتشاف الأدوية، وإيجاد أفضل الجزيئات لاختبارها لتطوير الأدوية.
تستطيع أنظمة الاستدلال بالذكاء الاصطناعي المساعدة في التنبؤ بالطلب لتحسين إدارة المخزون. ويمكن لأنظمة الصيانة التنبؤية أيضًا الاعتماد على الاستدلال بالذكاء الاصطناعي لتحديد مشكلات المعدات في الوقت الفعلي والتوصية بإصلاحات في الوقت المناسب.
عند تزويد الروبوتات بقدرات استدلالية، يمكنها العمل بفعالية أكبر في البيئات الواقعية والتفاعل بشكل أفضل مع البشر والآلات الأخرى. يمكنها إجراء استنتاجات منطقية بشكل مستقل، مما يساعد على تعزيز قدرتها على التكيف، ورسم خرائط البيئة، والملاحة، ومهارات التعامل مع الأشياء.
تؤدي كل الروابط إلى صفحات خارج ibm.com
1 Evaluating the Robustness of Analogical Reasoning in GPT Models, OpenReview.net, 20 February 2025