بدلًا من إنشاء استجابة مباشرة على الفور لمدخلات المستخدم، يتم تدريب نماذج الاستدلال على إنشاء "خطوات استدلال" وسيطة أولًا قبل الوصول إلى الإجابة النهائية المقدمة للمستخدم. بعض النماذج اللغوية الكبيرة الخاصة بالاستدلال تعرض للمستخدمين آثار استدلالها، بينما يقتصر البعض الآخر على تلخيص هذه المخرجات الوسيطة أو إخفائها بالكامل.
ببساطة، يتم تدريب النماذج اللغوية الكبيرة الخاصة بالاستدلال على قضاء وقت أطول في التفكير قبل أن تقدِّم ردها. لقد أظهرت الدراسات التجريبية أن إضافة "عملية الاستدلال" هذه تحقِّق تقدمًا كبيرًا في أداء النماذج اللغوية الكبيرة على المهام التي تتطلب استدلالًا معقدًا. لقد ساهم هذا النجاح في توسيع نطاق حالات الاستخدام الواقعية والمجالات التي يمكن تطبيق نماذج الذكاء الاصطناعي فيها، مشيرًا إلى نقطة تحول مهمة في مسار تطوير الذكاء الاصطناعي التوليدي ووكلاء الذكاء الاصطناعي.
ومع ذلك، تجدر الإشارة إلى أن المصطلحات المجسّمة مثل "عملية التفكير" الخاصة بالنموذج أكثر سهولة في الاستخدام من المصطلحات الحرفية. مثل جميع نماذج التعلم الآلي، فإن نماذج الاستدلال في النهاية تطبِّق خوارزميات متطورة للتنبؤات -مثل الكلمة التي يجب أن تأتي بعد ذلك- والتي تعكس الأنماط المكتسبة من بيانات التدريب. لم تُظهر النماذج اللغوية الكبيرة الخاصة بالاستدلال أي وعي أو أي علامات على الذكاء الاصطناعي العام (AGI). أبحاث الذكاء الاصطناعي التي نشرتها Apple في يونيو 2025 تثير الشكوك حول إذا ما كانت قدرات الاستدلال الحالية للنماذج يمكن أن تتوسع لتصل إلى استدلال قابل للتعميم حقًا.1
ربما يكون من الأدق القول إن النماذج اللغوية الكبيرة الخاصة بالاستدلال يتم تدريبها على "إظهار خطوات عملها" من خلال توليد سلسلة من الرموز (الكلمات) التي تشبه عملية التفكير البشري - وأن هذا الفعل المتمثل في "التعبير اللفظي عن الأفكار" يبدو أنه يفتح القدرات الاستدلالية الكامنة التي تتعلمها النماذج ضمنيًا من مجموعتها الضخمة من بيانات التدريب (التي تحتوي على أمثلة لأفراد يوضِّحون عملياتهم بشكل مباشر وغير مباشر).
تم تقديم مفهوم "نموذج الاستدلال" لأول مرة من قِبَل OpenAI من خلال o1-preview (و o1-mini) في سبتمبر 2024،2 تلاها طرح Qwen with Questions (QwQ-32B-preview) من Alibaba في نوفمبر، ثم تجربة Gemini 2.0 Flash من Google في ديسمبر. شكَّل إصدار نموذج DeepSeek-R1 مفتوح المصدر في يناير 2025 خطوة مهمة في تطوير النماذج اللغوية الكبيرة الخاصة بالاستدلال. بينما كانت عمليات التدريب المستخدمة لضبط نماذج الاستدلال السابقة تُعَد أسرارًا محمية عن كثب، أصدرت DeepSeek ورقة تقنية مفصلة قدَّمت خارطة طريق لبقية مطوري النماذج. منذ ذلك الحين، أصدرت كلٌّ من IBM Granite وAnthropic وMistral AI، من بين آخرين، نماذجها اللغوية الكبيرة للاستدلال.