يجد الموظفون أنفسهم يعملون بشكل متزايد ليس فقط مع زملاء العمل من البشر، بل مع مساعدي الذكاء الاصطناعي الحواري ووكلاء الذكاء الاصطناعي. وربما تكون التأثيرات النفسية لهذا التحول أكثر تعقيدًا من التأثيرات التقنية والمالية: فعندما يتعامل ملايين الموظفين مع زملاء العمل من الذكاء الاصطناعي كل يوم، فإن التاريخ يثبت أن البعض منهم سوف يرتبط بها عاطفيًا.
لا تقتصر المخاطر الناجمة عن ذلك على فقدان الإنتاجية نتيجة قضاء الوقت في الدردشة مع روبوتات المحادثة. تشمل المخاطر التنظيمية الحقيقية للتفاعل العاطفي مع الذكاء الاصطناعي التعرض لمخاطر الموارد البشرية (مثل المبالغة في مشاركة الموظفين للمعلومات الشخصية الحساسة) ومخاطر الأمن الإلكتروني (مثل زيادة التعرض للهندسة الاجتماعية)، وكوارث العلاقات العامة أو حتى الأذى الجسدي.
تستثمر الشركات والمؤسسات بكثافة في الحلول المستندة إلى الذكاء الاصطناعي التوليدي بهدف الاستفادة من إمكاناتها الفائقة. وبطبيعة الحال، فإن الشركات التي تسعى إلى ضمان تحقيق عائد على استثماراتها تحرص على التأكد من أن موظفيها يستخدمون أدوات الذكاء الاصطناعي هذه بالفعل. ولكن في عصر يعتني فيه الرؤساء التنفيذيون لشركات الإعلام بالمحتوى المُنشأ بالذكاء الاصطناعي ويُولع فيه البالغون العقلاء بنماذج الذكاء الاصطناعيبشكل واضح، فإن التشديد على تعامل الموظفين مع الذكاء الاصطناعي بشكل عشوائي قد يكون له توابعه.
تتزايد المخاطر العاطفية للذكاء الاصطناعي ليس فقط بسبب تزايد قوة وإقناع النماذج اللغوية الكبرى (LLMs)، ولكن ذلك يرجع إلى النطاق الواسع الذي يتعامل فيه الأشخاص معها طوال اليوم في العمل. صحيح أنه من البديهي تمامًا أنه كلما ازدادت أنظمة الذكاء الاصطناعي تعقيدًا، أصبح الناس أكثر عرضة إلى تشبيهها بالبشر—لكن البشر كانوا يطورون علاقات مع روبوتات المحادثة منذ الأيام الأولى لمعالجة اللغة الطبيعية (NLP).
في عام 1966، أنشأ Joseph Weizenbaum برنامج روبوت محادثة يسمى ELIZA والذي طبق قواعد بسيطة لتحويل لغة الإدخال إلى استجابة من روبوت المحادثة. يهدف أحد البرامج النصية للبرنامج، المُسمى "DOCTOR"، إلى محاكاة طبيب نفسي روجرزي من خلال إما الاستجابة بشكل عام أو إعادة صياغة مدخلات المستخدم في شكل سؤال مثل ما يلي:
الإنسان: حسنًا، لقد أجبرني صديقي على المجيء إلى هنا. ELIZA: هل حقًا أجبرك صديقك على المجيء إلى هنا؟ الإنسان: يقول إنني مكتئب معظم الوقت. ELIZA: يؤسفني سماع أنك مكتئب. الإنسان: هذا صحيح. أنا غير سعيد. ELIZA: هل تعتقد أن مجيئك إلى هنا سيساعدك على ألا تكون غير سعيد؟
كما أوضح Weizenbaum بعد عقد من الزمان، لقد كان، على حد قوله، "مندهشًا لرؤية مدى سرعة وعمق ارتباط الأشخاص الذين يتحدثون مع DOCTOR عاطفيًا بالكمبيوتر وكيف شبهوه بالإنسان بشكل لا لبس فيه". حتى سكرتيرته الذي شاهده وهو يعمل على البرنامج لأشهر وكان يعرف أنه مصمم في الأساس لإعادة صياغة كلمات المستخدم نفسه، لم يسلم من الرغبة في التعامل الشخصي مع روبوت المحادثة. ذكر Weizenbaum أنه: "بعد بضع محادثات معه فقط، طلبت مني مغادرة الغرفة".
منذ ذلك الحين، أصبح ميل البشرية الدائم للتفاعل العاطفي مع الذكاء الاصطناعي يُعرف باسم تأثير ELIZA. ولا يرجع السبب في ذلك إلى بنية النماذج اللغوية الكبرى المتقدمة، ولكن في طبيعتنا العاطفية.
على مدى آلاف السنين، رسخ التطور في أدمغتنا افتراضًا، كان حتى وقت قريب جدًا لا لبس فيه، وهو أنه: إذا كان هناك شيء يبدو بشريًا ويتواصل مثل الإنسان، فهو إنسان. تعامل معه على هذا الأساس.
ومع هذا الافتراض المنطقي، طوّرنا نظامًا بيولوجيًا معقدًا من التفاعلات والتوقعات الاجتماعية التي تحكم كل شيء بدءًا من اللقاءات الفردية والمجتمعات القبلية وصولاً إلى أماكن العمل الحديثة. لكن النماذج اللغوية الحوارية تقوض هذا الافتراض، ومن ثَم تعطل بيولوجيتنا الاجتماعية.
في عام 1996، طرح كل من O’Connor وRosenblood "نموذج الانتماء الاجتماعي" لوصف العملية التنظيمية الغريزية التي من خلالها تحفز التفاعلات الاجتماعية، تلقائيًا وبلا وعي، البحث عن إشارات لفظية وغير لفظية معينة. توفر هذه الإشارات معلومات حول جودة هذه التفاعلات وتأثيراتها، مثل ما إذا كان الشخص الذي نتفاعل معه يتقبلنا ويقدرنا. وفي المقابل، يؤدي غيابها إلى تحفيز نشاط الدماغ الذي يحفز سلوكًا يهدف إلى تدارك الموقف. 2
في ورقة بحثية نُشرت عام 2023 في مجلة Journal of Applied Psychology، درس مجموعة من الباحثين نموذج الانتماء الاجتماعي في سياق تفاعل الأشخاص مع أنظمة الذكاء الاصطناعي في مكان العمل. لقد أدركوا أنه نظرًا إلى أن أنظمة الذكاء الاصطناعي يمكنها محاكاة التفاعلات البشرية بشكل مقنع ولكنها لا تستطيع محاكاة أنواع التعليقات الاجتماعية التكميلية الثرية التي نشأنا على رصدها مثل—الابتسامة، والضحكة الخافتة، وهز الكتفين، وتجعد الجبين، وتوسع حدقة العين—فإن العمليات التنظيمية الدماغية تبحث عن إشارات غير موجودة. بمعنى آخر، تولد محادثة الموظف مع الذكاء الاصطناعي احتياجات عاطفية غريزية لا يستطيع الذكاء الاصطناعي إشباعها.
ركزت الورقة البحثية على نوعين من ردود الفعل على هذا الحرمان الاجتماعي المستند إلى الذكاء الاصطناعي: السلوك السلبي غير التكيفي (مثل زيادة الانعزال والشعور بالوحدة) والسلوك النشط التكيفي (مثل زيادة الدافع للبحث عن تواصل اجتماعي إيجابي). عبر مختلف الصناعات والدول، وجد المؤلفون بالفعل أن زيادة التفاعل مع "زملاء العمل من أدوات الذكاء الاصطناعي" يرتبط بزيادة الشعور بالوحدة—وكذلك بالأرق أو الإدمان أو كليهما. وبشكل أكثر إنتاجية، وجد المؤلفون أيضًا أنه بالنسبة إلى بعض المشاركين في الدراسة، غالبًا ما ارتبطت زيادة وتيرة التفاعل مع الذكاء الاصطناعي بزيادة السلوك الاجتماعي الإيجابي (مثل مساعدة زملاء العمل) أيضًا.
ولكن بالنسبة إلى الموظفين الذين يتمتعون بطبائع معينة مع وجود فرص قليلة للتفاعل الشخصي—مثل العاملين عن بُعد، أو الأفراد المساهمين في دور منعزل أو شخص يعاني من الرهاب الاجتماعي—قد يكون لهذا الدافع المتزايد للتواصل الاجتماعي في بعض الأحيان منفذ واحد فقط متاح وهو: "زميل العمل" من الذكاء الاصطناعي المتاح دائمًا. وتتدرب النماذج اللغوية الكبرى، بالمعنى الحرفي إلى حد ما، على إخبارنا بما نريد سماعه. وهذه الاحتمالية لها جاذبية خاصة.
قد يكون تشبيه زميل الذكاء الاصطناعي بالإنسان ببساطة وسيلة لتجنب التنافر الإدراكي الناتج عن التحول إلى برنامج كمبيوتر من أجل التفاعل البشري.
ولكي نكون واضحين، فإن نماذج الذكاء الاصطناعي—حتى النماذج اللغوية الكبرى الأكثر تطورًا—لا تملك مشاعر أو عواطف، على الرغم من قدرتها على قول أشياء عاطفية. من الناحية الفنية، يكون القول بإن روبوت المحادثة "يستجيب" لطلبك من قبيل المبالغة: ومن الأكثر دقة (وإن كان أقل متعة) أن نقول إن روبوت المحادثة يضيف نصًا إليها بشكل احتمالي . تتدرب ببساطة النماذج اللغوية الكبرى ذات الانحدار التلقائي على التنبؤ بشكل متكرر بالكلمة التالية في تسلسل نصي يبدأ بإدخالك، وذلك بتطبيق الأنماط اللغوية التي تعلمتها من معالجة ملايين العينات النصية، حتى ترى أن التسلسل قد اكتمل.
ومن المنطقي أن نعتقد أن مجرد زيادة إلمام الموظفين بالذكاء الاصطناعي من شأنه أن يزيل خطر الارتباط العاطفي بالذكاء الاصطناعي. وسيكون ذلك من الخطأ أيضًا.
كما أظهر بحث جامعة هارفارد، يمكن أن يأتي الدواء الوهمي بنتيجة حتى لو كنت تعلم أنه دواء وهمي. على سبيل المثال، استكشفت تقارير صحيفة New York Times في أواخر العام الماضي توجه الخبراء في Silicon Valley، بما في ذلك العديد ممن يعملون في مجال أبحاث الذكاء الاصطناعي، بشكل متزايد إلى Claude من Anthropic للحصول على "كل شيء من المشورة القانونية إلى التدريب الصحي وحتى جلسات العلاج المؤقتة." درس Blake Lemoine، مهندس Google الذي عُرف بادعائه أن نموذج LaMDA من Google كان واعيًا في عام 2022، العلوم المعرفية والحاسوبية وعمل في مجال التعلم الآلي لسنوات.
كيف يكون ذلك ممكنًا؟ أحد التفسيرات العامة هو أن ردود الفعل العاطفية تُعالج بديهيًا وليس منطقيًا، وعندما يحدث شيء ما على المستوى البديهي، فقد يتجاوز التقييم العقلاني تمامًا. تحمي الخبرة التقنية بعض الشيء من هذا الخطأ المتأصل في تعليماتنا البرمجية، لأنه عندما نعالج شيئًا ما بشكل بديهي—وهو ما أطلق عليه الحائز على جائزة نوبل الراحل Daniel Kahneman "System 1" أو التفكير "السريع"—فإننا غالبًا ما نفشل في الاستفادة من خبرتنا التقنية تمامًا. على سبيل المثال، كما أوضح Kahneman في كتابه المؤثر Thinking, Fast and Slow، أظهر بحثه مرارًا وتكرارًا كيف أن "حتى الإحصائيين ليسوا إحصائيين حدسيين جيدين".
فيما يتعلق بروبوتات المحادثة، فإن سلوكنا تجاه الذكاء الاصطناعي غالبًا ما يعتمد على "نماذجنا الذهنية" المتصورة عنه أكثر من الأداء الفعلي. وقد توصلت دراسة أجراها معهد MIT عام 2023 أن "العوامل غير العقلانية، مثل التفكير الخرافي، تؤثر بشكل كبير في كيفية تفاعل الأفراد مع أنظمة الذكاء الاصطناعي." على سبيل المثال، اكتشف المؤلفون ارتباطًا قويًا بين المعتقدات الخارقة (مثل علم التنجيم) واحتمالية تصور حتى مخرجات الذكاء الاصطناعي المزيفة على أنها "صالحة وموثوقة ومفيدة ومخصصة."3
يشير مؤلفو الورقة البحثية أيضًا إلى التفاؤل التقني في Silicon Valley على أنه سبب ونتيجة في هذه الظاهرة. وبالمثل، أشارت تقارير Vox عن Blake Lemoine إلى أن Silicon Valley تُعد أرضًا خصبة للمعتقدات الدينية الغامضة. وقد تؤدي الوتيرة السريعة المتزايدة للتطور التقني الحديث دورًا في هذا الأمر: على حد تعبير Arthur Clark الشهير، "أي تقنية متطورة بالقدر الكافي لا يمكن تمييزها عن السحر."
ومما يزيد الأمر تعقيدًا، أن الإلمام بالذكاء الاصطناعي قد يكون له تأثير سلبي على تبني الذكاء الاصطناعي: تشير الأبحاث التي أُجريت في وقت سابق من هذا العام إلى أنه كلما قلت معرفة الناس عن الذكاء الاصطناعي، كان الناس أكثر انفتاحًا على وجوده في حياتهم. يفترض مؤلفو الورقة البحثية أن الأشخاص الملمين بالذكاء الاصطناعي بشكل أقل من المرجح أن يروا الذكاء الاصطناعي على أنه سحري أو مثيرًا للدهشة، وأن "الجهود المبذولة لإزالة الغموض عن الذكاء الاصطناعي قد تقلل من جاذبيته عن غير قصد." ومن ثَم، قد تواجه المؤسسات توترًا بين زيادة عائد استثمارها في أدوات الذكاء الاصطناعي التوليدي وتقليل التداعيات العاطفية الناتجة عن الاستخدام المستمر لتلك الأدوات.
والجدير بالذكر أن الدراسة توصلت إلى أن هذا الرابط بين قلة الإلمام بالذكاء الاصطناعي وزيادة الحماس تجاه الذكاء الاصطناعي هو الأقوى في "استخدام أدوات الذكاء الاصطناعي في المجالات التي يربطها الناس بالصفات البشرية، مثل تقديم الدعم العاطفي أو الاستشارة." وعند التعامل مع المهام التي لا تنطوي على دلالات عاطفية، مثل تحليل نتائج الاختبارات، ينقلب النمط.
وبمعرفة كيفية حدوث تأثير ELIZA وسبب حدوثه، يمكن للمؤسسات الحد من هذه المخاطر بشكل استباقي من دون تقويض حماس الموظفين تجاه التعامل مع أدوات الذكاء الاصطناعي.
كما أوضح Murray Shanahan، العالم البارز في Google DeepMind، في مقال نُشر عام 2022 ويُستشهد به على نطاق واسع، فإن الطريقة التي نتحدث بها عن النماذج اللغوية الكبرى مهمة—ليس فقط في الأوراق العلمية، ولكن في المناقشات مع صانعي السياسات ووسائل الإعلام والموظفين. يقول: "إن استخدام المصطلحات ذات المعنى الفلسفي مثل"يعتقد" و"يرى" بشكل غير مبالٍ يمثل مشكلة خاصة، لأن مثل هذه المصطلحات تحجب الآلية وتعزز تشبيه الآلات بالبشر."
وكما يشير Shanahan، من المعتاد والطبيعي استخدام لغة تصور التقنيات كبشر عند الحديث عن التقنيات. يعتقد نظام تحديد المواقع أننا فوق جسر في الطريق السريع. خادم البريد الإلكتروني لا يستجيب للشبكة. هاتفي يريد مني تحديث نظام التشغيل الخاص به. وهذه أمثلة على ما يسميه الفيلسوف Daniel Dennett الموقف المتعمد، وفي معظم الحالات تكون ببساطة عبارات مجازية مفيدة (وغير ضارة). ولكن عندما يتعلق الأمر بالنماذج اللغوية الكبرى، يحذر Shanahan من أن "الأمور يمكن أن تصبح غير واضحة بعض الشيء." فبالنسبة إلى أنظمة الذكاء الاصطناعي التي تحاكي بشكل مقنع أكثر السلوكيات البشرية تفردًا—أي اللغة—فإن الميل إلى تفسير هذه العبارات المجازية حرفيًا "يكاد يكون هو الأمر الغالب".
لذلك يجب أن تكون البرامج التعليمية ومواد التأهيل واتصالات الشركة مهتمة جدًا باللغة المستخدمة لوصف المزايا والوظيفة والغرض من أدوات الذكاء الاصطناعي للموظفين. يجب على الشركات تجنب استخدام التشبيه البشري غير الضروري في كل وقت وحين. كما أظهرت الأبحاث التي أُجريت عن التأثير الوهمي للذكاء الاصطناعي، غالبًا ما يتشكل تصور المستخدمين للذكاء الاصطناعي من خلال كيفية وصفه وليس من خلال إمكاناته الحقيقية.4
يمكن أن يؤدي جعل نماذج الذكاء الاصطناعي تبدو وكأنها أشبه بالإنسان إلى زيادة الثقة5 والتفاعل،6 ولكن يمكن أن يؤدي أيضًا إلى زيادة المخاطر. في بطاقة نظام GPT-4o—والذي يمكن أن ينتج "كلامًا" واقعيًا يشبه كلام الإنسان—أشارت OpenAI إلى أن "إنشاء المحتوى بصوت عالي الدقة ويشبه صوت الإنسان قد يؤدي إلى تفاقم مشكلات [التشبيه البشري]، ما يؤدي إلى زيادة الثقة في غير محلها." في أثناء أعمال الفريق الأحمر والاختبار الداخلي، لاحظت OpenAI أن "المستخدمين يستخدمون لغة قد تشير إلى تكوين علاقات مع النموذج."7
حتى من دون ارتفاع مخاطر الارتباط العاطفي، يجب أن تدرك الشركات أن التشبيه البشري سلاح ذو حدين. توصلت دراسة نُشرت عام 2022 في مجلة Journal of Marketing إلى أن روبوتات المحادثة المشبهة بالبشر قللت من رضا العملاء ورأيهم في الشركة: بشكل أساسي، كان لدى العملاء توقعات أعلى لروبوتات المحادثة الشبيهة بالبشر وخيبة أمل أكبر عندما لم يقدموا خدمة بمستوى الخدمة البشرية.8 توصلت سلسلة من دراسات نُشرت في عام 2024 إلى أن التعليقات الواردة من "مدرب الذكاء الاصطناعي" المشبه بالبشر كانت أقل فائدة من التعليقات المشابهة الواردة من مدرب الذكاء الاصطناعي غير المشبه بالبشر والذي سلط الضوء ببساطة على دور الباحثين البشريين في إنشائه.
قد يتعلق الأشخاص بالصور الرمزية الواقعية. لكنهم (بشكل عام) لن يتعلقوا بمشبك ورق ناطق.
لا يحدث تأثير ELIZA الكامل على الفور. فكما هو الحال مع معظم الأمور العاطفية، تترسخ هذه الظاهرة تدريجيًا. يمكن أن يؤدي تنفيذ وسيلة لرصد العلامات التحذيرية والتصرف بناءً عليها إلى منح المؤسسات القدرة على التصدي للمشكلات وحلها قبل أن تتطور إلى مشكلات حقيقية.
تُعد نماذج الحماية أحد الطرق الواضحة لمثل نظام الرصد هذا: فهي تراقب المدخلات والمخرجات بحثًا عن اللغة الدالة على المخاطر المحددة مسبقًا وتحفز النموذج على التصرف بناءً عليها. يمكن أن يساعد نموذج الحماية المدرب على رصد ومنع التعاملات من الانحراف إلى المنطقة العاطفية على تجنب تطور الأمور. لكن نماذج الحماية التقليدية وحدها قد تكون حلاً ناقصًا، لأنه ليس كل تفاعل إشكالي ينطوي على عاطفة علنية ورومانسية.
حتى الموظفين الذين لديهم فهم واقعي تمامًا للذكاء الاصطناعي يمكنهم أحيانًا أن يكشفوا عن معلوماتهم الشخصية جدًا في محادثات الذكاء الاصطناعي. وهذه مشكلة أيضًا، لأن العديد من الشركات تخزن التفاعلات مع أنظمة الذكاء الاصطناعي وتحللها لفهم كيفية استخدام الموظفين أو العملاء للأدوات وتحسينها. وهذا يمكن أن يضع المؤسسات في موقف حرج يتمثل في تزويد المؤسسات بمعلومات شخصية حساسة تفضل، لأسباب قانونية أو أخلاقية، عدم استخدامها—وهي معلومات تكون بخلاف ذلك محددة للغاية وتبدو غير ضارة بحيث لا يمكن تدريب نموذج الحماية على اكتشافها.
ومع أخذ ذلك في الحسبان، تعمل شركة IBM على تطوير "نظام للحفاظ على الخصوصية بالنماذج اللغوية الكبرى"، ويكون مصممًا لمنع المستخدمين من المبالغة في مشاركة معلومات مع نماذج الذكاء الاصطناعي. سيفحص النظام المدخلات بحثًا عن معلومات التعريف الشخصية، وتصنيف الموجِّه المسيء (لفهم المقصد منه)، ثم استبدال المعلومات الحساسة بعناصر نائبة عامة. وتُخزن نسخة مجهولة الهوية من مدخلات المستخدم للتدريب المستقبلي.
تُعد دراسة مجلة Journal of Applied Psychology المنشورة في عام 2023 والمذكورة أعلاه واحدة من العديد من الدراسات التي تشير إلى وجود صلة بين تكرار أو طول التفاعلات مع روبوت المحادثة والشعور بالوحدة أو الاستخدام الإشكالي. وتكون الآثار المترتبة على ذلك واضحة نسبيًا: فالحد من الاستخدام الإستراتيجي يمكن أن يحد من المخاطر العاطفية. وإذا طُبق بشكل صحيح، فيمكن أن يحقق ذلك من دون الحد من الإنتاجية وربما مع خفض تكاليف الاستدلال.
ثمة طريقة غير مباشرة أكثر تتمثل في تعطيل أنماط الاستخدام بشكل دوري، ما يمنع المستخدمين من التورط في أخدود عميق للغاية. على سبيل المثال، يشير بحث معهد MIT إلى أن التدخلات مثل فترة "التهدئة" المفروضة يمكن أن تساعد على "إبطاء الأحكام السريعة وتعزيز المزيد من التفاعل المدروس."6 بعبارة أخرى، قد تدفع مثل هذه التدخلات المستخدمين بلطف بعيدًا عن التفكير الاندفاعي في System 1 ونحو تفكير أكثر ترويًا في System 2.
قد يساعد أيضًا تعطيل أنماط نظام الذكاء الاصطناعي نفسها بشكل دوري، مثل تغيير شخصيته، على الحد من أنماط الاستخدام الإشكالية. يشير مقال نُشر في صحيفة New York Times عن امرأة تعشق ChatGPT، وتقضي ساعات طويلة كل يوم على المنصة، إلى أنه كلما تجاوزت حدود سياقالنموذج، تتم إعادة ضبط "شخصية" وذاكرة "صديقها" المتمثل في الذكاء الاصطناعي جزئيًا. وكلما حدث ذلك، تحزن—لكنها بعد ذلك "تمتنع عن استخدام ChatGPT لبضعة أيام".
في ورقة بحثية نشرت عام 2024 تستكشف تداعيات تحديث رئيسي لتطبيق Replika AI، وهي خدمة صداقة مع روبوت محادثة، أوضح المؤلفون أن "استمرارية الهوية أمر بالغ الأهمية لتطوير العلاقة مع الصديق المتمثل في الذكاء الاصطناعي والحفاظ عليها."9 والتأثير العكسي لهذا الاستنتاج هو أن تعطيل استمرارية هوية روبوت المحادثة قد يكون أمرًا بالغ الأهمية لتجنب الارتباط العاطفي بالصديق المتمثل في الذكاء الاصطناعي.
ربما تكون أفضل طريقة لتجنب استخدام الموظفين للذكاء الاصطناعي لملء الفراغ العاطفي هي تقليل احتمالية وجود هذا الفراغ من الأساس. يمكن للذكاء الاصطناعي التوليدي أن يكون بديلاً في العمل اليومي الروتيني، ولكنه ليس بديلاً عن الصداقة اليومية مع زملاء العمل من البشر.
على سبيل المثال، توصلت دراسة عن أنماط استخدام روبوتات المحادثة كصديق وعلاقتها بالشعور بالوحدة إلى أنه يوجد ارتباط كبير بين تكرار استخدام روبوت المحادثة وزيادة الشعور بالوحدة أو العزلة الاجتماعية—ولكن ليس في حالة المستخدمين الذين لديهم علاقات اجتماعية متينة على أرض الواقع. لم يقتصر الأمر على تفاعل المستخدمين الذين لديهم علاقات اجتماعية متينة بشكل عام بشكل أقل مع روبوتات المحادثة، ولكنهم واجهوا أيضًا مشكلات أقل بكثير من المستخدمين الأقل تفاعلاً الذين ليس لديهم دعم اجتماعي مماثل. وقد استخدموا عادةً روبوتات المحادثة لأغراض عملية وترفيهية، وليس كبدائل للعلاقات.10 وتتوافق هذه النتائج مع فرضية التعويض شبه الاجتماعي، التي تنص على أن الأفراد الذين يعانون من الوحدة والعزلة والرهاب الاجتماعي هم أكثر عرضة للانخراط في "علاقات" شبه اجتماعية مع المشاهير أو المؤثرين.11
ولحسن الحظ، هذه حالة يمكن أن يكون الذكاء الاصطناعي فيها هو الحل لمشاكله الخاصة. إذا كانت حلول الذكاء الاصطناعي التوليدي في شركتك تحقق المكاسب الإنتاجية المتوقع منها توفيرها، فلا ينبغي أن يكون هناك نقص في الوقت أو المال لإقامة حفلات البيتزا.
قدّم خدمة عملاء متواصلة وذكية باستخدام الذكاء الاصطناعي الحواري. استكشف كيف يمكنك تسريع التواصل مع العملاء وتعزيز الإنتاجية وتحسين الإيرادات باستخدام IBM Watsonx Assistant.
أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.
استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.
1. Computer Power and Human Reason،Weizenbaum، عام 1976
2. "دافع الانتماء في التجربة اليومية: مقارنة نظرية"، Journal of Personality and Social Psychology 70(3):513-522، 1996
3. "ذكاء خارق أم خرافة؟ استكشاف العوامل النفسية المؤثرة في تصديق تنبؤات الذكاء الاصطناعي حول السلوك الشخصي"arXiv، 19 ديسمبر 2024
4. "التأثير الوهمي للذكاء الاصطناعي في التفاعل بين الإنسان والحاسوب"، معاملات ACM للتفاعل بين الإنسان والحاسوب، المجلد 29 (العدد 6)، 11 يناير 2023
5. "العقل في الآلة: التشبيه البشري يزيد الثقة في السيارة ذاتية القيادة"، Journal of Experimental Social Psychology، المجلد 52، مايو 2014
6. "التشبيه البشري في الذكاء الاصطناعي: نقطة تحول في تسويق العلامات التجارية"، Future Business Journal، المجلد 11، عام 2025
7. "بطاقة نظام GPT-4o"، OpenAI، 8أغسطس 2024
8. "لوم الروبوت: التشبيه البشري والغضب في تفاعلات العملاء مع روبوتات المحادثة"،Journal of Marketing، المجلد 86، عام 2022
9. "دروس من تحديث تطبيق Replika AI: انفصال الهوية في العلاقات بين الإنسان والذكاء الاصطناعي"،سلسلة أوراق عمل كلية هارفارد للأعمال،2024
10. "الصداقة مع روبوتات المحادثة: دراسة متعددة الأساليب لأنماط استخدام روبوتات المحادثة كأصدقاء وعلاقتها بالشعور بالوحدة لدى المستخدمين النشطين"،arXiv، 18 ديسمبر 2024
11. "فرضية التعويض شبه الاجتماعي: التنبؤات باستخدام العلاقات شبه الاجتماعية عوضًا عن التفاعل في الحياة الواقعية"، الخيال والإدراك والشخصية، المجلد 35، أغسطس 2015