يُعرَّف الذكاء الاصطناعي الواعي نظريًا بأنه آلات ذاتية الإدراك قادرة على التصرف وفقًا لأفكارها ومشاعرها ودوافعها الخاصة. حتى يومنا هذا، يتفق الخبراء على أن الذكاء الاصطناعي لا يزال بعيدًا جدًا عن بلوغ مستوى الوعي.
ومنذ ظهور الحواسيب، وضع العلماء معايير، مثل اختبار تورينج، بهدف تقييم مستوى "ذكاء" الآلات. سرعان ما تطورت المناقشات حول ذكاء الآلات لتشمل التساؤلات حول وعيها أو إدراكها الذاتي.
رغم أن النقاشات حول وعي الذكاء الاصطناعي بدأت منذ أوائل الألفية، إلا أن انتشار النماذج اللغوية الكبيرة، وإتاحة الذكاء الاصطناعي التوليدي للمستخدمين مثل ChatGPT، بالإضافة إلى المقابلة التي أجرتها واشنطن بوست 1 مع Blake Lemoine، المهندس السابق في Google، أعادت تسليط الضوء على السؤال: هل الذكاء الاصطناعي واعٍ؟
صرَّح Lemoine لصحيفة واشنطن بوست أن LaMDA، مولِّد روبوتات المحادثة الذكي من Google، يتمتع بالإدراك الذاتي لأنه بدأ يتحدث عن الحقوق والهوية الشخصية، وبدا وكأنه واعٍ لاحتياجاته ومشاعره.
وقد نفى علماء الأخلاقيات في Google هذه الادعاءات علنًا. صرّح يان لوكون، رئيس أبحاث الذكاء الاصطناعي في Meta، لصحيفة نيويورك تايمز2 بأن هذه الأنظمة ليست قوية بما يكفي لتحقيق "الذكاء الحقيقي". ويتفق أبرز الخبراء في المجال على أن الذكاء الاصطناعي لا يمتلك إدراكًا ذاتيًا.
مع تطور التعلم الآلي، يسعى علماء الكمبيوتر إلى تحقيق مزيد من الابتكارات في أدوات الذكاء الاصطناعي، بهدف تطوير أجهزة تمتلك فهمًا أعمق للسلوك البشري، ما يُتيح تخصيصًا أكبر واستجابات آنية أكثر دقة دون الحاجة إلى الكثير من البرمجة اليدوية المملة. وقد أدى ذلك إلى تطورات في الحوسبة المعرفية، حيث تتفاعل الأنظمة بشكل طبيعي مع البشر وتحل المشكلات من خلال خوارزميات التعليم الذاتي. ويُعَد نموذج GPT من OpenAI وLaMDA من Google إشارة إلى التوجهات المحتملة في الأبحاث والتطوير لدى شركات تقنية أخرى مثل Meta وApple وMicrosoft.
سيشكِّل الوعي الذاتي تطورًا جديدًا في هذا المجال. وهو يُعرَّف بالقدرة على اختبار التجارب الذاتية، والوعي، والذاكرة، والمشاعر. لكن تعريفات الإدراك الذاتي، والإدراك العقلي، والوعي غالبًا ما تكون غير متسقة ولا تزال محل جدل واسع 3 بين الفلاسفة وعلماء الإدراك.
من الناحية النظرية، سيكون الذكاء الاصطناعي الواعي قادرًا على استشعار بيئته، ومعالجة المؤثرات الخارجية، واستخدامها في اتخاذ القرارات، والتفكير والشعور بطريقة مشابهة للبشر.
على الرغم من أن الذكاء الاصطناعي يتبع أساليب التعلم البشري ويملك قدرة محدودة على الاستنتاج، إلا أنه لا يضاهي تعقيد الدماغ البشري أو حتى أدمغة بعض الحيوانات. لا تزال كيفية نشوء الوعي في الدماغ البشري لغزًا إلى حد كبير، لكن من الواضح أن الأمر يعتمد على أكثر من مجرد ترابط الخلايا العصبية. في كثير من الأحيان، يتم الخلط بين الإحساس والذكاء، وهو جانب لا تزال الأوساط العلمية تسعى إلى قياسه في الآلات.
تتعلم الآلات الذكية من خلال الاستكشاف ويمكنها التكيف مع المدخلات الجديدة. معظم برامج الذكاء الاصطناعي اليوم متخصصة وليست عامة، ما يجعلها مباشرةً أكثر من كونها ذات تفكير معقد. يتم تدريب كل برنامج ليكون بارعًا في مهمة محددة أو نوع معين من المشكلات، مثل لعب الشطرنج أو إجراء اختبار موحد.
في أبحاث علوم الكمبيوتر، يعمل خبراء الذكاء الاصطناعي على استكشاف مفهوم "الذكاء الاصطناعي العام" (AGI)، المعروف أيضًا باسم الذكاء الاصطناعي القوي، والذي يهدف إلى تزويد الذكاء الاصطناعي بقدرات شبيهة بالبشر وغير مقيدة بمهمة محددة. إضافةً إلى ذلك، هناك أيضًا الحالة المستقبلية المفترضة لما يُعرَف باسم الذكاء الاصطناعي الفائق.
تهدف هذه القدرات إلى تمكين الذكاء الاصطناعي من فهم أفضل للأوامر والسياقات البشرية، ما يسمح له تلقائيًا بمعالجة المعلومات واستنتاج الوظيفة المناسبة لتنفيذها في ظروف معينة.
تم تطوير أدوات مثل اختبار Turing لتقييم مدى تميُّز سلوك الآلات عن سلوك البشر. ويتم تصنيف البرنامج على أنه ذكي إذا استطاع إقناع شخص بأنه كائن بشري.
لكن تصنيف الذكاء ليس بالأمر السهل. على سبيل المثال، كشفت Chinese Room Argument عن أوجه القصور في اختبار Turing لتقييم الذكاء. يُقصد بالذكاء في كثير من الأحيان القدرة على استيعاب المعلومات وتوظيفها بفاعلية. ومع ذلك، فهو لا يعني الوعي الذاتي. لا يوجد دليل على أن نموذج ذكاء اصطناعي يمتلك حوارات داخلية أو يستطيع إدراك وجوده ضمن عالم أوسع، وهاتان خاصيتان من خصائص الوعي الذاتي.
تستطيع النماذج اللغوية الكبيرة محاكاة الكلام البشري بشكل مقنع من خلال معالجة اللغة الطبيعية وفهم اللغة الطبيعية.
يرى بعض الخبراء في التقنية أن بنية الشبكات العصبية التي تعتمد عليها أنظمة الذكاء الاصطناعي، مثل النماذج اللغوية الكبيرة، تحاكي بنية الدماغ البشري وتشكِّل أساسًا للإدراك الواعي.
يعارض العديد من علماء الكمبيوتر هذا الرأي، مؤكدين أن الذكاء الاصطناعي ليس واعيًا، بل هو مجرد نظام تعلَّم كيفية محاكاة اللغة البشرية من خلال إعادة إنتاج المحتوى الذي استوعبه من مواقع مثل ويكيبيديا، وReddit، ووسائل التواصل الاجتماعي، دون أن يفهم فعليًا معنى ما يقوله أو سبب قوله.
برعت أنظمة الذكاء الاصطناعي على مر التاريخ في التعرف على الأنماط، وهو ما يشمل الصور ومقاطع الفيديو والصوت والبيانات المعقدة والنصوص. ويمكنها أيضًا محاكاة الشخصيات من خلال دراسة أنماط الكلام الخاصة بكل فرد.
يشير بعض الخبراء إلى الذكاء الاصطناعي بوصفه ببغاءً احتماليًا4 يعمل على "تركيب تسلسلات لغوية بشكل عشوائي استنادًا إلى البيانات الضخمة التي تدرَّب عليها، وفقًا لمعلومات احتمالية حول كيفية ترابطها، ولكن دون أي فهم حقيقي للمعنى".
وتكمن المشكلة في أن البشر لديهم رغبة فطرية في التواصل، ما يدفعهم إلى تجسيم الأشياء5 وإسقاط المشاعر والشخصيات عليها لأن ذلك يسهل عملية الترابط الاجتماعي.
كما أوضح الباحثون في ورقة "الببغاء الاحتمالي": "علينا أن نأخذ في الاعتبار أن إدراكنا للنصوص الطبيعية، بغض النظر عن كيفية توليدها، يتأثر بكفاءتنا اللغوية وميولنا الفطرية لتفسير أفعال التواصل على أنها تحمل معنىً متماسكًا ونية واضحة، سواء كانت كذلك أم لا".
ولهذا السبب قد يأخذ بعض الأشخاص ما يقوله الذكاء الاصطناعي على محمل الجد، على الرغم من أنهم يعرفون أن هذه التقنيات لا تستطيع في الواقع إدراك العالم وفهمه خارج نطاق البيانات التي تدرَّبت عليها.
نظرًا لقدرة روبوتات المحادثة المدعومة بالذكاء الاصطناعي على إجراء محادثات متماسكة والتعبير عن المشاعر، فقد يراها البعض ذات معنى، وغالبًا ما ينسون أن النماذج اللغوية الكبيرة، شأنها شأن غيرها من الآلات المشابهة للبشر، "مُبرمجة لتبدو مقنعة"، وفقًا لمجلة Scientific American6. كل ميزة فيها، سواء في الكلمات التي تستخدمها أو في محاولتها لمحاكاة تعابير البشر، تصب في هذا التصميم.
يُنشئ الذكاء الاصطناعي وهمًا بالحضور من خلال محاكاة تفاعلات التواصل البشري، دون أن يكون مرتبطًا بتجربة الوجود المادية.
كتب Fei-Fei Li وJohn Etchemendy، المؤسسان المشاركان لمعهد الذكاء الاصطناعي المتمحور حول الإنسان في جامعة ستانفورد، في مقال نشرته TIME7: "جميع الأحاسيس -الجوع، الشعور بالألم، رؤية اللون الأحمر، الوقوع في الحب- ناتجة عن حالات فسيولوجية لا يمتلكها النموذج اللغوي الكبير ببساطة". لذا، حتى لو تم تحفيز روبوت محادثة مدعومة بالذكاء الاصطناعي ليقول إنه جائع، فإنه لا يمكن أن يكون جائعًا فعليًا لأنه لا يمتلك معدة.
أنظمة الذكاء الاصطناعي الحالية ليست واعية. ومن خلال التجارب والاختبارات، أظهر هذا النوع من نماذج الذكاء الاصطناعي أيضًا أنه لا يزال معيبًا للغاية ويمكنه في كثير من الأحيان ارتكاب الأخطاء أو اختراع المعلومات، ما قد يؤدي إلى ظاهرة تُسمَّى الهلوسة.
غالبًا ما تنشأ هذه الأخطاء عندما تعجز النماذج عن تحديد السياق الذي توجد فيه المعلومات أو عندما تكون غير متأكدة. هناك خطر يتمثل في أن هذه العيوب قد تتفاقم إذا أصبح الذكاء الاصطناعي أكثر استقلالية.
إضافةً إلى ذلك، يشعر علماء الأخلاقيات بالقلق بشأن الذكاء الاصطناعي الواعي لأنهم لا يعرفون ما قد يحدث إذا فقد علماء الكمبيوتر السيطرة على الأنظمة التي تتعلم التفكير بشكل مستقل. وقد يشكِّل ذلك مشكلة "وجودية" إذا تعارضت أهداف الذكاء الاصطناعي مع الأهداف البشرية. وفي حال حدوث ذلك، لا يزال من غير الواضح من سيكون المسؤول عن الأضرار، واتخاذ القرارات الخاطئة، والتصرفات غير المتوقعة التي لا يمكن إرجاع منطقها إلى أمر بشري أصلي.
إضافة إلى ذلك، يخشى الخبراء من عدم قدرتهم على التواصل مع الذكاء الاصطناعي الواعي أو الوثوق تمامًا بمخرجاته. في المجمل، يرى البعض أن امتلاك الذكاء الاصطناعي للوعي قد يشكِّل تهديدًا على السلامة والأمن والخصوصية.
مع تزايد دمج الذكاء الاصطناعي في التقنيات الحالية، يسعى خبراء الصناعة إلى وضع أطر تنظيمية وحواجز تقنية أكثر صرامة. تزداد أهمية هذه الضوابط في ظل التساؤلات الأخلاقية والمبدئية المحيطة باستقلالية الذكاء الاصطناعي وقدراته.
1 “The Google engineer who thinks the company’s AI has come to life,” The Washington Post, 11 June 2022
2 “Google Sidelines Engineer Who Claims Its A.I. Is Sentient,” The New York Times, 12 June 2022
3 “Brains, Minds, and Machines: Consciousness and Intelligence,” Infinite MIT
4 “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 1 March 2021
5 “The mind behind anthropomorphic thinking: attribution of mental states to other species,” Animal Behaviour, November 2015
6 “Google Engineer Claims AI Chatbot Is Sentient: Why That Matters,” Scientific American, 12 July 2022
7 “No, Today’s AI Isn’t Sentient. Here’s How We Know,” TIME, 22 May 2024