تاريخ الذكاء الاصطناعي

قمة ناطحة سحاب تخترق السُحب

المؤلفين

Tim Mucci

IBM Writer

Gather

تاريخ الذكاء الاصطناعي

حلم البشر بابتكار آلات مفكرة منذ القدم. وتعكس المحاولات الفولكلورية والتاريخية لبناء أجهزة قابلة للبرمجة هذا الطموح القديم، ويزخر الخيال بإمكانات الآلات الذكية وتخيل مزاياها ومخاطرها. فلا عجب أنه عندما أصدرت OpenAI الإصدار الأول من GPT (المحول التوليدي المسبق التدريب)، سرعان ما حظي باهتمام واسع النطاق، ما يمثل خطوة مهمة نحو تحقيق هذا الحلم القديم.

كان GPT-3 لحظة فارقة في مجال الذكاء الاصطناعي نظرًا لحجمه غير المسبوق، حيث يضم 175 مليار معلمة، ما مكنه من أداء مجموعة واسعة من مهام اللغة الطبيعية من دون الحاجة إلى ضبط دقيق واسع النطاق. دُرب هذا النموذج باستخدام البيانات الضخمة، ما سمح له بتوليد نصوص شبيهة بالنصوص البشرية والمشاركة في المحادثات. كما كان يتمتع بقدرة التعلم من أمثلة قليلة، ما أدى إلى تحسين مرونته بشكل كبير وأظهر فائدته في تطبيقات الذكاء الاصطناعي التجارية مثل روبوتات المحادثة والمساعدين الافتراضيين.

أما اليوم، فقد أصبح الذكاء الاصطناعي مدمجًا بشكل متزايد في العديد من جوانب الحياة اليومية، بدءًا من وسائل التواصل الاجتماعي إلى إجراءات العمل، ومع تحسن هذه التقنية، سيستمر تأثيرها في الازدياد. لفهم الاتجاهات التي يمكن أن تتخذها التقنية، من المفيد أن نفهم كيف وصلنا إلى هنا. فيما يأتي تاريخ التطورات الرئيسية في مجال الذكاء الاصطناعي:

ما قبل القرن العشرين

1726

تقدم رواية "رحلات جاليفر" الرائعة لجوناثان سويفت فكرة المحرك، وهو آلة ميكانيكية كبيرة تستخدم لمساعدة العلماء على توليد أفكار وجمل وكتب جديدة. 

يدير العلماء مقابض الآلة التي تدير كتلاً خشبية منقوشة عليها كلمات. ويُقال إن الآلة تبتكر أفكارًا جديدة وأطروحات فلسفية من خلال الجمع بين الكلمات بترتيبات مختلفة:

"كان الجميع يعلم مدى مشقة الطريقة المعتادة في الوصول إلى الفنون والعلوم؛ في حين أنه يمكن لأكثر الأشخاص جهلاً بابتكاره أن يكتبوا كتبًا في الفلسفة والشعر والسياسة والقوانين والرياضيات واللاهوت، من دون الحاجة إلى موهبة فذة أو دراسة، وذلك بتكلفة معقولة وبقليل من العمل البدني".

- رحلات جاليفر للمؤلف Jonathan Swift (1726)

تستشرف سخرية Swift مفهوم توليد النص الخوارزمي الذي أصبح الآن حقيقة واقعة باستخدام الذكاء الاصطناعي الحديث. يمكن لنماذج الذكاء الاصطناعي إنتاج نص متماسك من خلال الجمع بين الكلمات والأفكار بناءً على خوارزميات أساسية، على غرار ما كان من المفترض أن يفعله محرك Swift الخيالي.

من 1900 إلى 1950

1914

عرض المهندس الإسباني Leonardo Torres y Quevedo أول آلة للعب الشطرنج El Ajedrecista في المعرض العالمي في باريس. استخدمت الآلة مغناطيسات كهربائية وكانت آلية بالكامل. لعبت El Ajedrecista آليًا نهاية لعبة شطرنج بسيطة، حيث كان الملك والقلعة ضد الملك. ولم تتطلب الآلة أي تدخل بشري بمجرد إعدادها - كانت الآلة تؤدي حركات شطرنج قانونية بشكل مستقل، وإذا أدى الخصم البشري حركة غير قانونية، كانت الآلة تشير إلى الخطأ. إذا وُضعت الآلة في وضع الفوز، كانت قادرة على هزيمة الخصم البشري بكل تأكيد.

1921

افتتحت مسرحية بعنوان "روبوتات روسوم العالمية" (R.U.R) في لندن. المسرحية التي كتبها كاريل تشابيك هي المرة الأولى التي تُستخدم فيها كلمة "روبوت" باللغة الإنجليزية. في اللغة التشيكية، ترتبط كلمة "روبوتا" بالعمل الإجباري أو القسري الذي يؤديه الفلاحون في النظام الإقطاعي. وسرعان ما اكتسب مصطلح "روبوت" اعترافًا دوليًا بعد نجاح المسرحية وأصبح المصطلح القياسي للكائنات الميكانيكية أو الاصطناعية التي صُنعت لأداء المهام. على الرغم من أن روبوتات تشابيك هي روبوتات عضوية، فإن الكلمة أصبحت مرتبطة بالآلات الميكانيكية التي تشبه البشر والمصممة لأداء أعمال رتيبة لا تتطلب مهارة.

1939

ابتكر John Vincent Atanasoff,، أستاذ الفيزياء والرياضيات في كلية ولاية أيوا، وتلميذه في الدراسات العليا Clifford Berry كمبيوتر Atanasoff-Berry (ABC) بمنحة قدرها 650 دولارًا أمريكيًا في جامعة ولاية أيوا. ويُعد كمبيوتر ABC أحد أوائل أجهزة الكمبيوتر الإلكترونية الرقمية وعلامة فارقة في مجال علوم الكمبيوتر الأمريكية.

على الرغم من أن كمبيوتر ABC لم يُشغل بالكامل أو يُستخدم على نطاق واسع، فإنه قدم العديد من المفاهيم الأساسية التي ستصبح أساسية في تطوير الحوسبة الحديثة.

على عكس أجهزة الحوسبة السابقة التي اعتمدت على الأنظمة العشرية، استخدم ABC النظام الثنائي (الأصفار والآحاد) لتمثيل البيانات الذي أصبح معيارًا لأجهزة الكمبيوتر بعد ذلك. يعد ABC أيضًا من أوائل أجهزة الكمبيوتر التي استخدمت الدوائر الإلكترونية في الحوسبة بدلًا من الأنظمة الميكانيكية أو الكهروميكانيكية، ما سمح بإجراء حسابات أسرع وأكثر موثوقية. وفصل ABC تخزين البيانات (الذاكرة) عن وحدة المعالجة (العمليات المنطقية)، وهو مبدأ لا يزال متبعًا في بنية أجهزة الكمبيوتر الحديثة. واستخدم المكثفات لتخزين البيانات ويمكنه التعامل مع ما يصل إلى 30 معادلة متزامنة.

استخدم ABC حوالي 300 أنبوب مفرغ من الهواء في عملياته المنطقية، ما جعله أسرع بكثير من الآلات الحاسبة الميكانيكية السابقة. وعلى الرغم من ضخامة حجم الأنابيب المفرغة من الهواء وعرضتها للعطل، فإنها كانت تطورًا أساسيًا في الحوسبة الإلكترونية. كان وزن ABC يزن أكثر من 700 رطل ويمكنه حل ما يصل إلى 29 معادلة خطية متزامنة.

1943

نشر Warren S. McCulloch وWalter Pitts "حساب التفاضل والتكامل المنطقي للأفكار الكامنة في النشاط العصبي" في نشرة الفيزياء الحيوية الرياضية.1 وهو أحد الأعمال الأساسية في تاريخ كل من علم الأعصاب والذكاء الاصطناعي. تضع الورقة البحثية الأساس لفكرة أن الدماغ يمكن فهمه كنظام حاسوبي، وتقدم مفهوم الشبكات العصبية الاصطناعية التي أصبحت الآن تقنية رئيسية في الذكاء الاصطناعي الحديث. تلهم هذه الفكرة أنظمة الكمبيوتر التي تحاكي الوظائف والعمليات الشبيهة بالدماغ، خاصة من خلال الشبكات العصبية والتعلم العميق.

1950

نُشرت ورقة عالم الرياضيات البريطاني آلان تورينج البارزة "آلات الحوسبة والذكاء" في مجلة Mind.2 تُعد هذه الورقة نصًا أساسيًا في مجال الذكاء الاصطناعي وتتناول السؤال "هل يمكن للآلات أن تفكر؟". وقد أرسى نهج Turing أساسًا للمناقشات المستقبلية حول طبيعة الآلات المفكرة وكيف يمكن قياس ذكائها من خلال "لعبة التقليد"، المعروفة الآن باسم اختبار Turing. قدم Turing تجربة فكرية لتجنب الإجابة المباشرة على السؤال "هل يمكن للآلات أن تفكر؟". بدلاً من ذلك، أعاد صياغة المشكلة في شكل عملي أكثر تحديدًا: هل يمكن للآلة أن تُظهر سلوكًا ذكيًا لا يمكن تمييزه عن سلوك الإنسان؟

أصبح اختبار Turing مفهومًا مركزيًا في مجال الذكاء الاصطناعي، حيث أصبح بمثابة طريقة لقياس ذكاء الآلة من خلال تقييم قدرة الآلة على محاكاة المحادثة والسلوك البشري بشكل مقنع.

من 1950 إلى 1980

1951

بنى Marvin Minsky وDean Edmunds أول شبكة عصبية اصطناعية. تعد حاسبة التعزيز التناظرية العصبية العشوائية (SNARC) محاولة مبكرة لوضع نموذج لعمليات التعلم في الدماغ البشري، وتحديدًا من خلال التعلم المعزز.

صُممت حاسبة التعزيز التناظرية العصبية العشوائية لمحاكاة سلوك فأر يتنقل في متاهة. وتتمثل الفكرة في جعل الآلة تحاكي الطريقة التي تتعلم بها الحيوانات من خلال المكافآت والعقاب - أي تعديل سلوكها بمرور الوقت بناءً على التغذية الراجعة. وهو عبارة عن كمبيوتر تناظري يستخدم شبكة من 3000 أنبوب مفرغ إلى جانب أوزان متشابكة لمحاكاة 40 وحدة تشبه الخلايا العصبية.

1952

طور Allen Newell، عالم رياضيات وعالم كمبيوتر، وHerbert A. Simon، عالم سياسي، برامج مؤثرة مثل برنامج التنظير المنطقي وبرنامج حل المشكلات العام، وهما من أوائل من حاكى قدرات الإنسان على حل المشكلات باستخدام الأساليب الحسابية.

1955

صِيغ مصطلح "الذكاء الاصطناعي" لأول مرة في اقتراح ورشة عمل بعنوان "اقتراح لمشروع دارتموث الصيفي للبحوث حول الذكاء الاصطناعي"،3 قدمه John McCarthy من كلية دارتموث، وMarvin Minsky من جامعة هارفارد، وNathaniel Rochester من شركة IBM، وClaude Shannon من Bell Telephone Laboratories.

تُعد ورشة العمل، التي عُقدت بعد ذلك بعام، في شهري يوليو وأغسطس من عام 1956، تاريخ الميلاد الرسمي لمجال الذكاء الاصطناعي المزدهر.

1957

طور Frank Rosenblatt، عالم النفس وعالم الكمبيوتر، البيرسبترون، وهو شبكة عصبية اصطناعية مبكرة تتيح التعرف على الأنماط استنادًا إلى شبكة تعلم حاسوبية من طبقتين. يقدم البيرسبترون مفهوم المصنف الثنائي الذي يمكنه التعلم من البيانات عن طريق تعديل أوزان مدخلاته من خلال خوارزميات التعلم. وعلى الرغم من اقتصاره على حل المشكلات الخطية القابلة للفصل، فإنه أرسى الأساس للشبكات العصبية المستقبلية وتطورات التعلم الآلي.

1958

طور John McCarthy لغة البرمجة Lisp4 التي تعني معالجة القوائم. طُورت لغة Lisp من عمل McCarthy على صياغة الخوارزميات والمنطق الرياضي، متأثرًا بشكل خاص برغبته في إنشاء لغة برمجة يمكنها التعامل مع المعلومات الرمزية. وسرعان ما أصبحت Lisp لغة البرمجة الأكثر شعبية المستخدمة في أبحاث الذكاء الاصطناعي.

1959

كان Arthur Samuel رائدًا في مفهوم التعلم الآلي من خلال تطوير برنامج كمبيوتر يحسن أداءه في لعبة الداما مع مرور الوقت. يوضح Samuel أنه يمكن برمجة الكمبيوتر ليتبع قواعد محددة مسبقًا و"يتعلم" من التجربة، وفي النهاية يلعب أفضل من المبرمج. ويمثل عمله خطوة كبيرة نحو تعليم الآلات أن تتحسن من خلال التجربة، وصاغ مصطلح "التعلم الآلي" في هذه العملية.

 

نشر Oliver Selfridge ورقته البحثية "بانديمونيوم: نموذج للتعلم"5 واقترح نموذج بانديمونيوم نظامًا تعمل فيه "شياطين" (وحدات معالجة) مختلفة معًا للتعرف على الأنماط. تتنافس الشياطين للتعرف على الميزات في البيانات التي لم تُبرمج مسبقًا، في محاكاة للتعلم غير الخاضع للإشراف. يعد نموذج Selfridge إسهامًا مبكرًا في التعرف على الأنماط، حيث أثر في التطورات المستقبلية في مجال رؤية الآلة والذكاء الاصطناعي.

 

يقدم John McCarthy مفهوم آخذ النصيحة في ورقته البحثية "برامج ذات حس سليم".6 يهدف هذا البرنامج إلى حل المشكلات من خلال معالجة الجمل في المنطق الرسمي، ما يضع الأساس للتفكير الاستدلالي في الذكاء الاصطناعي. يتصور McCarthy نظامًا يمكنه فهم التعليمات والاستدلال بالمعرفة المنطقية والتعلم من التجربة، بهدف طويل الأمد يتمثل في تطوير ذكاء اصطناعي يمكنه التكيف والتعلم بفعالية البشر نفسها. ويساعد هذا المفهوم على تشكيل الأبحاث المبكرة في تمثيل المعرفة والاستدلال الآلي.

1965

نشر الفيلسوف Hubert Dreyfus كتاب "الكيمياء والذكاء الاصطناعي"7، مجادلًا بأن العقل البشري يعمل بشكل أساسي مختلف عن أجهزة الكمبيوتر. ويتوقع حدودًا لتقدم الذكاء الاصطناعي بسبب تحديات تكرار الحدس والفهم البشري. لنقده دور في إثارة النقاشات حول الحدود الفلسفية والعملية للذكاء الاصطناعي.

 

I.J. كتب Good "تكهنات بشأن أول آلة فائقة الذكاء،"8 الشهير الذي يؤكد أنه بمجرد إنشاء آلة فائقة الذكاء، يمكنها تصميم أنظمة أكثر ذكاءً، مما يجعلها آخر اختراع للبشرية - شريطة أن تظل قابلة للتحكم فيها. أفكاره تستبق المناقشات الحديثة حول الذكاء الاصطناعي الفائق ومخاطره.

 

طور Joseph Weizenbaum مفهوم ELIZA،9 وهو برنامج يحاكي المحادثة البشرية من خلال الاستجابة للمدخلات المكتوبة باللغة الطبيعية. وعلى الرغم من أن Weizenbaum كان ينوي إظهار سطحية التواصل بين الإنسان والكمبيوتر، فإنه فوجئ بعدد المستخدمين الذين نسبوا إلى البرنامج مشاعر شبيهة بمشاعر البشر، ما أثار تساؤلات أخلاقية حول الذكاء الاصطناعي والتفاعل البشري.

 

طور كل من Edward Feigenbaum وBruce Buchanan وJoshua Lederberg وCarl Djerassi نظام DENDRAL في جامعة ستانفورد.10 وهو أول نظام خبير لأتمتة عملية اتخاذ القرار لدى الكيميائيين العضويين من خلال محاكاة تكوين الفرضيات. ويمثل نجاح نظام DENDRAL تقدمًا في مجال الذكاء الاصطناعي، حيث أظهر كيف يمكن للأنظمة أن تؤدي مهام متخصصة مثل الخبراء البشريين أو أفضل منهم.

1966

طُور Shakey في معهد ستانفورد للأبحاث (SRI) في أواخر الستينيات، وهو أول روبوت متحرك قادر على التفكير في أفعاله، ويجمع بين الإدراك والتخطيط وحل المشكلات.11 وفي مقال نشرته مجلة Life عام 1970، توقع Marvin Minsky أنه في غضون ثلاث إلى ثماني سنوات، سيصل الذكاء الاصطناعي إلى مستوى الذكاء العام للإنسان العادي. وتمثل إنجازات Shakey علامة فارقة في مجال الروبوتات والذكاء الاصطناعي، على الرغم من أن الجدول الزمني الطموح الذي وضعه Minsky أثبت أنه متفائل للغاية.

1969

قدم كل من Arthur Bryson وYu-Chi Ho طريقة الانتشار الخلفي، وهي طريقة لتحسين الأنظمة الديناميكية متعددة المراحل. وفي حين إنها طُورت في الأصل لأنظمة التحكم، أصبحت هذه الخوارزمية ضرورية لتدريب الشبكات العصبية متعددة الطبقات. لم يكتسب الانتشار الخلفي مكانة بارزة إلا في العقدين الأول والثاني من القرن الحادي والعشرين مع التقدم في قوة الحوسبة، ما أتاح ظهور التعلم العميق.

 

نشر كل من Marvin Minsky وSeymour Papert كتاب البيرسيبترونات: مقدمة في الهندسة الحاسوبية12 الذي حلل بشكل نقدي قيود الشبكات العصبية أحادية الطبقة. وغالبًا ما يُلام عملهما على تقليل الاهتمام بالشبكات العصبية. في طبعة عام 1988، جادلوا بأن التقدم قد توقف بالفعل بسبب الافتقار إلى الفهم النظري على الرغم من التجارب العديدة التي أجريت على البيرسيبترونات بحلول منتصف الستينيات.

1970

ابتكر Terry Winograd برنامج SHRDLU، وهو برنامج رائد لفهم اللغة الطبيعية.13 يمكن لبرنامج SHRDLU التفاعل مع المستخدمين بلغة إنجليزية بسيطة للتعامل مع الأشياء في عالم افتراضي مكون من كتل افتراضية، ما يدل على قدرة أجهزة الكمبيوتر على فهم التعليمات المعقدة والاستجابة لها. وهو إنجاز مبكر في مجال معالجة اللغة الطبيعية، على الرغم من أن نجاحه يقتصر على بيئات محددة عالية التنظيم. تسلط قدرات SHRDLU الضوء على كل من الوعود والتحديات التي تواجه تحقيق فهم لغوي أوسع بالذكاء الاصطناعي.

1972

طور نظام MYCIN في جامعة ستانفورد، وهو أحد أوائل الأنظمة الخبيرة التي أُنشئت لمساعدة الأطباء على تشخيص الالتهابات البكتيرية والتوصية بالعلاجات بالمضادات الحيوية.14 يستخدم MYCIN نهجًا قائمًا على القواعد لمحاكاة عملية اتخاذ القرار لدى الخبراء البشريين ويوفر منصة لتطوير أنظمة الذكاء الاصطناعي الطبية. ومع ذلك، وبسبب المخاوف الأخلاقية والقانونية، لم يُطبق أبدًا في الممارسة السريرية.

1973

قدم James Lighthill تقريرًا نقديًا إلى مجلس البحوث العلمية البريطاني حول تقدم أبحاث الذكاء الاصطناعي، وخلص إلى أن الذكاء الاصطناعي فشل في الوفاء بوعوده المبكرة.15 ويقول إن هذا المجال لم يحقق اختراقات كبيرة، ما أدى إلى انخفاض كبير في التمويل الحكومي للذكاء الاصطناعي في المملكة المتحدة. وقد أسهم هذا التقرير في بداية أول شتاء للذكاء الاصطناعي16، وهي فترة شهدت تراجع الاهتمام والاستثمار في أبحاث الذكاء الاصطناعي.

من 1980 إلى 2000

1980

تم تصميم الروبوت WABOT-217، وهو روبوت شبيه بالإنسان طُور في جامعة واسيدا في اليابان، ابتداءً من عام 1980 واكتمل بناؤه حوالي عام 1984. وجاء بعد WABOT-1، الذي صُمم في عام 1973. بينما ركز الروبوت WABOT-1 على الحركة والتواصل الأساسي، فإن الروبوت WABOT-2 أكثر تخصصًا، حيث صُمم خصوصًا ليكون روبوتًا موسيقيًا. ويمكنه قراءة المقطوعات الموسيقية من خلال "عيون" الكاميرا الخاصة به والتحدث مع البشر وعزف الموسيقى على آلة موسيقية إلكترونية وحتى مرافقة مغني بشري. يمثل هذا المشروع خطوة مهمة نحو تطوير الروبوتات الشبيهة بالبشر والذكاء الاصطناعي القادرة على أداء مهام معقدة شبيهة بمهام البشر مثل التعبير الفني.

1982

أطلقت اليابان مشروع أنظمة الكمبيوتر من الجيل الخامس (FGCS) بهدف تطوير أجهزة كمبيوتر قادرة على التعامل مع التفكير الاستدلالي المنطقي وحل المشكلات، ما دفع بأبحاث الذكاء الاصطناعي إلى الأمام. يهدف هذا المشروع الطموح إلى بناء آلات قادرة على أداء مهام مثل معالجة اللغة الطبيعية والأنظمة الخبيرة. وعلى الرغم من توقفه في عام 1992، فإن المشروع وما توصل إليه من نتائج ساهم بشكل كبير في تطوير مجال البرمجة المنطقية المتزامنة.

1984

في الاجتماع السنوي لجمعية النهوض بالذكاء الاصطناعي (AAAI)، حذر روجر شانك ومارفين مينسكي من "شتاء الذكاء الاصطناعي" الوشيك، متوقعين أن تؤدي التوقعات المبالغ فيها المحيطة بالذكاء الاصطناعي إلى انهيار الاستثمار والبحث قريبًا، على غرار انخفاض التمويل في منتصف السبعينيات. وتحققت توقعاتهم في غضون ثلاث سنوات حيث تضاءل الاهتمام بالذكاء الاصطناعي بسبب عدم الوفاء بالوعود، ما أدى إلى انخفاض التمويل وتباطؤ التقدم. أصبحت هذه الفترة تُعرف باسم شتاء الذكاء الاصطناعي الثاني.

يسلط تحذيرSchank وMinsky الضوء على الطبيعة الدورية لضجة الذكاء الاصطناعي، حيث تتبع موجات التفاؤل فترات من اليأس عندما تفشل التقنية في تلبية توقعات المستثمرين والجمهور.

1986

نشر كل من ديفيد روميلهارت وجيفري هينتون ورونالد ويليامز الورقة البحثية الأساسية "تعلم التمثيلات عن طريق الانتشار الخلفي للخطأ" التي وصفوا فيها خوارزمية الانتشار الخلفي.18 وتسمح هذه الطريقة للشبكات العصبية بتعديل أوزانها الداخلية عن طريق "الانتشار الخلفي" للخطأ عبر الشبكة، ما يحسن قدرة الشبكات متعددة الطبقات على تعلم الأنماط المعقدة. وقد أصبحت خوارزمية الانتشار الخلفي أساسًا للتعلم العميق الحديث، ما أثار اهتمامًا متجددًا بالشبكات العصبية وتغلب على بعض القيود التي سُلط الضوء عليها في أبحاث الذكاء الاصطناعي السابقة. يعتمد هذا الاكتشاف على العمل الذي أجراه آرثر برايسون ويو تشي هو في عام 1969 من خلال تطبيق خوارزمية الانتشار الخلفي على الشبكات العصبية تحديدًا، متغلبًا على القيود السابقة في تدريب الشبكات متعددة الطبقات.

جعل هذا الاكتشاف الشبكات العصبية الاصطناعية قابلة للتطبيق العملي وفتح الباب أمام ثورة التعلم العميق في العقدين الأول والثاني من القرن الحادي والعشرين.

1987

خلال خطابه الرئيسي في مؤتمر Educom، قدم John Sculley الرئيس التنفيذي لشركة Apple فيديو ملاح المعرفة الذي يتخيل مستقبلاً يساعد فيه الوكلاء الرقميون الأذكياء المستخدمين على الوصول إلى كميات هائلة من المعلومات عبر الأنظمة المتصلة بالشبكة.19 يصور هذا المفهوم الاستشرافي أستاذًا يتفاعل مع مساعد ذكي واسع المعرفة يعمل بالصوت يمكنه استرجاع البيانات والإجابة عن الأسئلة وعرض المعلومات مما نعرفه الآن على أنه الإنترنت. وقد تنبأ الفيديو بالعديد من عناصر التقنيات الحديثة مثل المساعدين الذين يعملون بالذكاء الاصطناعي وقواعد بيانات المعرفة المتصلة بالشبكة وعالمنا الرقمي المترابط.

1988

نشر Judea Pearl كتاب الاستدلال الاحتمالي في الأنظمة الذكية الذي أحدث ثورة في كيفية معالجة الذكاء الاصطناعي للمعلومات غير المؤكدة.20 يقدم هذا العمل شبكات بايزيان، وهي صيغة لتمثيل نماذج الاحتمالات المعقدة وخوارزميات إجراء الاستدلال داخلها. وقد سمحت أساليب Pearl لأنظمة الذكاء الاصطناعي باتخاذ قرارات منطقية في بيئات غير مؤكدة، ما أثر في مجالات تتجاوز الذكاء الاصطناعي، بما في ذلك الهندسة والعلوم الطبيعية. وتُوجت إسهاماته بالحصول على جائزة Turing لعام 2011 التي أشادت بدوره في إنشاء "الأساس التمثيلي والحاسوبي" للاستدلال الاحتمالي الحديث في مجال الذكاء الاصطناعي.21

 

طور Rollo Carpenter روبوت 22Jabberwacky، وهو روبوت محادثة مصمم لمحاكاة المحادثات البشرية الممتعة والمسلية والفكاهية. وخلافًا للأنظمة القائمة على القواعد، تعلم Jabberwacky من التفاعلات البشرية لتوليد حوار أكثر طبيعية، ما مهد الطريق لنماذج الذكاء الاصطناعي الحوارية اللاحقة. ويُعد روبوت المحادثة هذا أحد المحاولات الأولى لإنشاء ذكاء اصطناعي يحاكي المحادثة البشرية العفوية اليومية من خلال التعلم المستمر من تفاعلاته مع المستخدمين.

 

وقد نشر باحثون من مركز T.J. Watson Research Center التابع لشركة IBM بحثًا بعنوان "نهج إحصائي لترجمة اللغات"، وهو ما يمثل تحولاً محوريًا من الأساليب القائمة على القواعد إلى الأساليب الاحتمالية في الترجمة الآلية.23 ويستخدم هذا النهج، الذي يجسده مشروع 24Candide التابع لشركة IBM، 2.2 مليون زوج من الجمل الإنجليزية-الفرنسية مستمدة في المقام الأول من جلسات البرلمان الكندي. وتركز هذه المنهجية الجديدة على التعلم من الأنماط الإحصائية في البيانات بدلاً من محاولة إدراك أو "فهم" اللغات، ما يعكس الاتجاه الأوسع نحو التعلم الآلي الذي يعتمد على تحليل الأمثلة المعروفة. مهد هذا النموذج الاحتمالي الطريق أمام العديد من التطورات المستقبلية في معالجة اللغات الطبيعية والترجمة الآلية.

 

أصدر كل من Marvin Minsky وSeymour Papert طبعة موسعة من كتابهما البيرسيبترونات الصادر عام 1969، وهو نقد أساسي للشبكات العصبية المبكرة. وفي المقدمة الجديدة التي تحمل عنوان "نظرة من عام 1988"، تحدثا عن التقدم البطيء في مجال الذكاء الاصطناعي، مشيرين إلى أن العديد من الباحثين استمروا في تكرار أخطاء الماضي بسبب عدم الإلمام بالتحديات السابقة.12 وسلطا الضوء على الحاجة إلى فهم نظري أعمق، وهو ما تفتقر إليه أبحاث الشبكات العصبية السابقة. كما أكدوا على انتقاداتهم الأصلية مع الاعتراف بالمناهج الناشئة التي ستؤدي لاحقًا إلى تطورات التعلم العميق الحديثة.

1989

حقق Yann LeCun وفريق من الباحثين في مختبرات AT&T Bell Labs إنجازًا كبيرًا من خلال تطبيق خوارزمية الانتشار الخلفي بنجاح على شبكة عصبية متعددة الطبقات للتعرف على صور الرمز البريدي المكتوبة بخط اليد.24 وهذا أحد التطبيقات العملية الأولى للتعلم العميق باستخدام الشبكات العصبية التلافيفية. وعلى الرغم من محدودية الأجهزة في ذلك الوقت، فقد استغرق تدريب الشبكة حوالي ثلاثة أيام، وهو ما يمثل تحسنًا كبيرًا مقارنةً بالمحاولات السابقة. ويوضح نجاح النظام في التعرف على الأرقام المكتوبة بخط اليد، وهي مهمة رئيسية لأتمتة الخدمات البريدية، إمكانات الشبكات العصبية في مهام التعرف على الصور، كما أنه أرسى الأساس للنمو الهائل للتعلم العميق في العقود التالية.

1993

نشر مؤلف الخيال العلمي وعالم الرياضيات Vernor Vinge مقالاً بعنوان "التفرد التكنولوجي القادم" الذي توقع فيه أن الذكاء الخارق سيحدث خلال الثلاثين عامًا القادمة، ما سيغير الحضارة الإنسانية بشكل أساسي.25 يجادل فينج بأن التقدم التقني، وخاصة في مجال الذكاء الاصطناعي، سيؤدي إلى تفجير طاقات الذكاء - حيث تتفوق الآلات على الذكاء البشري - ونهاية العصر البشري كما نعرفه. وقد كان لمقاله دور فعال في الترويج لمفهوم "التفرد التكنولوجي"، وهي اللحظة التي سيتجاوز فيها الذكاء الاصطناعي السيطرة البشرية، ما أثار جدلاً في مجتمعات الذكاء الاصطناعي والأخلاقيات والمستقبل.

استمر هذا التنبؤ في التأثير في المناقشات حول التأثيرات المحتملة للذكاء الاصطناعي والذكاء الفائق، لا سيما المخاطر الوجودية والاعتبارات الأخلاقية لصنع آلات ذات ذكاء يفوق القدرات البشرية.

1995

طور Richard Wallace روبوت المحادثة 26A.L.I.C.E. (كيان حاسوبي لغوي اصطناعي على الإنترنت)، بناءً على الأساس الذي وضعه برنامج ELIZA لـ Joseph Weizenbaum. على عكس ELIZA، الذي اعتمد على ردود مكتوبة لمحاكاة المحادثة، استفاد A.L.I.C.E. من شبكة الإنترنت العالمية الناشئة حديثًا لجمع كميات هائلة من بيانات اللغة الطبيعية ومعالجتها، ما مكنه من المشاركة في محادثات أكثر تعقيدًا وسلاسة. ويستخدم A.L.I.C.E. تقنية مطابقة الأنماط تسمى لغة ترميز الذكاء الاصطناعي (AIML) لتحليل الردود وتوليدها، ما يجعله أكثر قابلية للتكيف والتوسع من سابقيه. مهد عمل والاس الطريق لمزيد من التطورات في مجال الذكاء الاصطناعي الحواري، ما ترك أثر في تطور المساعدين الافتراضيين وروبوتات المحادثة الحديثة.

1997

قدم Sepp Hochreiter وJürgen Schmidhuber الذاكرة القصيرة والطويلة الأمد (LSTM)، وهو نوع من الشبكات العصبية المتكررة (RNN) المصممة للتغلب على قيود الشبكات العصبية المتكررة التقليدية، لا سيما عدم قدرتها على التقاط التبعيات طويلة المدى في البيانات بشكل فعال. تُستخدم شبكات الذاكرة القصيرة والطويلة الأمد على نطاق واسع في تطبيقات مثل التعرف على خط اليد والتعرف على الكلام ومعالجة اللغة الطبيعية والتنبؤ بالسلاسل الزمنية.

 

حقق برنامج Deep Blue من شركة IBM إنجازًا تاريخيًا بهزيمته لبطل العالم في الشطرنج Garry Kasparov في مباراة من ست جولات.27 وهذه هي المرة الأولى التي يهزم فيها برنامج حاسوبي يلعب الشطرنج بطلاً عالميًا في ظل الضوابط الزمنية القياسية لمباريات الشطرنج. وأظهر انتصار Deep Blue أن أجهزة الكمبيوتر يمكنها التفوق على البشر في الألعاب الإستراتيجية العالية التي طالما اعتبرت سمة مميزة للذكاء البشري. إن قدرة الآلة على حساب ملايين الحركات في الثانية الواحدة، بالإضافة إلى التطورات في نظرية الألعاب والاستدلالات، مكّنتها من التفوق على كاسباروف، ما عزز مكانة Deep Blue في تاريخ الذكاء الاصطناعي.

كما أثار هذا الحدث أيضًا نقاشات حول العلاقة المستقبلية بين الإدراك البشري والذكاء الاصطناعي، ما ترك أثر في أبحاث الذكاء الاصطناعي اللاحقة في مجالات أخرى مثل معالجة اللغات الطبيعية والأنظمة المستقلة.

1998

ابتكر Dave Hampton وCaleb Chung حيوان Furby، وهو أول حيوان أليف آلي منزلي يحقق نجاحًا كبيرًا.28 يستطيع Furby الاستجابة للمس والصوت والضوء و"تعلم" اللغة مع مرور الوقت، بدءًا من لغته، فوربيش، ولكنه يتحول تدريجيًا إلى "التحدث" باللغة الإنجليزية في أثناء تفاعله مع المستخدمين. وقدرته على محاكاة التعلم والتفاعل مع المستخدمين تجعله مقدمة لروبوتات اجتماعية أكثر تطورًا، حيث تجتمع الروبوتات مع الترفيه لأول مرة في منتج استهلاكي.

 

نشر Yann LeCun وYoshua Bengio ومعاونيهما أوراقًا بحثية مؤثرة حول تطبيق الشبكات العصبية على التعرف على خط اليد.29 ويركز عملهما على استخدام الشبكات العصبية التلافيفية لتحسين خوارزمية الانتشار الخلفي، ما يجعلها أكثر فعالية لتدريب الشبكات العميقة. من خلال تحسين عملية الانتشار الخلفي وإظهار قوة الشبكات العصبية التلافيفية للتعرف على الصور والأنماط، مهدت أبحاث لوكون وبنجيو الطريق لتقنيات التعلم العميق الحديثة المستخدمة في مجموعة واسعة من تطبيقات الذكاء الاصطناعي اليوم.

من 2000 إلى 2020

2000

طورتCynthia Breazeal في معهد ماساتشوستس للتكنولوجيا Kismet، وهو روبوت مصمم للتفاعل مع البشر من خلال الإشارات العاطفية والاجتماعية.30 جُهز Kismet بكاميرات وميكروفونات وملامح وجه معبرة تسمح له بإدراك المشاعر الإنسانية مثل السعادة والحزن والمفاجأة والاستجابة لها. ويمثل هذا التطور تقدمًا في مجال الروبوتات الاجتماعية، حيث يستكشف كيف يمكن للروبوتات أن تتفاعل مع البشر بشكل طبيعي أكثر.

2006

نشر Geoffrey Hinton بحثًا بعنوان "تعلم طبقات متعددة من التمثيل" الذي يلخص الإنجازات الرئيسية في مجال التعلم العميق ويوضح كيف يمكن تدريب الشبكات العصبية متعددة الطبقات بشكل أكثر فعالية.31 يركز عمل Hinton على تدريب الشبكات ذات الاتصالات المتدرجة لتوليد البيانات الحسية بدلاً من مجرد تصنيفها. ويمثل هذا النهج تحولاً من الشبكات العصبية التقليدية إلى ما نسميه الآن التعلم العميق، ما يسمح للآلات بتعلم تمثيلات هرمية معقدة للبيانات.

2007

بدأت Fei-Fei Li وفريقها في جامعة برينستون مشروع ImageNet، حيث أنشأوا واحدة من أكبر وأشمل قواعد البيانات للصور المصنفة.32 صُمم ImageNet لدعم تطوير برامج التعرف البصري على الأجسام من خلال توفير ملايين الصور المصنفة عبر آلاف الفئات. يمكّن حجم مجموعة البيانات وجودتها من إحراز تقدم في أبحاث الرؤية الحاسوبية، لا سيما في تدريب نماذج التعلم العميق للتعرف على الأجسام في الصور وتصنيفها.

2009

طور علماء الكمبيوتر في مختبر المعلومات الذكية في جامعة نورث وسترن برنامج Stats Monkey وهو برنامج قادر على توليد القصص الإخبارية الرياضية تلقائيًا من دون تدخل بشري.34 باستخدام إحصائيات المباريات، يستطيع برنامج Stats Monkey صياغة روايات متماسكة عن مباريات البيسبول، بما في ذلك ملخصات المباريات وأداء اللاعبين والتحليلات. وقد كان لهذا العمل دور أساسي في تسريع اعتماد وحدات معالجة الرسومات في التعلم العميق، ما أدى إلى تحقيق الإنجازات في العقد الأول من القرن الحادي والعشرين التي تدعم تطبيقات الذكاء الاصطناعي الحديثة في مجالات مثل الرؤية الحاسوبية ومعالجة اللغات الطبيعية.

 

طور علماء الكمبيوتر في مختبر المعلومات الذكية في جامعة نورث وسترن برنامج Stats Monkey وهو برنامج قادر على توليد القصص الإخبارية الرياضية تلقائيًا من دون تدخل بشري.34 باستخدام إحصائيات المباريات، يستطيع برنامج Stats Monkey صياغة روايات متماسكة عن مباريات البيسبول، بما في ذلك ملخصات المباريات وأداء اللاعبين والتحليلات.

2011

تصدر كمبيوتر Watson من شركة IBM، وهو كمبيوتر متطور يجيب على أسئلة اللغة الطبيعية، عناوين الأخبار من خلال التنافس في برنامج الألعاب Jeopardy! ضد اثنين من أنجح أبطال البرنامج، Ken Jennings وBrad Rutter، وهزيمتهما.35 تسمح قدرة Watson على معالجة اللغة الطبيعية وقاعدته المعرفية الواسعة وتفسيرها بالإجابة على الأسئلة المعقدة بسرعة ودقة. ويسلط هذا الانتصار الضوء على التقدم في قدرة الذكاء الاصطناعي على فهم اللغة البشرية والتفاعل معها على مستوى متطور.

 

أطلقت Apple المساعد الافتراضي Siri، وهو مساعد افتراضي مدمج في نظام التشغيل iOS. يتميز Siri بواجهة مستخدم بلغة طبيعية تتيح للمستخدمين التفاعل مع أجهزتهم من خلال الأوامر الصوتية. ويستطيع Siri أداء مهام مثل إرسال الرسائل وإعداد التذكيرات وتقديم التوصيات والإجابة عن الأسئلة باستخدام التعلم الآلي للتكيف مع تفضيلات كل مستخدم وأنماط صوته. يمنح نظام التعرف على الصوت المخصص والمتكيف هذا المستخدمين تجربة فردية ويشكل قفزة في سهولة استخدام المساعدين المدعومين بالذكاء الاصطناعي وإمكانية الوصول إليهم للمستهلكين العاديين.

2012

أجرى Jeff Dean وAndrew Ng تجربة باستخدام شبكة عصبية ضخمة مع 10 ملايين صورة غير مصنفة مأخوذة من مقاطع فيديو على YouTube.36 وخلال التجربة، تتعلم الشبكة، من دون تصنيف مسبق، التعرف على الأنماط في البيانات، وبشكل "مدهش" أصبحت إحدى الخلايا العصبية تستجيب بشكل خاص لصور القطط. ويُعد هذا الاكتشاف دليلاً على التعلم غير الخاضع للإشراف - ما يُظهر كيف يمكن للشبكات العصبية العميقة أن تتعلم بشكل مستقل الميزات من كميات هائلة من البيانات.

 

صمم باحثون من جامعة تورنتو بقيادة Geoffrey Hinton شبكة عصبية تلافيفية تحقق نتيجة مذهلة في تحدي التعرف البصري على نطاق واسع ImageNet.37 وقد حققت الشبكة العصبية التلافيفية الخاصة بهم والمعروفة باسم AlexNet معدل خطأ بنسبة 16%، وهو تحسن كبير مقارنة بأفضل نتيجة في العام السابق بنسبة 25%. يمثل هذا الإنجاز نقطة تحول للتعلم العميق في مجال الرؤية الحاسوبية، ما يثبت أن الشبكات العصبية التلافيفية يمكنها التفوق على طرق تصنيف الصور التقليدية عند تدريبها على مجموعات بيانات كبيرة.

2016

هزم برنامج AlphaGo من Google DeepMind االلاعبة Lee Sedol، أحد أفضل لاعبي Go في العالم. ولطالما اعتُبرت لعبة Go، وهي لعبة لوحية معقدة تتجاوز احتمالات تحركاتها عدد ذرات الكون، تحديًا للذكاء الاصطناعي.38 وكان فوز AlphaGo على سيدول بنتيجة 4-1 لحظة رائدة في مجال الذكاء الاصطناعي، حيث أظهر قوة تقنيات التعلم العميق في التعامل مع المهام الإستراتيجية المعقدة للغاية التي كانت تتجاوز قدرات الذكاء الاصطناعي في السابق.

قدمت شركة Hanson Robotics روبوت Sophia، وهي روبوت متطور للغاية شبيه بالإنسان.39 تستطيع Sophia التعرف على الوجوه وإجراء اتصالات بالعين وإجراء محادثات باستخدام مزيج من التعرف على الصور ومعالجة اللغة الطبيعية.

2017

درب باحثون في مختبر Facebook Artificial Intelligence Research (FAIR) روبوتي محادثة للتفاوض مع بعضهما. وفي حين أن روبوتي المحادثة مبرمجان على التواصل باللغة الإنجليزية، فإنها بدآ خلال محادثاتهما بالانحراف عن اللغة البشرية المنظمة وابتكار لغة مختزلة خاصة بهما للتواصل بشكل أكثر كفاءة.40 هذا التطور غير متوقع، حيث تعمل الروبوتات على تحسين تواصلها من دون تدخل بشري. وقد توقفت التجربة للحفاظ على تواصل الروبوتات بلغة مفهومة للبشر، لكن حدوث ذلك يسلط الضوء على قدرة أنظمة الذكاء الاصطناعي على التطور بشكل مستقل وغير متوقع.

2020

قدمت OpenAI نموذج GPT-3، وهو نموذج لغوي يحتوي على 175 مليار معلمة، ما يجعله أحد أكبر نماذج الذكاء الاصطناعي وأكثرها تطورًا حتى الآن. يُظهر GPT-3 القدرة على توليد نصوص شبيهة بنصوص البشر، والمشاركة في المحادثات، وكتابة التعليمات البرمجية، وترجمة اللغات، وتوليد كتابات إبداعية بناءً على مطالبات اللغة الطبيعية. بصفته أحد أوائل الأمثلة على النماذج اللغوية الكبيرة (LLM)، فقد مكّن حجم GPT الضخم ونطاقه الهائل من أداء مجموعة واسعة من المهام اللغوية مع القليل من التدريب الخاص بالمهام أو من دون تدريب محدد. أظهر هذا المثال قدرة الذكاء الاصطناعي على فهم اللغة وإنتاج لغة متماسكة للغاية.

 

حقق نظام AlphaFold 2 من DeepMind إنجازًا هائلاً في علم الأحياء من خلال التنبؤ بدقة بالتركيبات ثلاثية الأبعاد للبروتينات من تسلسل الأحماض الأمينية الخاصة بها. ويحل هذا الإنجاز مشكلة حيرت العلماء لعقود من الزمن، وهي فهم كيفية طيّ البروتينات لتأخذ أشكالها الفريدة ثلاثية الأبعاد. إن دقة AlphaFold 2 العالية في التنبؤ ببنية البروتين لها آثار في أبحاث الأمراض وتطوير الأدوية، ما يوفر طرقًا جديدة لفهم الآليات الجزيئية الكامنة وراء الأمراض وتصميم علاجات جديدة بكفاءة أكبر.

2021 - حتى الآن

2021

النموذج الموحد متعدد المهام (MUM)، الذي طورته Google، هو نموذج ذكاء اصطناعي قوي مصمم لتحسين تجربة البحث من خلال فهم اللغة وتوليدها عبر 75 لغة. يمكن للنموذج الموحد متعدد المهام أداء مهام متعددة، حيث يحلل النصوص والصور ومقاطع الفيديو في وقت واحد، ما يسمح له بمعالجة استعلامات بحث أكثر تعقيدًا ودقة.41 وعلى عكس النماذج التقليدية، يمكن للنموذج الموحد متعدد المهام التعامل مع المدخلات متعددة الوسائط وتقديم إجابات شاملة وغنية بالسياق للأسئلة المعقدة التي تتضمن مصادر متعددة للمعلومات.

 

أطلقت Tesla الإصدار التجريبي من نظام القيادة الذاتية الكاملة (FSD)، وهو نظام متقدم لمساعدة السائق يهدف إلى تحقيق القيادة الذاتية بالكامل. يستفيد النظام من التعلم العميق والشبكات العصبية للتنقل في سيناريوهات القيادة المعقدة مثل شوارع المدينة في الوقت الحقيقي والطرق السريعة والتقاطعات. وهو يسمح لسيارات Tesla بالتوجيه والتسريع والفرملة بشكل مستقل في ظروف محددة من دون الحاجة إلى إشراف السائق. يمثل النظام من Tesla خطوة نحو تحقيق هدف الشركة المتمثل في السيارات ذاتية القيادة بالكامل، على الرغم من أن التحديات التنظيمية ومخاوف السلامة لا تزال تعوق تحقيق الانتشار الواسع لتقنية القيادة الذاتية.

من 2021 إلى 2023

أطلقت OpenAI نموذج DALL-E، يليه DALL-E 2 وDALL-E 3، وهي نماذج ذكاء اصطناعي توليدية قادرة على توليد صور مفصلة للغاية من الأوصاف النصية. تستخدم هذه النماذج التعلم العميق المتقدم والبنية التحويلية لإنشاء صور معقدة وواقعية وفنية بناءً على مدخلات المستخدم. يعمل نموذجا DALL-E 2 و3 على توسيع نطاق استخدام الذكاء الاصطناعي في إنشاء المحتوى المرئي، ما يسمح للمستخدمين بتحويل الأفكار إلى صور من دون الحاجة إلى مهارات التصميم الجرافيكي التقليدية.

2024

فبراير

أطلقت Google الإصدار التجريبي المحدود من Gemini 1.5، وهو نموذج لغوي متقدم قادر على التعامل مع طول السياق الذي يصل إلى مليون رمز.42 ويمكن للنموذج معالجة كميات هائلة من المعلومات في مطالبة واحدة وفهمها، ما يحسّن قدرته على الحفاظ على السياق في المحادثات والمهام المعقدة عبر نص طويل. ويمثل Gemini 1.5 قفزة ملحوظة في معالجة اللغة الطبيعية من خلال توفير قدرات ذاكرة محسّنة وفهم السياق للمدخلات الطويلة.

 

أعلنت OpenAI رسميًا عن Sora، وهو نموذج لتحويل النص إلى فيديو قادر على توليد مقاطع فيديو يصل طولها إلى دقيقة واحدة من الأوصاف النصية.43 ويوسع هذا الابتكار من استخدام المحتوى الذي يُنشئه الذكاء الاصطناعي إلى ما هو أبعد من الصور الثابتة، ما يتيح للمستخدمين إنشاء مقاطع فيديو ديناميكية ومفصلة بناءً على المطالبات. من المتوقع أن يفتح Sora آفاقًا جديدة في مجال إنشاء محتوى الفيديو.

 

أعلنت شركة StabilityAI عن Stable Diffusion 3، وهو أحدث نماذجها لتحويل النص إلى صورة. وعلى غرار Sora، يستخدم Stability Diffusion 3 بنية مماثلة لإنشاء محتوى مفصّل ومبتكر من المطالبات النصية.44

 

مايو

كشفت Google DeepMind عن امتداد جديد لنظام AlphaFold يساعد على تحديد السرطان والأمراض الوراثية، ما يوفر أداة قوية للتشخيص الوراثي والطب الشخصي.45

 

قدمت شركة IBM مجموعة Granite™ من نماذج الذكاء الاصطناعي التوليدي كجزء من مجموعة منتجات الذكاء الاصطناعي watsonx™ لديها. وصُممت نماذج Granite، التي يتراوح حجمها بين 3 و34 مليار معلمة، لمهام مثل توليد الأكواد والتنبؤ بالسلاسل الزمنية ومعالجة المستندات. هذه النماذج مفتوحة المصدر ومتاحة بموجب ترخيص Apache 2.0، وهي خفيفة الوزن وفعالة من حيث التكلفة وقابلة للتخصيص، ما يجعلها مثالية لمجموعة واسعة من تطبيقات الأعمال.

 

يونيو

أعلنت شركة Apple عن Apple Intelligence، وهو عبارة عن دمج ChatGPT في أجهزة iPhone الجديدة وSiri.46 ويسمح هذا الدمج لنظام Siri بأداء مهام أكثر تعقيدًا وإجراء محادثات أكثر طبيعية وفهم الأوامر الدقيقة وتنفيذها بشكل أفضل.

 

سبتمبر

طرحت NotebookLM أداة DeepDive، وهو ذكاء اصطناعي جديد متعدد الوسائط قادر على تحويل مواد المصدر إلى عروض تقديمية صوتية جذابة منظمة على شكل مدونة صوتية.47 وتتيح قدرة DeepDive على تحليل المعلومات من تنسيقات مختلفة وتلخيصها، بما في ذلك صفحات الويب والنصوص والصوت والفيديو، فرصًا جديدة لإنشاء محتوى مخصص وآلي عبر منصات مختلفة. هذه القدرة تجعل منه أداة متعددة الاستخدامات للإنتاج الإعلامي والتعليم.

 

تشير الاتجاهات الحالية للذكاء الاصطناعي إلى تطورات جديدة للذكاء الاصطناعي التوليدي الذي يعمل على نماذج أساسية أصغر وأكثر كفاءة، وظهور الذكاء الاصطناعي الوكيل، حيث تعمل نماذج محددة من الذكاء الاصطناعي معًا لإكمال طلبات المستخدم بشكل أسرع. وفي المستقبل، ستجوب السيارات ذاتية القيادة الطرق السريعة، وسينشئ الذكاء الاصطناعي متعدد الوسائط محتوى الصوت والفيديو والنصوص والصور في منصة واحدة، وسيساعد مساعدو الذكاء الاصطناعي المستخدمين على إدارة حياتهم الشخصية والمهنية.

الحواشي
  1. حساب التفاضل والتكامل المنطقي للأفكار الكامنة في النشاط العصبي، springer.com، ديسمبر 1943
  2. آلات الحوسبة والذكاء، Mind، أكتوبر 1950
  3. اقتراح لمشروع دارتموث الصيفي للبحوث حول الذكاء الاصطناعي، Stanford.edu، 31 أغسطس 1955
  4. Lisp (لغة البرمجة)، wikipedia.org
  5. بانديمونيوم: نموذج للتعلم، aitopics.org
  6. برامج ذات حس سليم، stanford.edu
  7. الكيمياء والذكاء الاصطناعي، rand.org، ديسمبر 1965
  8. تكهنات بشأن أول آلة فائقة الذكاء، sciencedirect.com
  9. ELIZA، wikipedia.org
  10. Dendral، wikipedia.org
  11. Shakey الروبوت، sri.com
  12. البيرسيبترونات: مقدمة في الهندسة الحاسوبية، MIT.edu
  13. SHRDLU، stanford.edu
  14. MYCIN: برنامج قائم على المعرفة لتشخيص الأمراض المعدية،، science.direct.com
  15. الذكاء الاصطناعي: استبيان عام، chilton-computing.org.uk، يوليو 1972
  16. شتاء الذكاء الاصطناعي،، wikipedia.org
  17. WABOT، humanoid.waseda.ac.jp
  18. تعلم التمثيلات عن طريق الانتشار الخلفي للخطأ، nature.com, 9 أكتوبر 1986
  19. ملاح المعرفة، youtube.com, 29 أبريل 2008
  20. الاستدلال الاحتمالي في الأنظمة الذكية: شبكات الاستدلال المعقول، sciencedirect.com، 1988
  21. جائزة جوديا بيرل تورينج، amturing.amc.org
  22. Jabberwacky، wikipedia.org
  23. نهج إحصائي لترجمة اللغات، acm.org، 22 أغسطس 1988
  24. Candide: نظام الترجمة الآلية الإحصائي، aclanthology.org
  25. التفرد التكنولوجي القادم: كيفية البقاء على قيد الحياة في عصر ما بعد الإنسان، edoras.sdsu.edu، 1993
  26. .A.L.I.C.E (كيان حاسوبي لغوي اصطناعي على الإنترنت)، wikipedia.org
  27. Deep blue (كمبيوتر الشطرنج)، wikipedia.org
  28. Furby، wikipedia.org
  29. التعلم القائم على التدرج المطبق على ميزة التعرف على المستندات، موقع Stanford.edu، نوفمبر 1998
  30. Kismet، mit.edu
  31. تعلم طبقات متعددة من التمثيل، toronto.edu
  32. ImageNet، wikipedia.org
  33. التعلم العميق غير الخاضع للإشراف على نطاق واسع باستخدام معالجات الرسومات، stanford.edu
  34. الروبوتات قادمة! بل إنها هنا بالفعل، nytimes.com، 19 أكتوبر 2009
  35. دعوة Watson من IBM، jeopardy.com، 22 يونيو 2015
  36. استخدام عمليات محاكاة الدماغ على نطاق واسع للتعلم الآلي والذكاء الاصطناعي، blog.google، 26 يونيو 2012
  37. تحدي التعرف البصري واسع النطاق ImageNet 2012، image-net.org
  38. AlphaGo، wikipedia.org
  39. تحدثنا إلى Sophia، youtube.com، 28 ديسمبر 2017
  40. أوقفت روبوتات الذكاء الاصطناعي من Facebook بعد أن بدأت تتحدث مع بعضها بلغتها، independent.co.uk، 31 يوليو 2017
  41. كيف سيؤثر النموذج الموحد متعدد المهام من Google في ترتيبك في البحث في عام 2024؟، learn.g2.com. 7 أغسطس 2023
  42. نموذج الجيل التالي لدينا: Gemini 1.5، blog.google، 15 فبراير 2024
  43. Sora، openai.com
  44. Stable diffusion 3، stability.ai، 22 فبراير 2024
  45. AlphaFold 3 يتنبأ ببنية كل جزيئات الحياة وتفاعلاتها، blog.google، 8 مايو 2024
  46. ذكاء Apple، apple.com، 10 يونيو 2024
  47. NotebookLM يتيح لك الآن الاستماع إلى محادثة حول مصادرك، blog.google. 11 سبتمبر 2024
رسائل Think الإخبارية  
أحدث معارف الذكاء الاصطناعي والتقنية من Think
سجل الاشتراك اليوم

الموارد

أكاديمية الذكاء الاصطناعي من IBM
التعليم المدعوم بالذكاء الاصطناعي
مجموعة متنوعة من الخبراء
البودكاست
كيفية تحسين نتائج Watson Visual Recognition باستخدام المعالجة المسبقة
المدونة
الآفاق الواسعة لمستقبل الذكاء الاصطناعي
المدونة
اتخِذ الخطوة التالية

درب نماذج الذكاء الاصطناعي التوليدي الأساسية وقدرات التعلم الآلي وتحقق من صحتها واضبطها وانشرها باستخدام IBM watsonx.ai، وهو أستوديو المؤسسات من الجيل التالي لمنشئي الذكاء الاصطناعي. ابنِ تطبيقات الذكاء الاصطناعي في وقت أقل باستخدام كمية بيانات محدودة.

استكشف watsonx.ai احجز عرضًا توضيحيًا مباشرًا