ما المقصود بالشبكة العصبية؟

مؤلف

Fangfang Lee

Developer Advocate

IBM

ما المقصود بالشبكة العصبية؟

الشبكة العصبية هي نموذج تعلم آلي يقوم بتكديس "خلايا عصبية" بسيطة في طبقات ويتعلم أوزان التعرف على الأنماط والتحيزات من البيانات لتعيين الإدخالات إلى المخرجات.

تُعد الشبكات العصبية من بين الخوارزميات الأكثر تأثيرًا في التعلم الآلي الحديث والذكاء الاصطناعي (AI). إنها تدعم الاختراقات في مجال رؤية الكمبيوتر، معالجة اللغة الطبيعية (NLP)، التعرف على الكلام، وعدد لا يحصى من التطبيقات في العالم الحقيقي والتي تتراوح من التنبؤ إلى التعرف على الوجه. في حين أن الشبكات العصبية العميقة (DNNs) اليوم تعمل على تشغيل أنظمة معقدة مثل المحولات والشبكات العصبية الالتفافية (CNNs)، فإن أصول الشبكات العصبية تعود إلى نماذج بسيطة مثل الانحدار الخطي وكيفية هضم الدماغ البشري ومعالجة واتخاذ القرار بشأن المعلومات المقدمة إليه.

كيف تعمل الشبكات العصبية؟

على مستوى عالٍ، يأتي الإلهام للشبكات العصبية من الخلايا العصبية البيولوجية في الدماغ البشري، والتي تتواصل من خلال الإشارات الكهربائية. وفي عام 1943، اقترح وارن ماكولوتش ووالتر بيتس أول نموذج رياضي للخلية العصبية، ما يدل على أن الوحدات البسيطة يمكن أن تجري حساب الوظيفة. في وقت لاحق، في عام 1958، قدم فرانك روزنبلات البيرسيبترون، وهي خوارزمية مصممة لأداء التعرف على الأنماط. يُعد البيرسيبترون السلف التاريخي للشبكات العصبية الحالية: فهو في جوهره نموذج خطي ذو مخرجات محدودة. في القسم التالي، سنغوص في كيفية استعارة الشبكات العصبية الإلهام من الأدمغة البشرية لاتخاذ القرارات والتعرف على الأنماط.  

يمكن فهم الشبكة العصبية من خلال مثال بسيط: كشف البريد العشوائي. يتم إدخال رسالة بريد إلكتروني إلى الشبكة، ويتم استخدام ميزات مثل كلمات أو عبارات مثل "جائزة" أو "نقود" أو "عزيزي" أو "فوز" كمدخلات. تعالج الخلايا العصبية المبكرة في الشبكة أهمية كل إشارة، بينما تجمع الطبقات اللاحقة هذه المعلومات في إشارات عالية المستوى تلتقط السياق والنغمة. ثم تقوم الطبقة الأخيرة بحساب احتمالية إذا ما كان البريد الإلكتروني غير مرغوب فيه، وإذا كانت هذه الاحتمالية عالية بما فيه الكفاية، يتم وضع علامة على البريد الإلكتروني. في جوهرها، تتعلم الشبكة كيفية تحويل الميزات الأولية إلى أنماط ذات مغزى واستخدامها لعمل تنبؤات.

هذه العملية مدعومة بمفهومين أساسيين: الأوزان والتحيزات. تعمل الأوزان مثل الأقراص التي تتحكم في مدى قوة تأثير كل إدخال على القرار - كلمة مثل "جائزة" قد تُعطى وزنًا أكبر من كلمة شائعة مثل "مرحبًا". التحيزات هي قيم مدمجة تعمل على تغيير عتبة القرار، ما يسمح للخلايا العصبية بالتنشيط حتى لو كانت الإدخالات نفسها ضعيفة. تحدد معلمات النموذج هذه معًا كيف تساهم كل خلية عصبية في الحساب الكلي. من خلال تعديل هذه القيم أثناء التدريب، تتعلم الشبكة تدريجيًا إجراء تنبؤات دقيقة - في هذه الحالة، إذا ما كان البريد الإلكتروني بريدًا مزعجًا أم لا.

رياضيًّا، تتعلم الشبكات العصبية وظيفة  f(X)  عن طريق تعيين متجه إدخال  X=(x1,x2,x3...)  لتوقع الاستجابة  Y.  إن ما يميز الشبكات العصبية عن خوارزميات التعلم الآلي التقليدية الأخرى هو بنيتها ذات الطبقات وقدرتها على إجراء تحويل غير خطي.  

تتكون الشبكة العصبية من:

  • طبقة الإدخال: تحتوي على الميزات الخام  (X1,X2,X3,..) .

  • الطبقات المخفية: تتكون من خلايا عصبية اصطناعية (أو عقد) تقوم بتحويل الإدخالات إلى تمثيلات جديدة. ومن الناحية الرياضية، يتم التعبير عن الطبقات المخفية على أنها سمات الإدخال، مضروبة في الأوزان المرتبطة بها والتحيز المضاف لتمر من طبقة إلى الطبقة التالية، لتصل في النهاية إلى طبقة الإخراج النهائي. وهي المكان الذي يحدث فيه التحول بين الإدخال والمخرجات. 

  • طبقة المخرجات: بعد إجراء التحويل في الطبقة المخفية، تتم إضافة دالة التنشيط غير خطية (tanh، sigmoid، ReLU) لإنتاج التنبؤ النهائي (مثل رقم للانحدار، أو توزيع احتمالي للتصنيف).  
رسم تخطيطي لشبكة عصبية تحتوي على ثلاث طبقات مخفية: طبقة الإدخال، وعدة طبقات مخفية، وطبقة المخرجات. شبكة عصبية تقليدية من النوع الأمامي تحتوي على ثلاث طبقات مخفية.

تدريب الشبكات العصبية

تمامًا مثل خوارزميات التعلم الآلي الأخرى، تتطلب الشبكة العصبية تدريبًا صارمًا لأداء جيد في الاختبار. لتدريب الشبكة، تقوم خلية عصبية واحدة بحساب: 

 z=i=1nwixi+b

 a=σ(z)

حيث:

  •  xi = سمة الإدخال،
  •  wi = الوزن،
  •  b  = التحيز،
  •  z  = المجموع المرجح (التحويل الخطي)،
  •  σ  = دالة التنشيط (التحول غير الخطي)،
  •  a  = المخرجات،

 σتمثّل   دالة تنشيط في طبقة المخرجات التي تحوّل المجموعة الخطية لتناسب قرار الدالة. وباستخدام هذه البنية، يتم تحويل سمات الإدخال X إلى مخرجات Y، لتكون بمثابة نموذج تنبؤي للتعلم الآلي.  

تأتي قوة الشبكات العصبية من قدرتها على تعلم الأوزان والتحيزات الصحيحة من البيانات. ويتم ذلك عن طريق مقارنة تنبؤ الشبكة  Y^ إلى التسمية الحقيقية  Y  وقياس الخطأ باستخدام دالة خسارة. على سبيل المثال، في مهام التصنيف، قد تقيس الخسارة مدى بعد الاحتمال المتوقع عن الإجابة الصحيحة.

ولتقليل هذه الخسارة، تستخدم الشبكة خوارزمية تسمى الانتشار الخلفي. يتم تدريب الشبكة العصبية في أربع خطوات:

  • التمرير الأمامي: تتدفق الإدخالات عبر الشبكة، وتحسب التوليفات الخطية، وتمر عبر دالة التنشيط وتنتج تنبؤًا بالمخرجات.

  • حساب الخطأ: تقيس دالة الخسارة الفرق بين التنبؤ والحقيقة.

  • التمرير الخلفي (الانتشار الخلفي): يتم نشر الخطأ للخلف عبر الشبكة. عند كل خلية عصبية، تحسب الخوارزمية مقدار مساهمة كل وزن وانحياز في الخطأ باستخدام قاعدة التفاضل والتكامل المتسلسلة.

  • تحديث الوزن: يتم ضبط الأوزان والتحيزات قليلًا في الاتجاه الذي يقلل من الخطأ، باستخدام طريقة تحسين مثل الانحدار التدرجي.
مخطط الانحدار التدرجي، "قيمة الوزن" في المحور x و"الخسارة" في المحور y، و"نقطة البداية" في الجانب الأيسر العلوي من الرسم التخطيطي، يوجد النص في الجزء السفلي "نقطة التقارب، أي حيث تكون دالة التكلفة عند الحد الأدنى"

يتم تكرار هذه العملية عدة مرات على مجموعة البيانات التدريبية. ويساعد كل تمرير الشبكة على "ضبط" معطياتها الداخلية بحيث تقترب تنبؤاتها تدريجيًا من الإجابات الصحيحة. وبمرور الوقت، تتقارب الشبكة مع مجموعة من الأوزان والتحيزات التي تقلل من الخطأ وتعمم جيدًا على البيانات غير المرئية. الانتشار الخلفي، إلى جانب الانحدار التدرجي، هو المحرك الذي يجعل الشبكات العصبية تعمل، فهو يُمكِّن الشبكات التي تحتوي على ملايين (أو حتى المليارات) من المعلمات من تعلم أنماط ذات مغزى من مجموعات البيانات الضخمة.  

ومع ذلك، على الرغم من الجهود التي يبذلها الممارسون لتدريب نماذج عالية الأداء، لا تزال الشبكات العصبية تواجه تحديات مماثلة لنماذج التعلم الآلي الأخرى، وأهمها الإفراط في التخصيص. عندما تصبح الشبكات العصبية معقدة بشكل مفرط مع وجود عدد كبير جدًا من المعلمات، فإن النموذج سيتكيف بشكل مفرط مع بيانات التدريب ويتنبأ بشكل سيئ. إن الإفراط في التخصيص هو مشكلة شائعة في جميع أنواع الشبكات العصبية، ويُعدُّ الاهتمام الوثيق بالمفاضلة بين التحيز والتباين أمرًا بالغ الأهمية لإنشاء نماذج شبكات عصبية عالية الأداء.  

تتبع بنيات الشبكات العصبية الحديثة - مثل المحولات ونماذج التشفير/فك التشفير - المبادئ الأساسية نفسها (الأوزان والتحيزات المكتسبة، والطبقات المكدسة، وعمليات التنشيط غير الخطية، والتدريب من طرف إلى طرف عن طريق الانتشار الخلفي). إنها تختلف بشكل أساسي في كيفية خلط المدخلات عبر الطبقات. وبدلُا من الخلط المتصل بالكامل وحده، تستخدم المحولات الاهتمام لتشكيل مجموعات مرجحة تعتمد على البيانات من التمثيلات، جنبًا إلى جنب مع الاتصالات المتبقية والتطبيع والترميزات الموضعية لتعزيز الربط المبني على الأسس الأساسية نفسها.

أنواع الشبكات العصبية

في حين أن البيرسيبترونات متعددة الطبقات هي الأساس، فقد تطورت الشبكات العصبية إلى بنى متخصصة تناسب مجالات مختلفة:

  • الشبكات العصبية الالتفافية (CNNs أو convnets): مصممة للبيانات الشبيهة بالشبكة مثل الصور. تتفوق الشبكات العصبية الالتفافية في التعرف على الصور ورؤية الكمبيوتر والتعرف على الوجه بفضل المرشحات الالتفافية التي تكشف التسلسلات الهرمية المكانية للميزات. 

  • الشبكات العصبية المتكررة (RNNs): تتضمن التعليقات التي تسمح للمعلومات بالاستمرار عبر خطوات زمنية. وتُعدّ الشبكات العصبية المتكررة مناسبة تمامًا للتعرف على الكلام والتنبؤ بالسلاسل الزمنية والبيانات المتسلسلة. 

  • المحولات: بنية حديثة حلت محل الشبكات العصبية المتكررة في العديد من مهام التسلسل. وتستفيد المحولات من آليات الانتباه لالتقاط التبعيات في معالجة اللغة الطبيعية، وتشغيل نماذج حديثة وقوية مثل GPT. 

  •  تسلط هذه الاختلافات الضوء على تنوع الشبكات العصبية. وبغض النظر عن البنية، تعتمد جميعها على المبادئ نفسها: الخلايا العصبية الاصطناعية وعمليات التنشيط غير الخطية وخوارزميات التحسين.
Mixture of Experts | 12 ديسمبر، الحلقة 85

فك تشفير الذكاء الاصطناعي: تقرير إخباري أسبوعي

انضمّ إلى نخبة من المهندسين والباحثين وقادة المنتجات وغيرهم من الخبراء وهم يقدّمون أحدث الأخبار والرؤى حول الذكاء الاصطناعي، بعيدًا عن الضجيج الإعلامي.

تطبيقات الشبكة العصبية

تشكل الشبكات العصبية الأساس للعديد من أنظمة الذكاء الاصطناعي اليوم. وتتضمن بعض التطبيقات البارزة للشبكات العصبية ما يلي:

  • رؤية الكمبيوتر: الشبكات العصبية الالتفافية للتعرف على الصور والتصوير الطبي والمركبات ذاتية القيادة. 

  • معالجة اللغة الطبيعية: محولات للترجمة الآلية وروبوت المحادثة والتلخيص. 

  • التعرف على الكلام: الشبكات العصبية المتكررة والشبكات العميقة للنسخ والمساعدات الصوتية.

  • التنبؤ والسلاسل الزمنية: التنبؤ بالطلب والنمذجة المالية والتنبؤ بالطقس.

  • التعلم المعزز: الشبكات العصبية كمقربات للدوال في وكلاء وكلاء لعب الألعاب ((على سبيل المثال، AlphaGo من DeepMind للعب لعبة جو). 

  • التعرف على الأنماط: تحديد الاحتيال أو اكتشاف الحالات الشاذة أو تصنيف المستندات. 

تقود هذه التطبيقات الابتكارات في العالم الحقيقي في مجالات الرعاية الصحية والتمويل والتشغيل الآلي والترفيه وغيرها.

لماذا الشبكات العصبية مهمة 

تتعلم الشبكات العصبية تمثيلات داخلية مفيدة مباشرةً من البيانات، وتلتقط البنية غير الخطية التي تفتقدها النماذج الكلاسيكية. وبفضل السعة الكافية والأهداف السليمة والتنظيم ضد الإفراط في التخصيص، فإنها تتوسع من معيار صغير إلى أنظمة الإنتاج في رؤية الكمبيوتر ومعالجة اللغة الطبيعية والتعرف على الكلام والتنبؤ والمزيد، ما يحقق مكاسب قابلة للقياس في الدقة والمتانة. 
 
ويمتد التعلم العميق الحديث إلى هذه الأسس. تتخصص الشبكات العصبية الالتفافية في استخراج السمات المكانية للصور، بينما تقوم الشبكات العصبية المتكررة بنمذجة التبعيات الزمنية في التسلسلات، وتستبدل المحولات التكرار بالانتباه، بمساعدة الاتصالات المتبقية والتطبيع والتوازي الفعال على وحدات معالجة الرسوميات.  

على الرغم من الاختلافات المعمارية، يظل التدريب من النهاية إلى النهاية مع الانتشار الخلفي على مجموعات البيانات الكبيرة، ولا تزال وجهة النظر الأساسية قائمة:  Y=f(X;σ)يتم تعلم   من خلال تكوين التحويلات التي تعتمد على البيانات مع عمليات التنشيط غير الخطية. ويعتمد الذكاء الاصطناعي التوليدي على المبادئ نفسها ولكن على نطاق أوسع. وتتعلم النماذج اللغوية الكبيرة ونماذج الانتشار ونماذج التشفير التلقائي المتغير والشبكات التنافسية التوليدية التوزيعات على البيانات لتجميع النص والصور والصوت والتعليمات البرمجية.  

القفزة من البيرسيبترون متعدد الطبقات إلى أحدث المولِّدات تعتمد بشكل أساسي على البنية والبيانات والحوسبة. إن فهم دوال التنشيط ومتطلبات التدريب والأنواع الرئيسية للشبكات يوفر جسرًا عمليًا من الشبكات العصبية الكلاسيكية إلى الأنظمة التوليدية الحالية ويوضح لماذا أصبحت هذه النماذج أساسية في الذكاء الاصطناعي الحديث.

حلول ذات صلة
IBM watsonx.ai

تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي بسرعة أكبر وببيانات أقل.

اكتشف watsonx.ai
حلول الذكاء الاصطناعي

استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.

استكشف حلول الذكاء الاصطناعي
الاستشارات والخدمات المتعلقة بالذكاء الاصطناعي

أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.

استكشف خدمات الذكاء الاصطناعي
اتخِذ الخطوة التالية

احصل على وصول شامل إلى القدرات التي تغطي دورة حياة تطوير الذكاء الاصطناعي. تمكَّن من إنتاج حلول ذكاء اصطناعي قوية بفضل الواجهات سهلة الاستخدام وعمليات سير العمل السلسة وإمكانية الوصول إلى واجهات برمجة التطبيقات ومجموعات تطوير البرامج القياسية في الصناعة.

استكشف watsonx.ai احجز عرضًا توضيحيًا مباشرًا