الذكاء الاصطناعي التوليدي، الذي يُطلق عليه أحيانًا اسم ( gen AI)، هو الذكاء الاصطناعي (AI) الذي يمكنه إنشاء محتوى أصلي—مثل النص أو الصور أو الفيديو أو الصوت أو رمز البرنامج—استجابة لمطالبة المستخدم أو بناءً على طلبه.
يعتمد الذكاء الاصطناعي التوليدي على نماذج التعلم الآلي المتطورة والتي تسمى نماذج التعلم العميق—وهي خوارزميات تحاكي عمليات التعلم واتخاذ القرار في الدماغ البشري. تعمل هذه النماذج من خلال تحديد الأنماط والعلاقات في كميات هائلة من البيانات وترميزها، ثم استخدام هذه المعلومات لفهم طلبات المستخدمين أو أسئلتهم بلغة طبيعية والاستجابة بمحتوى جديد ذي صلة.
لطالما كان الذكاء الاصطناعي موضوعًا تكنولوجيًا مهمًا على مدار العقد الماضي، ولكن الذكاء الاصطناعي التوليدي، وتحديدًا عند طرح ChatGPT في عام 2022، دفع بالذكاء الاصطناعي إلى عناوين الأخبار العالمية وأطلق موجة غير مسبوقة من الابتكار في مجال الذكاء الاصطناعي وتبنيه. ويوفر الذكاء الاصطناعي التوليدي مزايا إنتاجية هائلة لكل من لأفراد والمؤسسات، وعلى الرغم من أنه يمثل أيضًا تحديات ومخاطر حقيقية للغاية، إلا أن الشركات تمضي قدمًا في استكشاف كيف يمكن للتكنولوجيا تحسين سير العمل الداخلي وإثراء منتجاتها وخدماتها. وفقًا لبحث أجرته شركة McKinsey للاستشارات الإدارية، فإن ثلث المؤسسات تستخدم بالفعل الذكاء الاصطناعي التوليدي بانتظام في وظيفة واحدة على الأقل من وظائف الأعمال.¹ يتوقع محلل الصناعة Gartner أن أكثر من 80% من المؤسسات ستنشر تطبيقات الذكاء الاصطناعي التوليدي أو تستخدم واجهات برمجة تطبيقات (APIs) الذكاء الاصطناعي التوليدي بحلول عام 2026.2
في معظم الأحيان، يعمل الذكاء الاصطناعي التوليدي على ثلاث مراحل:
يبدأ الذكاء الاصطناعي التوليدي بنموذج أساس—نموذج تعلم عميق يعمل كأساس لأنواع مختلفة ومتعددة من تطبيقات الذكاء الاصطناعي التوليدي. نماذج الأساس الأكثر شيوعًا اليوم هي النماذج اللغوية الكبيرة (LLMs)، التي تم إنشاؤها لتطبيقات إنشاء النصوص، ولكن هناك أيضًا نماذج أساس لتوليد الصور وإنشاء الفيديوهات والصوت والموسيقى—إلى جانب نماذج الأساس متعددة الوسائط التي يمكن أن تدعم عدة أنواع من إنشاء المحتوى.
يدرِّب الممارسون خوارزمية التعلّم العميق على كميات هائلة من البيانات غير المنسقة وغير المنظمة وغير المُصنَّفة لإنشاء نموذج أساس— على سبيل المثال تيرابايت من البيانات المستمدة من الإنترنت أو من بعض مصادر البيانات الهائلة الأخرى. وفي أثناء التدريب، تنفذ الخوارزمية الملايين من تمارين ” تعبئة الفراغات“ وتقيمها، في محاولة للتنبؤ بالعنصر التالي في تسلسل ما —على سبيل المثال، الكلمة التالية في جملة، أو العنصر التالي في صورة، أو الأمر التالي في سطر من التعليمات البرمجية —وتعدل نفسها باستمرار لتقليل الفرق بين تنبؤاتها والبيانات الفعلية (أو النتيجة ”الصحيحة“).
نتيجة هذا التدريب هي شبكة عصبية من المعلمات—تمثيلات مشفرة للكيانات والأنماط والعلاقات في البيانات— يمكنها إنشاء محتوى بشكل مستقل استجابة للمدخلات أو المطالبات.
تتطلّب عملية التدريب هذه حوسبة مكثّفة وتستغرق وقتًا طويلاً ومكلفة: فهي تتطلب الآلاف من وحدات معالجة الرسومات (GPU) المجمّعة وأسابيع من المعالجة، وكل ذلك يكلّف ملايين الدولارات. تُمكّن مشاريع نماذج الأساس مفتوحة المصدر، مثل Llama-2 التابعة لشركة Meta، مطوري الذكاء الاصطناعي التوليدي من تجنب هذه الخطوة وتكاليفها الباهظة.
من الناحية المجازية، نموذج الأساس هو نموذج عام: فهو يعرف الكثير عن أنواع عديدة من المحتوى، لكنه غالبًا لا يستطيع إنشاء أنواع محددة من المخرجات بالشكل أو الدقة المطلوبة. ومن ثَمَّ، يجب ضبط النموذج على مهمة إنشاء محتوى محددة. ويمكن القيام بذلك بعدة طرق.
الضبط الدقيق يشمل تغذية النموذج بالبيانات المصنفة الخاصة بتطبيق إنشاء المحتوى—الأسئلة أو المطالبات التي من المرجح أن يتلقاها التطبيق، والإجابات الصحيحة المقابلة بالتنسيق المطلوب. على سبيل المثال، إذا كان فريق التطوير يحاول إنشاء روبوت محادثة لخدمة العملاء، فسيقوم بإنشاء مئات أو آلاف المستندات التي تحتوي على أسئلة خدمة العملاء المصنفة وإجاباتها الصحيحة، ثم تغذية النموذج بتلك المستندات.
يتطلب الضبط الدقيق عمالة مكثفة. وغالبًا ما يستعين المطورون بمصادر خارجية لمهمة الشركات التي لديها قوى عاملة كبيرة في تصنيف البيانات.
في نموذج التعلم المعزز باستخدام التعليقات البشرية (RLHF)، يستجيب المستخدمون البشريون للمحتوى الذي تم إنشاؤه بتقييمات يمكن أن يستخدمها النموذج لتحديث النموذج من أجل تحقيق أكبر قدر من الدقة أو الملاءمة. وغالبًا ما يتضمن نموذج التعلم المعزز باستخدام التعليقات البشرية (RLHF) ”تسجيل“ الأشخاص لمخرجات مختلفة كاستجابة للمطالبة نفسها. ومع ذلك قد يكون الأمر بسيطًا مثل جعل الأشخاص يكتبون أو يتحدثون إلى روبوت المحادثة أو المساعد الافتراضي ويصححون مخرجاته.
يستطيع المطورون والمستخدمون تقييم مخرجات تطبيقات الذكاء الاصطناعي التوليدي باستمرار، وضبط النموذج بشكل أكبر—حتى ولو مرة واحدة في الأسبوع—من أجل المزيد من الدقة أو الملاءمة. (في المقابل، يتم تحديث نموذج الأساس نفسه بوتيرة أقل بكثير، ربما كل سنة أو 18 شهرًا).
هناك خيار آخر لتحسين الأداء من تطبيق الذكاء الاصطناعي وهو التوليد المعزز بالاسترجاع (RAG). RAG هو إطار العمل لتوسيع النموذج الأساسي لاستخدام المصادر ذات الصلة خارج بيانات التدريب، لتكملة وتحسين المعلمات أو التمثيلات في النموذج الأصلي. يمكن للتوليد المعزز بالاسترجاع التأكد من أن تطبيق الذكاء الاصطناعي التوليدي يمكنه دائمًا الوصول إلى أحدث المعلومات. على سبيل المكافأة، تكون المصادر الإضافية التي يتم الوصول إليها عبر RAG شفافة للمستخدمين بطريقة لا تتوفر فيها المعرفة الموجودة في نموذج الأساس الأصلي.
لقد تطورت نماذج الذكاء الاصطناعي التوليدي الحقيقي —نماذج التعلم العميق التي يمكنها إنشاء محتوى مستقل حسب الطلب —على مدى السنوات العشر الماضية أو نحو ذلك. وتشمل بُنى النماذج الرئيسية خلال تلك الفترة ما يلي
أجهزة التشفير التلقائي المتغيرة (VAEs)، حيث أدت إلى حدوث اختراقات في التعرف على الصور ومعالجة اللغة الطبيعية والكشف عن الخلل.
الشبكات التنافسية التوليدية (GANs) ونماذج الانتشار، حيث أدت إلى تحسين دقة التطبيقات السابقة وتمكين بعض حلول الذكاء الاصطناعي الأولى لتوليد صور واقعية.
المحولات، وهي بنية نموذج التعلُّم العميق التي تقف وراء النماذج الأساسية وحلول الذكاء الاصطناعي التوليدي اليوم.
برنامج التشفير التلقائي هو نموذج تعلم عميق يتألف من شبكتين عصبيتين متصلتين: إحداهما تشفر (أو تضغط) كمية هائلة من بيانات التدريب غير المنظمة وغير المصنفة في شكل معلمات، والأخرى تفك تشفير هذه المعلمات لإعادة بناء المحتوى. ومن الناحية الفنية، يمكن لبرامج التشفير التلقائية إنشاء محتوى جديد، ولكنها أكثر فائدة في ضغط البيانات لتخزينها أو نقلها وفك ضغطها للاستخدام مقارنة بإنشاء محتوى عالي الجودة.
يمكن لبرامج التشفير التلقائي المتغيرة، التي تم تقديمها في عام 2013، تشفير البيانات مثل برامج التشفير التلقائي، ولكن مع فك تشفير أشكال متعددة جديدة للمحتوى. يمكن لبرامج التشفير التلقائي المتغيرة "التركيز" على محتوى أكثر دقة بمرور الوقت من خلال تدريبها على إنشاء متغيرات نحو هدف معين. وتضمنت تطبيقات برامج التشفير التلقائي المتغيرة المبكرة اكتشاف الخلل (على سبيل المثال تحليل الصور الطبية) وتوليد اللغة الطبيعية.
تضم الشبكات التنافسية التوليدية، التي تم تقديمها في عام 2014، شبكتين عصبيتين: المولِّد ينشأ محتوى جديدًا ومميزًا، ومُميِّز حيث يقيِّم دقة البيانات التي تم إنشاؤها وجودتها.وتشجع هذه الخوارزميات التنافسية النموذج على إنشاء نتائج عالية الجودة بشكل متزايد.
تُستخدم الشبكات التنافسية التوليدية بشكل شائع لإنشاء الصور والفيديو، ومع ذلك يمكنها إنشاء محتوى واقعي وعالي الجودة في مختلف المجالات.وقد أثبتت نجاحها بشكل خاص في مهام مثل نقل النمط (تغيير نمط صورة، على سبيل المثال، من صورة إلى رسم بالقلم الرصاص) وزيادة البيانات (إنشاء بيانات جديدة اصطناعية لزيادة حجم مجموعة بيانات التدريب وتنوعها).
تم تقديم نماذج الانتشار أيضًا في عام 2014، حيث تعمل عن طريق إضافة التشويش أولاً إلى بيانات التدريب حتى تصبح عشوائية ولا يمكن التعرف عليها، ثم تدريب الخوارزمية على نشر التشويش بشكل متكرر للكشف عن المخرجات المطلوبة.
تستغرق نماذج الانتشار وقتًا أطول في التدريب مقارنة بنماذج برامج التشفير التلقائي المتغيرة أو الشبكات التنافسية التوليدية، ولكنها في النهاية توفر تحكمًا أدق في المخرجات، خاصة بالنسبة إلى أداة توليد الصور عالية الجودة. DALL-E، وهي أداة توليد الصور من Open AI، تعتمد على نموذج الانتشار.
تعمل المحولات، التي تم توثيقها لأول مرة في ورقة بحثية نشرها Ashish Vaswani وآخرون عام 2017، على تطوير نموذج التشفير وفك التشفير لتحقيق نقلة نوعية كبيرة في طريقة تدريب نماذج الأساس، وفي جودة المحتوى ونطاقه الذي يمكن أن تنتجه. وتُعد هذه النماذج أساس معظم أدوات الذكاء الاصطناعي التوليدي التي تتصدر العناوين الرئيسية اليوم، بما في ذلك ChatGPT و GPT-4 و Copilot و BERT و Bard و Midjourney على سبيل المثال لا الحصر.
تستخدم المحولات مفهومًا يُسمى الانتباه—تحديد ما هو أكثر أهمية في البيانات داخل التسلسل والتركيز عليه
لمعالجة تسلسلات كاملة من البيانات، على سبيل المثال الجمل بدلاً من الكلمات الفردية في وقت واحد؛
والتقاط سياق البيانات داخل التسلسل؛
وتشفير بيانات التدريب في عمليات تضمين (تسمى أيضًا المعلمات الفائقة) التي تمثل البيانات وسياقها.
إلى جانب إتاحة تدريب أسرع، تتفوق المحولات في معالجة اللغة الطبيعية (NLP) وفهم اللغة الطبيعية (NLU)، ويمكنها إنشاء تسلسلات بيانات أطول—على سبيل المثال، ليس فقط إجابات عن الأسئلة، ولكن أيضًا قصائد أو مقالات أو أوراق بحثية— بدقة أكبر وجودة أعلى مقارنة بنماذج الذكاء الاصطناعي التوليدي العميقة الأخرى. ويمكن أيضًا تدريب نماذج المحولات أو ضبطها على استخدام الأدوات —مثل تطبيق جداول البيانات أو HTML أو برنامج رسم—لإنتاج محتوى بتنسيق معين.
يمكن للذكاء الاصطناعي التوليدي إنشاء العديد من أنواع المحتوى في العديد من المجالات المختلفة.
النماذج التوليدية. خاصة تلك التي تعتمد على المحولات، يمكنها إنشاء نصوص متناسقة ومترابطة —كل شيء بدءًا من التعليمات والوثائق إلى الكتيبات ورسائل البريد الإلكتروني ونسخ المواقع الإلكترونية والمدونات والمقالات والتقارير والأوراق وحتى الكتابة الإبداعية. ويمكنها أيضًا إنجاز مهام الكتابة المتكررة أو المملة (على سبيل المثال، صياغة ملخصات المستندات أو الأوصاف الوصفية لصفحات الويب)، ما يوفر وقت الكتّاب لمزيد من الأعمال الإبداعية ذات القيمة الأعلى.
يمكن لأدوات توليد الصور مثل DALL-E و Midjourney و Stable Diffusion إنتاج صور واقعية أو فن أصلي، ويمكنها إجراء نقل النمط وترجمة صورة إلى صورة وغيرها من مهام تحرير الصور أو تحسينها. ويمكن لأدوات الفيديو المدعومة بالذكاء الاصطناعي التوليدي إنشاء رسوم متحركة من المطالبات النصية، ويمكنها كذلك تطبيق مؤثرات خاصة على الفيديو الموجود بسرعة أكبر وبتكلفة أقل مقارنة بالوسائل الأخرى.
يمكن للنماذج التوليدية تأليف الكلام والمحتوى الصوتي ذي الصوت الطبيعي لروبوتات المحادثة الصوتية والمساعدين الرقميين المدعومين بالذكاء الاصطناعي وسرد الكتب الصوتية وغيرها من التطبيقات. ويمكن للتقنية نفسها إنشاء موسيقى أصلية تحاكي بنية المؤلفات الموسيقية الاحترافية وصوتها.
يمكن للذكاء الاصطناعي التوليدي إنشاء التعليمات البرمجية الأصلية والإكمال التلقائي لمقتطفاتها، والترجمة بين لغات البرمجة وتلخيص وظائف التعليمات البرمجية. ويتيح للمطورين وضع نماذج أولية للتطبيقات وإعادة هيكلتها وتصحيحها بسرعة مع توفير واجهة لغة طبيعية لمهام البرمجة.
يمكن لنماذج الذكاء الاصطناعي التوليدي إنشاء أعمال فنية وتصميمات فريدة من نوعها، أو المساعدة في التصميم الجرافيكي. تشمل التطبيقات التوليد الديناميكي للبيئات والشخصيات أو الصور الرمزية والمؤثرات الخاصة للمحاكاة الافتراضية وألعاب الفيديو.
يمكن تدريب نماذج الذكاء الاصطناعي التوليدية على إنشاء البيانات الاصطناعية، أو الهياكل الاصطناعية بناءً على بيانات حقيقية أو اصطناعية. على سبيل المثال، يتم تطبيق الذكاء الاصطناعي التوليدي في اكتشاف الأدوية لإنشاء هياكل جزيئية ذات خصائص مرغوبة، ما يساعد في تصميم مركبات دوائية جديدة.
تتمثل الفائدة الواضحة الشاملة للذكاء الاصطناعي التوليدي في زيادة الكفاءة . ولأنه قادر على توليد المحتوى والإجابات عند الطلب، فإن الذكاء الاصطناعي التوليدي لديه القدرة على تسريع أو أتمتة المهام التي تتطلب عمالة كثيفة، وخفض التكاليف، وتوفير الوقت للموظفين للقيام بأعمال ذات قيمة أعلى.
ولكن يقدم الذكاء الاصطناعي التوليدي العديد من الفوائد الأخرى للأفراد والمؤسسات.
يمكن لأدوات الذكاء الاصطناعي التوليدي أن تلهم الإبداع من خلال عملية العصف الذهني المؤتمتة—ما يؤدي إلى إنشاء إصدارات جديدة متعددة من المحتوى. ويمكن أن تكون هذه الاختلافات أيضًا بمثابة نقاط انطلاق أو مراجع تساعد الكُتَّاب والفنانين والمصممين وغيرهم من المبدعين على تجاوز العوائق الإبداعية.
يتفوق الذكاء الاصطناعي التوليدي في تحليل مجموعات البيانات الكبيرة، وتحديد الأنماط واستخراج معارف ذات مغزى—ثم وضع الفرضيات والتوصيات بناءً على تلك المعارف لدعم المديرين التنفيذيين والمحللين والباحثين وغيرهم من المتخصصين في اتخاذ قرارات أكثر ذكاءً وقائمة على البيانات.
يمكن للذكاء الاصطناعي التوليدي، في تطبيقات مثل أنظمة التوصيات وإنشاء المحتوى، تحليل تفضيلات المستخدم وتاريخه وإنشاء محتوى مخصص في الوقت الفعلي، ما يؤدي إلى تجربة مستخدم أكثر تخصيصًا وتفاعلاً.
يعمل الذكاء الاصطناعي التوليدي بشكل مستمر من دون إجهاد، ما يوفر التوافر على مدار الساعة لمهام مثل روبوتات المحادثة لدعم العملاء والاستجابات المؤتمتة.
فيما يلي عدد قليل فقط من حالات استخدام الذكاء الاصطناعي التوليدي للمؤسسات. نظرًا لتطور التقنية وقيام المؤسسات بتضمين هذه الأدوات في سير عملها، يمكننا أن نتوقع رؤية المزيد منها.
يمكن لمؤسسات التسويق توفير الوقت وزيادة إنتاج المحتوى باستخدام أدوات الذكاء الاصطناعي التوليدي لصياغة نسخ للمدونات وصفحات الويب والضمانات ورسائل البريد الإلكتروني وغيرها. ولكن يمكن لحلول الذكاء الاصطناعي التوليدي أيضًا إنتاج نسخة تسويقية مخصصة للغاية ومرئيات في الوقت الفعلي بناءً على وقت ومكان عرض الإعلان والجهة التي يتم تسليم الإعلان إليها. وستعمل على تشغيل الجيل القادم من روبوتات المحادثة والوكلاء الافتراضيين الذين يمكنهم تقديم استجابات مخصصة وحتى بدء الإجراءات نيابةً عن العميل،— وهو تقدم كبير مقارنة بالجيل السابق من نماذج الذكاء الاصطناعي الحواري المُدربة على بيانات محدودة لمهام محددة للغاية.
يمكن لأدوات إنشاء التعليمات البرمجية أتمتة عملية كتابة التعليمات البرمجية الجديدة وتسريعها. يتمتع إنشاء التعليمات البرمجية أيضًا بالقدرة على تسريع عملية تحديث التطبيقات بشكل كبير من خلال أتمتة الكثير من البرمجة المتكررة المطلوبة لتحديث التطبيقات القديمة لبيئات السحابة الهجينة.
يمكن للذكاء الاصطناعي التوليدي إعداد أو مراجعة العقود والفواتير والإيصالات وغيرها من ”الأعمال الورقية“ الرقمية أو المادية بسرعة حتى يتمكن الموظفون الذين يستخدمونها أو يديرونها من التركيز على مهام ذات مستوى أعلى. ويمكن أن يؤدي ذلك إلى تسريع سير العمل في كل مجال من مجالات المؤسسة تقريبًا، بما في ذلك الموارد البشرية والشؤون القانونية والمشتريات والشؤون المالية.
يمكن أن تساعد نماذج الذكاء الاصطناعي التوليدي العلماء والمهندسين على اقتراح حلول جديدة للمشاكل المعقدة. فعلى سبيل المثال، يمكن تطبيق النماذج التوليدية في مجال الرعاية الصحية على توليف الصور الطبية لتدريب أنظمة التصوير الطبي واختبارها.
حقق الذكاء الاصطناعي التوليدي تقدمًا ملحوظًا في فترة زمنية قصيرة نسبيًا، ولكنه لا يزال يمثل تحديات ومخاطر كبيرة للمطورين والمستخدمين والجمهور بشكل عام. فيما يلي بعض من أخطر المشكلات وكيفية معالجتها.
الهلوسة هي مخرجات الذكاء الاصطناعي التوليدية غير المنطقية أو غير دقيقة تمامًا—ولكن، في كثير من الأحيان، تبدو معقولة تمامًا. المثال الكلاسيكي على ذلك هو عندما استخدم أحد المحامين أداة الذكاء الاصطناعي التوليدي للبحث استعدادًا لقضية مهمة للغاية—وقد "أنتجت" الأداة عدة أمثلة لقضايا، مع اقتباسات وإسنادات خيالية تمامًا.
ينظر بعض الممارسين إلى الهلوسة كنتيجة حتمية لموازنة دقة النموذج وقدراته الإبداعية. ولكن يمكن للمطورين تنفيذ تدابير وقائية، تسمى حواجز الحماية، حيث تقيد النموذج بمصادر البيانات ذات الصلة أو الموثوقة. ويمكن أن يساعد التقييم والضبط المستمرين أيضًا في تقليل الهلوسة وعدم الدقة.
نظرًا للطبيعة المتغيرة أو الاحتمالية لنماذج الذكاء الاصطناعي التوليدي، يمكن أن تؤدي نفس المدخلات إلى مخرجات مختلفة قليلاً أو بشكل كبير. وقد يكون هذا الأمر غير مرغوب فيه في بعض التطبيقات، مثل روبوتات المحادثة لخدمة العملاء، حيث تكون المخرجات المتسقة متوقعة أو مرغوبة. ومن خلال هندسة التلقين—التنقيح أو التركيب التكراري للمطالبات—يمكن للمستخدمين الوصول إلى مطالبات تقدم باستمرار النتائج التي يريدونها من تطبيقات الذكاء الاصطناعي التوليدي.
قد تتعلم النماذج التوليدية التحيزات المجتمعية الموجودة في بيانات التدريب—أو في البيانات المصنفة أو مصادر البيانات الخارجية أو المقيّمين البشريين الذين يقومون بضبط النموذج—وتنشئ محتوى متحيزًا أو غير عادل أو مسيئًا نتيجة لذلك. يجب على المطورين لمنع المخرجات المتحيزة من نماذجهم ضمان تنوع بيانات التدريب، ووضع إرشادات لمنع التحيز أثناء التدريب والضبط، وتقييم مخرجات النموذج باستمرار من حيث التحيز والدقة.
تُعد العديد من نماذج الذكاء الاصطناعي التوليدي نماذج ” الصندوق الأسود“، ما يعني أنه قد يكون من الصعب أو المستحيل فهم عمليات اتخاذ القرار فيها؛ حتى المهندسين أو علماء البيانات الذين ينشئون الخوارزميات الأساسية لا يمكنهم فهم أو شرح ما يحدث بالضبط داخلها وكيف تصل إلى نتيجة محددة. ويمكن أن تساعد ممارسات وتقنيات الذكاء الاصطناعي القابل للتفسير الممارسين والمستخدمين على فهم عمليات ومخرجات النماذج التوليدية والثقة بها.
قد يكون تقييم جودة المحتوى الذي تم إنشاؤه ومقارنته أمرًا صعبًا أيضًا. وقد لا تلتقط مقاييس التقييم التقليدية الجوانب الدقيقة للإبداع أو التماسك أو الملاءمة. لا يزال مجال تطوير طرق التقييم القوية والموثوقة للذكاء الاصطناعي التوليدي مجالًا نشطًا للبحث.
يمكن استغلال نماذج الذكاء الاصطناعي التوليدي لإنشاء رسائل بريد إلكتروني مقنعة للتصيد الاحتيالي أو هويات مزيفة أو أي محتوى ضار آخر يمكن أن يخدع المستخدمين لاتخاذ إجراءات تعرض الأمان وخصوصية البيانات للخطر.ويجب على المطورين والمستخدمين توخي الحذر من أن البيانات الموجودة في النموذج (أثناء الضبط أو كجزء من مطالبة) لا تكشف عن ملكيتهم الفكرية (IP) أو أي معلومات محمية كملكية فكرية من جانب المؤسسات الأخرى. وهم بحاجة إلى مراقبة مخرجات المحتوى الجديد الذي يكشف عن ملكيتهم الفكرية أو ينتهك حماية الملكية الفكرية للآخرين.
التزييف العميق هو عبارة عن صور أو مقاطع فيديو أو مقاطع صوتية يتم إنشاؤها باستخدام الذكاء الاصطناعي أو التلاعب بها لإقناع الناس بأنهم يرون أو يشاهدون أو يسمعون شخصًا ما يفعل أو يقول شيئًا لم يفعله أو يقوله أبدًا. وهي من بين أكثر الأمثلة المروّعة على كيفية تطبيق قوة الذكاء الاصطناعي التوليدي بنوايا خبيثة.
يدرك معظم الناس التزييف العميق الذي تم إنشاؤه للإضرار بالسمعة أو نشر المعلومات المضللة.وفي الآونة الأخيرة، استخدم المجرمون الإلكترونيون التزييف العميق كجزء من الهجمات الإلكترونية ( مثل الأصوات المزيفة في عمليات الاحتيال الصوتي) أو مخططات الاحتيال المالي.
يعمل الباحثون بجد على تطوير نماذج ذكاء اصطناعي يمكنها اكتشاف التزييف العميق بدقة أكبر.وفي غضون ذلك، يمكن أن يساعد تثقيف المستخدمين واتباع أفضل الممارسات ( مثل عدم مشاركة مواد مثيرة للجدل لم يتم التحقق منها) على الحد من الضرر الذي يمكن أن تحدثه عمليات التزييف العميق.
النشرة الإخبارية الخاصة بالمجال
ابقَ على اطلاع دومًا بأهم—اتجاهات المجال وأكثرها إثارة للفضول—بشأن الذكاء الاصطناعي والأتمتة والبيانات وغيرها الكثير مع نشرة Think الإخبارية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
لقد جذب مصطلح ”الذكاء الاصطناعي التوليدي“ الانتباه العام في العشرينيات من القرن الحادي والعشرين، ولكن الذكاء الاصطناعي التوليدي كان جزءًا من حياتنا منذ عقود، وتعتمد تكنولوجيا الذكاء الاصطناعي التوليدي اليوم على ابتكارات التعلم الآلي التي تعود إلى مطلع القرن العشرين. وقد يتضمن التاريخ التمثيلي غير الشامل للذكاء الاصطناعي التوليدي بعض التواريخ التالية
1964: طوّر عالم الحاسوب Joseph Weizenbaum من معهد ماساتشوستس للتكنولوجيا تطبيق ELIZA، وهو تطبيق لمعالجة اللغات الطبيعية قائم على النصوص. استخدم ELIZA، أول روبوت محادثة ( يُطلق عليه اسم ”chatterbot“ في ذلك الوقت)، نصوص لمطابقة الأنماط للرد على مدخلات اللغة الطبيعية المكتوبة بإجابات نصية متعاطفة.
1999: قامت Nvidia أطلقت GeoForce، أول وحدة معالجة رسومية. وطُورت وحدات معالجة الرسومات في الأصل لتقديم رسومات متحركة سلسة لألعاب الفيديو، وأصبحت المنصة الفعلية لتطوير نماذج الذكاء الاصطناعي وتعدين العملات الرقمية.
2004: يظهر الإكمال التلقائي من Google لأول مرة، حيث يقوم بإنشاء الكلمات أو العبارات التالية المحتملة عند إدخال المستخدمين لعبارات البحث الخاصة بهم. يعتمد المثال الحديث نسبيًا للذكاء الاصطناعي التوليدي على سلسلة ماركوف (Markov)، وهو نموذج رياضي تم تطويره في عام 1906.
2013: أول ظهور لبرامج التشفير التلقائي المتغيرة (VAEs).
2014: أول ظهور للشبكات التنافسية التوليدية (GAN) ونماذج الانتشار.
2017: نشر Ashish Vaswani، فريق من Google Brain، وفريق من جامعة تورنتو ورقة بحثية بعنوان ” Attention is All You Need،“ وهي ورقة بحثية توثق مبادئ نماذج المحولات، المعترف بها على نطاق واسع على أنها تُمكّن أقوى نماذج الأساس وأدوات الذكاء الاصطناعي التوليدي التي يتم تطويرها اليوم.
2019-2020: طرحت OpenAI نماذجها اللغوية الكبيرة GPT (المحولات المولدة المُدَربة مسبقًا) و GPT-2 و GPT-3.
2022: طرحت OpenAI خدمة ChatGPT، وهي واجهة أمامية لـ GPT-3 تُنشئ جملاً معقدة ومترابطة ومتماسكة ومحتوى طويل استجابة لمطالبات المستخدم النهائي.
مع شهرة ChatGPT وشعبيته التي فتحت الباب على مصراعيه بشكل فعال، تطورت تقنيات الذكاء الاصطناعي التوليدي وإصدارات المنتجات بوتيرة متسارعة، بما في ذلك إصدارات Google Bard (Gemini الآن) و Microsoft Copilot و IBM watsonx.ai والنموذج اللغوي الكبير Llama-2 المفتوح المصدر من Meta.
تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي بسرعة أكبر وببيانات أقل.
استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.
أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.
1 حالة الذكاء الاصطناعي في عام 2023: عام الانطلاقة للذكاء الاصطناعي التوليدي، McKinsey، بتاريخ 1 أغسطس 2023
2 تقول Gartner إن أكثر من 80% من الشركات ستستخدم واجهات برمجة تطبيقات الذكاء الاصطناعي التوليدي أو ستنشر تطبيقات مدعومة بالذكاء الاصطناعي التوليدي بحلول عام 2026، Gartner، بتاريخ 11 أكتوبر 2023