كان 2022 العام الذي اجتذب فيه الذكاء الاصطناعي التوليدي (AI) الانتباه العام، بينما كان 2023 بداية ترسيخه بشكل ملحوظ في عالم الأعمال. لذا، من المتوقع أن يكون 2024 عامًا حاسمًا لمستقبل الذكاء الاصطناعي، حيث يعمل الباحثون والشركات على استكشاف أفضل الطرق لدمج هذه القفزة التطورية في التقنيات بشكل عملي في حياتنا اليومية.
لقد عكس تطور الذكاء الاصطناعي التوليدي تطور أجهزة الكمبيوتر، وإن كان ذلك في جدول زمني متسارع بشكل كبير. أفسحت أجهزة الكمبيوتر المركزية الضخمة التي يعمل عليها مركزيًا عدد قليل من الموظفين أمام أجهزة كمبيوتر أصغر حجمًا وأكثر كفاءة يمكن للشركات والمؤسسات البحثية الوصول إليها. وفي العقود التي تلت ذلك، أسفرت التطورات التدريجية عن ظهور أجهزة كمبيوتر منزلية يمكن للهواة تجربتها. ومع مرور الوقت، أصبحت أجهزة الكمبيوتر الشخصية القوية المزودة بواجهات سهلة الاستخدام من دون الحاجة لكتابة أكواد شائعة في كل مكان.
لقد وصل الذكاء الاصطناعي التوليدي بالفعل إلى مرحلة "الهواة" - وكما هو الحال مع أجهزة الكمبيوتر، يهدف المزيد من التقدم إلى تحقيق أداء أكبر في حزم أصغر. شهد عام 2023 انفجارًا في نماذج الأساس ذات الكفاءة المتزايدة مع التراخيص المفتوحة، بدءًا من إطلاق مجموعة LlaMa من نماذج اللغة الكبيرة (LLMs) وتلاها أمثال StableLM و Falcon و Mistral و Llama 2. حقق DeepFloyd و Stable Diffusion التكافؤ النسبي مع النماذج الملكية الرائدة. وبفضل تقنيات الضبط الدقيق ومجموعات البيانات التي طورها مجتمع المصدر المفتوح، يمكن للعديد من النماذج المفتوحة الآن التفوق على جميع النماذج المغلقة المصدر، على الرغم من عدد المعلمات الأصغر بكثير.
مع تسارع وتيرة التقدم، ستحظى القدرات المتزايدة باستمرار للنماذج المتطورة بأحدث النماذج بأكبر قدر من الاهتمام الإعلامي. لكن التطورات الأكثر تأثيرًا قد تكون تلك التي تركز على الحوكمة والبرمجيات الوسيطة وتقنيات التدريب ومسارات البيانات التي تجعل الذكاء الاصطناعي التوليدي أكثر جدارة بالثقة والاستدامة وسهولة الوصول إليه بالنسبة للمؤسسات والمستخدمين النهائيين على حد سواء.
فيما يلي بعض اتجاهات الذكاء الاصطناعي الحالية المهمة التي يجب الانتباه إليها والبحث عنها في العام المقبل.
عندما أصبح الذكاء الاصطناعي التوليدي معروفًا بشكل واسع لأول مرة، أصبحت معرفة قادة الأعمال العاديين به تأتي في الغالب من المواد التسويقية والتغطية الإعلامية التي لا تنقطع. اقتصرت التجربة الملموسة (إن وجدت) على استخدام ChatGPT وDALL-E. الآن بعد أن استقرت الأمور، بات مجتمع الأعمال يمتلك فهمًا أكثر عمقًا ودقة للحلول المدعومة بالذكاء الاصطناعي.
يضع Gartner Hype Cycle للذكاء الاصطناعي التوليدي في "ذروة التوقعات المتضخمة"، على أعتاب الانزلاق إلى "حضيض خيبة الأمل"[1] - أي على وشك الدخول في فترة انتقالية ( نسبيًا) مخيبة للآمال - بينما أشار تقرير ”حالة الذكاء الاصطناعي التوليدي في المؤسسة“ الصادر عن Deloitte في الربع الأول من عام 2024 إلى أن العديد من القادة "يتوقعون تأثيرات تحويلية كبيرة على المدى القصير".[2] من المرجح أن يقع الواقع بين هذا وذاك: الذكاء الاصطناعي التوليدي يوفر فرصًا وحلولاً فريدة من نوعها، ولكنه لن يكون كل شيء للجميع.
إن كيفية مقارنة النتائج في العالم الواقعي بالضجة المبالغ فيها هي مسألة وجهات نظر إلى حد ما. فعادةً ما تحتل الأدوات المستقلة مثل ChatGPT مركز الصدارة في المخيلة الشعبية، ولكن الاندماج السلس في الخدمات القائمة غالبًا ما ينتج عنه المزيد من القدرة على البقاء. فقبل دورة الضجيج الحالية، لم يتم الإعلان عن أدوات التعلم الآلي التوليدية مثل ميزة "Smart Compose" التي طرحتها Google في عام 2018 على أنها نقلة نوعية، على الرغم من كونها نذيرًا لخدمات توليد النصوص اليوم. وبالمثل، يجري تنفيذ العديد من أدوات الذكاء الاصطناعي التوليدية عالية التأثير كعناصر متكاملة لبيئات المؤسسات التي تعزز وتكمل الأدوات الموجودة بدلاً من إحداث ثورة فيها أو تحل محلها: على سبيل المثال، ميزات "Copilot" في Microsoft Office، وميزات "التعبئة التوليدية" في Adobe Photoshop أو الوكلاء الافتراضيين في تطبيقات الإنتاجية والتعاون.
عند اكتساب الذكاء الاصطناعي التوليدي أول زخم له في سير العمل سيكون لها تأثير أكبر في مستقبل الأدوات الذكاء الاصطناعي من الجانب الإيجابي الافتراضي لأي قدرات ذكاء اصطناعي محددة. ووفقًا لاستطلاع أجرته شركة IBM مؤخرًا لأكثر من 1000 موظف في الشركات على نطاق المؤسسات، فإن العوامل الثلاثة الأولى التي دفعت إلى اعتماد الذكاء الاصطناعي هي التطورات في أدوات الذكاء الاصطناعي التي تجعل الوصول إليها أكثر سهولة، والحاجة إلى خفض التكاليف وأتمتة العمليات الرئيسية والكمية المتزايدة من الذكاء الاصطناعي المضمنة في تطبيقات الأعمال القياسية الجاهزة.
مع ذلك، فإن طموح الذكاء الاصطناعي التوليدي الحديث في تزايد مستمر. لن تركز الموجة التالية من التطورات على تحسين الأداء في مجال معين فقط، بل على النماذج متعددة المجالات التي يمكن أن تأخذ أنواعًا متعددة من البيانات كمدخلات. وعلى الرغم من أن النماذج التي تعمل عبر نماذج بيانات مختلفة ليست ظاهرة جديدة تمامًا—فنماذج تحويل النص إلى صورة مثل CLIP، ونماذج تحويل الكلام إلى نص مثل Wave2Vec موجودة منذ سنوات حتى الآن—إلا أنها عادة ما تعمل في اتجاه واحد وتم تدريبها لتحقيق مهمة محددة.
يمكن للجيل القادم من النماذج متعددة التخصصات، التي تضم نماذج خاصة مثل OpenAI GPT-4V أو Gemini من Google، بالإضافة إلى نماذج مفتوحة المصدر مثل Llava أو Adept أو Qwen-vl، التنقل بحرية بين معالجة اللغة الطبيعية (NLP) ومهام رؤية الكمبيوتر. تعمل النماذج الجديدة أيضًا على جلب الفيديو إلى الحظيرة: في أواخر يناير، أعلنت Google عن Lumiere، وهو نموذج لنشر النص إلى فيديو يمكنه أيضًا تنفيذ مهام تحويل الصور إلى فيديو أو استخدام الصور كمرجع للنمط.
تتمثل الفائدة الأكثر إلحاحًا للذكاء الاصطناعي متعدد النماذج في تطبيقات الذكاء الاصطناعي والمساعدين الافتراضيين الأكثر سهولة وتنوعًا. يمكن للمستخدمين، على سبيل المثال، السؤال عن صورة والحصول على إجابة باللغة الطبيعية، أو السؤال بصوت عالٍ عن تعليمات لإصلاح شيء ما وتلقي مساعدات بصرية مع التعليمات النصية خطوة بخطوة.
على مستوى أعلى، يتيح الذكاء الاصطناعي متعدد الوسائط للنموذج معالجة مدخلات بيانات أكثر تنوعًا، ما يثري المعلومات المتاحة للتدريب والاستدلال ويوسع نطاقها. تقدم مقاطع الفيديو، على وجه الخصوص، إمكانات كبيرة للتعلم الشامل. يقول Peter Norvig، الباحث المتميز في التعليم بمعهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسان (HAI): "هناك كاميرات تعمل على مدار الساعة طوال أيام الأسبوع وتلتقط ما يحدث كما هو، من دون أي تصفية أو عن قصد."[3] "لم تحصل نماذج الذكاء الاصطناعي على هذا النوع من البيانات من قبل. ستكون هذه النماذج قادرة على فهم كل شيء بشكل أفضل."
في النماذج المتخصصة في مجالات معينة—وخاصة نماذج اللغة الكبيرة (LLMs)—من المحتمل أن نكون قد وصلنا إلى مرحلة تناقص العوائد مع زيادة عدد المعلمات. أشار Sam Altman، المدير التنفيذي لـ OpenAI (التي يُشاع أن نموذج GPT-4 الخاص بها يحتوي على حوالي 1.76 تريليون معلمة)، إلى ذلك في حدث Imagination in Action في MIT في إبريل الماضي، حيث قال: "أعتقد أننا نصل إلى نهاية عصر النماذج العملاقة، وسنعمل على تحسينها بطرق أخرى." "أعتقد أن هناك تركيزًا مبالغًا فيه على عدد المعلمات."
قدمت النماذج الضخمة دفعة قوية لعصر الذكاء الاصطناعي الحالي، لكنها ليست خالية من العيوب. الشركات الكبرى وحدها هي التي لديها الأموال والمساحة الخادمية اللازمة لتدريب النماذج التي تستهلك الكثير من الطاقة وصيانتها التي تحتوي على مئات المليارات من المعلمات. وفقًا لأحد التقديرات الصادرة عن جامعة واشنطن، يتطلب تدريب نموذج واحد بحجم GPT-3 استهلاك الكهرباء السنوي لأكثر من 1,000 أسرة؛ فاليوم العادي لاستفسارات ChatGPT ينافس استهلاك الطاقة اليومي لـ 33,000 أسرة أمريكية.[4]
وفي الوقت نفسه، فإن النماذج الأصغر أقل كثافة في استخدام الموارد. أظهرت ورقة بحثية مؤثرة في مارس 2022 من Deepmind أن تدريب النماذج الأصغر على المزيد من البيانات ينتج عنه أداء أفضل من تدريب النماذج الأكبر على بيانات أقل. ومن ثم، فقد ركز الكثير من الابتكار المستمر في النماذج اللغوية الكبيرة على تحقيق مخرجات أكبر من عدد أقل من المعلمات. كما يتضح من التقدم الأخير للنماذج في نطاق 3-70 مليار معلمة، لا سيما تلك المبنية على نماذج LLaMa و Llama 2 و Mistral في عام 2023، يمكن تقليص حجم النماذج من دون تضحية كبيرة بالأداء.
ستستمر قوة النماذج المفتوحة المصدر في النمو. في ديسمبر من عام 2023، أصدرت Mistral ”Mixtral“، وهو نموذج مزيج من الخبراء (MoE) يدمج 8 شبكات عصبية لكل منها 7 مليارات معلمة. تدعي Mistral أن Mixtral لا يتفوق فقط على متغير 70 مليار معلمة من Llama 2 على معظم المعايير بسرعات استدلال أسرع 6 مرات، بل إنه يضاهي أو يتفوق على GPT-3.5 الأكبر بكثير من OpenAI في معظم المعايير القياسية. بعد ذلك بوقت قصير، أعلنت Meta في يناير أنها بدأت بالفعل في تدريب نماذج Llama 3، وأكدت أنها ستكون مفتوحة المصدر. على الرغم من عدم تأكيد التفاصيل (مثل حجم النموذج)، إلا أنه من المنطقي أن نتوقع أن يتبع Llama 3 إطار العمل الذي تم إنشاؤه في الجيلين السابقين.
تتمتع هذه التطورات في النماذج الأصغر بثلاث مزايا مهمة:
سيكون الاتجاه نحو النماذج الأصغر مدفوعًا بالضرورة بقدر ما هو مدفوع بقوة ريادة الأعمال، حيث تزداد تكاليف الحوسبة السحابية مع انخفاض توافر الأجهزة.
كما يقول James Landay، نائب المدير ومدير الأبحاث بمعهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسان: "تحاول الشركات الكبرى (وأكثر منها) جلب قدرات الذكاء الاصطناعي داخل الشركة، وهناك نوع من التهافت على وحدات معالجة الرسومات. "سيضع هذا الأمر ضغطًا كبيرًا ليس فقط لزيادة إنتاج وحدات معالجة الرسومات، لكن أيضًا للمبتكرين للتوصل إلى حلول أجهزة أرخص وأسهل في التصنيع والاستخدام."1
كما يوضح تقرير O'Reilly الذي صدر في أواخر عام 2023، يتحمل مزودو السحابة حاليًا الكثير من عبء الحوسبة: عدد قليل نسبيًا من متبنيي الذكاء الاصطناعي يحتفظون بنيتهم الأساسية الخاصة، ولن يسفر عن نقص الأجهزة إلا زيادة عقبات وتكاليف إنشاء خوادم محلية. على المدى الطويل، قد يؤدي ذلك إلى زيادة الضغط تصاعديًا على تكاليف السحابة حيث يحدث مزودو الخدمات بنيتهم الأساسية ويحسنونها لتلبية الطلب بشكل فعال من الذكاء الاصطناعي التوليدي. [5]
بالنسبة إلى المؤسسات، يتطلب التنقل في هذا المشهد غير المؤكد المرونة، من حيث كلا النموذجين - الاعتماد على نماذج أصغر وأكثر كفاءة عند الضرورة أو نماذج أكبر وأكثر أداءً عندما يكون ذلك عمليًا - وبيئة النشر. قال المدير التنفيذي لـ IBM Arvind Krishna في مقابلة مع CNBC في ديسمبر 2023، في إشارة إلى مجموعة IBM watsonx لمنتجات الذكاء الاصطناعي: «لا نريد تقييد الأماكن التي ينشر فيها الأشخاص [نموذجًا]». «لذلك [إذا] أرادوا نشرها على سحابة عامة كبيرة، فسنقوم بذلك هناك. إذا كانوا يريدون نشرها في IBM، فسنقوم بذلك في IBM. إذا أرادوا القيام بذلك بمفردهم وكان لديهم بنية تحتية كافية، فسنقوم بذلك هناك».
يدعم اتجاه تحسين أداء النماذج الأصغر بشكل جيد الإسهامات الأخيرة من مجتمع المصدر المفتوح.
كان العديد من التطورات الرئيسية (وستظل) مدفوعة ليس فقط بنماذج الأساس الجديدة، لكن أيضًا بالتقنيات والموارد الجديدة (مثل مجموعات البيانات مفتوحة المصدر) للتدريب أو التعديل أو الضبط الدقيق أو المواءمة مع النماذج المدرَّبة مُسبقًا. تشمل التقنيات البارزة التي لا تعتمد على النماذج والتي ترسخت في عام 2023 ما يلي:
بجانب التقدم المتوازي في النماذج مفتوحة المصدر التي تحتوي على ما بين 3 –70 مليار معلمة، قد تؤدي هذه التقنيات المتطورة إلى تغيير ديناميكيات مجال الذكاء الاصطناعي من خلال توفير قدرات ذكاء اصطناعي متقدمة للجهات الفاعلة الأصغر، مثل الشركات الناشئة والهواة، التي كانت غير متاحة لهم سابقًا.
ومن ثَمَّ، يمكن للمؤسسات في عام 2024 أن يسعوا إلى التمايز من خلال تطوير نماذج مخصصة، بدلاً من بناء غلافات حول خدمات معاد تجميعها من "الذكاء الاصطناعي الضخم". باستخدام إطار البيانات والتطوير المناسب، يمكن تخصيص نماذج وأدوات الذكاء الاصطناعي مفتوحة المصدر الحالية لتناسب أي سيناريو في العالم الحقيقي تقريبًا، بدءًا من استخدامات دعم العملاء وإدارة سلسلة التوريد وحتى تحليل المستندات المعقدة.
تتيح النماذج مفتوحة المصدر للمؤسسات الفرصة لتطوير نماذج ذكاء اصطناعي قوية مخصصة—تُدرب على بياناتهم الخاصة وتُحسن لتلبية احتياجاتهم المحددة—بسرعة، من دون الحاجة إلى استثمارات ضخمة في البنية الأساسية. يُعد هذا ذا أهمية خاصة في مجالات مثل القانون والرعاية الصحية أو المالية، حيث قد لا تكون النماذج الأساسية قد تعلمت المفردات والمفاهيم المتخصصة بشكل كافٍ في أثناء التدريب المسبق.
القطاعات القانونية والمالية والرعاية الصحية هي أيضًا أمثلة رئيسية على الصناعات التي يمكن أن تستفيد من النماذج الصغيرة بما يكفي لتشغيلها محليًا على أجهزة بسيطة. يقلل الحفاظ على تدريب الذكاء الاصطناعي والاستدلال والتوليد المعزز بالاسترجاع (RAG) محليًا من مخاطر استخدام البيانات الخاصة أو المعلومات الشخصية الحساسة في تدريب النماذج المغلقة المصدر أو مرورها عبر جهات خارجية. ويساعد استخدام التوليد المعزز بالاسترجاع للوصول إلى المعلومات ذات الصلة بدلاً من تخزين كل المعرفة مباشرة ضمن نموذج اللغة الكبيرة على تقليل حجم النموذج، ما يزيد من السرعة ويقلل التكاليف.
مع استمرار عام 2024 في تسوية مستوى النماذج، سيزداد تأثير ميزة التنافس على أساس خطوط بيانات ذات ملكية خاصة تتيح التخصيص الأمثل وفقًا لأفضل معايير الصناعة.
بفضل الأدوات الأكثر تطورًا وكفاءة ومعلومات التعليقات من السوق على مدار عام كامل، أصبحت الشركات مستعدة لتوسيع حالات الاستخدام للوكلاء الافتراضيين إلى ما هو أبعد من مجرد روبوت المحادثة لتجربة.
مع تسريع أنظمة الذكاء الاصطناعي ودمجها لمصادر معلومات جديدة وصياغتها، تتوسع إمكاناتها لتشمل ليس فقط التواصل واتباع التعليمات، بل أيضًا أتمتة المهام. كان عام 2023 هو العام الذي أصبح فيه من الممكن الدردشة مع الذكاء الاصطناعي. يقول Norvig من جامعة ستانفورد: "أطلقت العديد من الشركات منتجات جديدة، لكن التفاعل كان دائمًا مقتصرًا على كتابة شيء ما والحصول على رد مماثل." في عام 2024، سنشهد قدرة الوكلاء على إنجاز المهام نيابة عنك. وحجز المواعيد، والتخطيط للرحلات، والاتصال بخدمات أخرى.
يزيد الذكاء الاصطناعي متعدد النماذج، على وجه الخصوص، بشكل كبير من فرص التفاعل السلس مع الوكلاء الافتراضيين. فعلى سبيل المثال، بدلاً من مجرد سؤال الروبوت عن الوصفات، يمكن للمستخدم توجيه الكاميرا إلى ثلاجة مفتوحة وطلب وصفات يمكن إعدادها باستخدام المكونات المتاحة. يقوم تطبيق Be My Eyes، وهو تطبيق جوال يربط الأفراد المكفوفين وضعاف البصر بالمتطوعين للمساعدة على المهام السريعة، بتجربة أدوات الذكاء الاصطناعي التي تساعد المستخدمين على التفاعل المباشر مع محيطهم من خلال الذكاء الاصطناعي متعدد النماذج بدلاً من انتظار متطوع بشري.
تحسين القدرات المتعددة النماذج وانخفاض الحواجز أمام الدخول تفتح أيضًا أبوابًا جديدة للإساءة: فقد يصبح من السهل بشكل متزايد على الجهات الفاسدة إنشاء التزييف العميق، وإثارة مشاكل الخصوصية، واستمرار التحيز، وحتى تجاوز تدابير حماية CAPTCHA. وفي يناير 2024، اجتاحت وسائل التواصل الاجتماعي موجة من التزييف العميق للنجوم المشاهير؛ وأظهرت الأبحاث في مايو 2023 أن تزييف الصوت الذي تم نشره على الإنترنت تزايد بمعدل 8 أضعاف مقارنةً بالفترة نفسها في عام 2022.[6]
قد يؤدي الغموض في البيئة التنظيمية إلى إبطاء التبني، أو على الأقل التنفيذ الأكثر عدوانية، على المدى القصير إلى المتوسط. هناك خطر جوهري في أي استثمار كبير وغير قابل للتراجع في تقنية أو ممارسة ناشئة قد تتطلب إعادة تجهيز كبيرة—أو حتى تصبح غير قانونية—في ظل التشريعات الجديدة أو التغيرات السياسية المحتملة في السنوات القادمة.
في ديسمبر 2023، توصل الاتحاد الأوروبي (EU) إلى اتفاق مؤقت بشأن قانون الذكاء الاصطناعي. ومن بين التدابير الأخرى، يحظر المسح العشوائي للصور لإنشاء قواعد بيانات التعرف على الوجه، وأنظمة التصنيف البيومتري مع احتمال التحيز التمييزي، وأنظمة «التسجيل الاجتماعي» واستخدام الذكاء الاصطناعي للتلاعب الاجتماعي أو الاقتصادي. كما يسعى إلى تحديد فئة من أنظمة الذكاء الاصطناعي «عالية المخاطر»، التي يمكن أن تهدد السلامة أو الحقوق الأساسية أو سيادة القانون، والتي ستخضع لرقابة إضافية. وبالمثل، فإنه يحدد متطلبات الشفافية لما يطلق عليه أنظمة «الذكاء الاصطناعي للأغراض العامة (GPAI)» - النماذج التأسيسية - بما في ذلك الوثائق الفنية والاختبارات العدائية المنهجية.
ولكن في حين أن بعض اللاعبين الرئيسيين، مثل Mistral، يقيمون في الاتحاد الأوروبي، فإن غالبية تطوير الذكاء الاصطناعي الرائد يحدث في أمريكا، حيث يتطلب التشريع الجوهري للذكاء الاصطناعي في القطاع الخاص اتخاذ إجراءات من الكونجرس - وهو ما قد يكون غير مرجح في عام الانتخابات. في 30 أكتوبر، أصدرت إدارة بايدن أمرًا تنفيذيًا شاملاً يوضح 150 متطلبًا لاستخدام تقنيات الذكاء الاصطناعي من قبل الوكالات الفيدرالية؛ قبل أشهر، حصلت الإدارة على التزامات طوعية من مطوري الذكاء الاصطناعي البارزين للالتزام بحواجز معينة للثقة والأمان. والجدير بالذكر أن كل من كاليفورنيا وكولورادو تسعى بنشاط إلى تشريعاتها الخاصة فيما يتعلق بحقوق خصوصية بيانات الأفراد فيما يتعلق بالذكاء الاصطناعي.
لقد تحركت الصين بشكل أكثر استباقية نحو فرض قيود رسمية على الذكاء الاصطناعي، حيث حظرت التمييز في الأسعار من خلال خوارزميات التوصيات على وسائل التواصل الاجتماعي وفرضت وضع علامات واضحة على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. تسعى اللوائح التنظيمية المرتقبة بشأن الذكاء الاصطناعي التوليدي إلى اشتراط أن تكون بيانات التدريب المستخدمة لتدريب النماذج اللغوية الكبيرة والمحتوى الذي تولده النماذج لاحقًا ”حقيقية ودقيقة“، وهو ما اعتبره الخبراء إشارة إلى تدابير لفرض رقابة على مخرجات النماذج اللغوية الكبيرة.
وفي الوقت نفسه، يظل دور المواد المحمية بحقوق الطبع والنشر في تدريب نماذج الذكاء الاصطناعي المستخدمة في توليد المحتوى، من نماذج اللغة إلى مولدات الصور ونماذج الفيديو، قضية مثيرة للجدال. وقد تؤثر نتيجة الدعوى القضائية البارزة التي رفعتها صحيفة نيويورك تايمز ضد شركة OpenAI بشكل كبير على مسار تشريعات الذكاء الاصطناعي. فقد نشأت أدوات معادية، مثل Glaze وNightshade- وكلاهما تم تطويرهما في جامعة شيكاغو - فيما قد يصبح سباق تسلح من نوع ما بين المبدعين ومطوري نماذج الذكاء الاصطناعي.
بالنسبة إلى الأعمال، تتزايد احتمالية العواقب القانونية والتنظيمية والاقتصادية والمتعلقة بالسمعة بسبب شهرة أدوات الذكاء الاصطناعي التوليدي وسهولة الوصول المتزايدة لها. يجب ألا يكون لدى المؤسسات سياسة مؤسسية دقيقة ومتماسكة وواضحة المعالم حول الذكاء الاصطناعي التوليدي فحسب، بل يجب أن تكون حذرة أيضًا من الذكاء الاصطناعي الظلي: الاستخدام الشخصي "غير الرسمي" للذكاء الاصطناعي في مكان العمل من قبل الموظفين.
ينشأ الذكاء الاصطناعي الظلي الذي يُطلق عليه أيضًا اسم ”تكنولوجيا المعلومات الظلي“ أو ”BYOAI“، عندما يقوم الموظفون الذين لا يتحلون بالصبر ويبحثون عن حلول سريعة (أو ببساطة يريدون استكشاف التكنولوجيا الجديدة بشكل أسرع مما تسمح به سياسة الشركة الحذرة) بتطبيق الذكاء الاصطناعي التوليدي في مكان العمل من دون المرور بتكنولوجيا المعلومات للحصول على الموافقة أو الإشراف. تسمح العديد من الخدمات التي تواجه المستهلك، وبعضها مجاني، حتى للأفراد غير التقنيين بالارتجال في استخدام أدوات الذكاء الاصطناعي التوليدي. وفي إحدى الدراسات التي أجرتها Ernst وYoung، قال 90% من المستجيبين إنهم يستخدمون الذكاء الاصطناعي في العمل.[7]
قد تكون الروح الريادية رائعة في حد ذاتها—لكن الموظفون المتحمسون قد يفتقرون إلى المعلومات أو الرؤية اللازمة بشأن الأمن أو الخصوصية أو الامتثال. يمكن أن يعرِّض هذا الأمر الأعمال لكثير من المخاطر. على سبيل المثال، قد يغذي الموظف نموذج الذكاء الاصطناعي الموجه للجمهور ويتدرب باستمرار على مدخلات المستخدم بأسرار تجارية من دون قصد، أو يستخدم مواد محمية بحقوق الطبع والنشر لتدريب نموذج خاص لإنشاء المحتوى وتعريض شركته لإجراءات قانونية.
وكما هو حال العديد من التطورات الجارية، يُسلط هذا الضوء على مدى ارتفاع مخاطر الذكاء الاصطناعي التوليدي بشكل خطي تقريبًا مع قدراته. فمع القوة العظيمة تكبر المسؤولية.
بينما نمضي في عام محوري في مجال الذكاء الاصطناعي، فإن فهم التوجهات الناشئة والتكيف معها أمر ضروري لزيادة الإمكانات، وتقليل المخاطر، وتوسيع تبني الذكاء الاصطناعي التوليدي بشكل مسؤول.
1 "تضع الذكاء الاصطناعي التوليدي على ذروة التوقعات المتضخمة في دورة Hype Cycle لعام 2023 للتقنيات الناشئة" (الرابط موجود خارج ibm.com)، Gartner، 16 أغسطس 2023
2 "تقرير Deloitte عن حالة الذكاء الاصطناعي التوليدي في المؤسسات - الربع الأول" (محتوى الرابط موجود خارج موقع ibm.com)، Deloitte، يناير 2024
3 "ما يمكن توقعه في الذكاء الاصطناعي في عام 2024 "(محتوى الرابط موجود خارج موقع ibm.com)، جامعة ستانفورد، 8 ديسمبر 2023
4 "أسئلة وأجوبة: باحث من جامعة واشنطن يناقش كمية الطاقة التي يستهلكها ChatGPT بالضبط" (محتوى الرابط موجود خارج موقع ibm.com)، جامعة واشنطن، 27 يوليو 2023
5 "الذكاء الاصطناعي التوليدي في الشركات" (محتوى الرابط موجود خارج موقع ibm.com)، O’Reilly، 28 نوفمبر 2023
6 "التزييف العميق: انتخابات أمريكا 2024 تتزامن مع طفرة ازدهار الذكاء الاصطناعي" (محتوى الرابط موجود خارج موقع ibm.com)، وكالة Reuters ، 30 مايو 2023
7 "كيف يمكن للمؤسسات منع الاستخدام المتزايد للذكاء الاصطناعي أن يثير القلق" (محتوى الرابط موجود خارج موقع ibm.com)، Ernst وYoung، ديسمبر 2023