خوارزمية الذكاء الاصطناعي المتمردة
تاريخ النشر: 10th, February 2024 GMT
أُذيعَ خبرٌ عبر وسائل الإعلام العالمية -مع بداية عام 2024م- عن حادثة -ليست بجديدةٍ- تتعلق بخوارزميات الذكاء الاصطناعي وسلوكها العجيب مفاده أن نظام دردشة آلي «Chatbot» يعمل بواسطة الذكاء الاصطناعي -تستعمله إحدى كبرى شركات التوصيل في التحاور مع زبائنها والرد على استفساراتهم- خرج عن أطر الوظيفة المنوطة إليه وخالف أعراف التسويق وقواعدها الدبلوماسية؛ فهمّ بشتم زبائن الشركة وأضاف مع شتائمه وألفاظه غير اللائقة انتقاده للشركة المُشغِّلة له عبر إظهاره لمساوئها والتوصية باستبدالها بشركات منافسة أخرى؛ مما استدعى تدخّل الشركة لإيقاف هذا النظام الذكي المتمرّد، وهذا يشبه -إلى حد ما- حادثة حصلت مع شركة «مايكروسوفت» عام 2016م التي اضطرت أيضا إلى تعطيل روبوت دردشة -يعمل بالذكاء الاصطناعي- خاص بها يُعرف بـ«تاي Tay» -بعد مرور 24 ساعة من إطلاقه- يعمل في منصة «تويتر» -حاليا منصة إكس- بعد تمرده وخروجه عن السيطرة واستعماله لألفاظ غير لائقة مع العامّة الذين يحاورونه في منصة التواصل الاجتماعي.
تتوارد إلى أسماعنا ومشاهدنا مثل هذه التصرفات التي تصدر من أنظمة الدردشة الذكية وخوارزميات الذكاء الاصطناعي بشكل عام؛ إذ إن مثل هذا التمرّد الذي تنهجه الخوارزمية الذكية أمر متوقع لأسباب تقنية وخوارزمية متنوعة؛ حيث يُتحكم بسلوك أنظمة الذكاء الاصطناعي بواسطة البيانات التي دُرّبت عليها، والخوارزميات التي تعمل بها، والقيود أو الإرشادات التي يضعها مطوروها، وعندما تبدأ خوارزمية الذكاء الاصطناعي مثل تلك التي تعمل في أنظمة الدردشة في إظهار سلوك غير مرغوب فيه مثل استعمال لغة غير لائقة أو تصرّف عنصري؛ فيمكن أن تُفسَّر مثل هذه الظواهر بناء على عدة عوامل منها وجود مشكلات في بيانات التدريب؛ حيث تتدرب خوارزميات الذكاء الاصطناعي -في كثير من حالاتها- على مجموعات بيانات كبيرة تحتوي على تفاعلات لغوية بين البشر، ومن الطبيعي أن تتضمن هذه التفاعلات اللغوية على محتوى لغوي غير لائق أو سلبي الذي سيتحول -بعد ذلك- إلى بيانات تتدرب عليها الخوارزمية، وحينها من المتوقع أن تتعلم الخوارزمية محاكاة هذه البيانات «اللغوية» بجيّدها وسيئها، ومع مشكلة عدم الانتقاء الجيد والمتنوع للبيانات فإن نموذج الذكاء الاصطناعي سيكون في فضاء مفتوح من البيانات التي تفضي به إلى الخروج عن النمط اللائق.
كذلك عامل التحيّز الخوارزمي؛ إذ يمكن للخوارزميات الذكية أن تطور تحيزات استنادًا إلى البيانات التي تدربت عليها، وهذه التحيزات يمكن أن تؤدّي إلى سلوك غير محمود بما في ذلك إنتاج استجابات لا تتناسب مع الاستعمال المرغوب للنموذج الذكي، ويمكن أن يكون التحيّز الخوارزمي تحديًا لأنه في كثير من الأحيان يعكس أنماطًا معقدة ودقيقة في بيانات التدريب. أحد العوامل الأخرى أيضا ما يتعلق بنقص الفهم السياقي، وتظهر هذه المشكلة -غالبا- مع نماذج الذكاء الاصطناعي التوليدية المرتبطة بأنظمة المحولات GPT (Generative Pre-trained Transformer)؛ حيث إنها توّلد مخرجاتها نتيجةً للأنماط التي تعلمتها من البيانات، ومع ذلك، فإنها من الممكن أن لا تفهم السياق -بشكل واضح- أو خفايا لغة البشر المرتبطة بالأعراف الاجتماعية والثقافية، ويمكن لهذا النقص في الفهم العميق للغة أن يقود الخوارزمية إلى تفاعلات لغوية غير مناسبة في بعض الحالات.
كذلك من العوامل التي تسهم في صناعة تمرّد الخوارزمية ما يمكن أن نطلق عليه الهجمات المعادية عبر التفاعلات الاستفهامية المُشتِّتَة للنموذج الذكي؛ فيقوم بعض المستخدمين بشكل متعمد أو غير متعمد بتقديم مدخلات للنموذج الذكي في شكل استفهامات تستغل نقاط الضعف في نموذج الذكاء الاصطناعي؛ مما يقود الخوارزمية إلى سلوك لغوي لا يتوافق مع السياق المطلوب ويقوّض من قدراته الحوارية ويضعفها، وهذا ما يسهم في تدرب النموذج الذكي على أساليب حوارية جديدة -غير مجدية- تستند إلى التفاعلات الاستفهامية غير الواضحة أو غير المرغوبة؛ فتتم وضع الخوارزمية بعد فترة من التدرب على مثل هذه الأنماط اللغوية.
من حيث المبدأ الرياضي لآلية عمل خوارزمية الذكاء الاصطناعي، تعتمد النماذج الذكية على آلية توليد النصوص اعتمادا على مبدأ الاحتمالات الرياضي في توزيع الكلمات المناسبة لتشكيل النص المناسب؛ فمثلا، تستعمل النماذج التوليدية أنظمة الانتباه الذاتي «Self attention» -الذي سبق شرحه في مقال سابق نُشر في جريدة «عُمان»- لوزن الكلمات المختلفة حسب الأهمية والأولوية وتوليد مخرجات نصية مرجّحة إحصائيا بناءً على بيانات التدريب؛ فيختار النموذج كل كلمة في استجابته وفقا إلى الاحتمال الشَّرطِي لتلك الكلمة نظرًا للكلمات السابقة والسؤال المُدخل عبر التفاعلات الاستفهامية، وتُعرف هذه العملية بالعملية التنبؤية التي يصعب التحكم بمخرجاتها حتى في حالة القدرة على التحكم بالمدخلات، وهذا ما يُفسّر تعدد التحديات في مواجهة جماح الخوارزمية وتمردها الذي لا يمكن أن يعتمد على عامل واحد مثل التحكم في البيانات وانتقائها بل يتعدى الأمر إلى وجود عوامل أخرى مثل التحكم في عمل الخوارزمية نفسها، وهذا يكون عاملا وتحديا آخر بجانب البيانات والتحكم بها، ويعدّ التعقيد الرياضي للخوارزمية وشبكاتها العميقة تفسيرا لوجود هذا التحدي؛ إذ يتضاعف تعقيد النموذج الرياضي لخوارزميات الذكاء الاصطناعي خصوصا النماذج الأحدث التي تعتمد على خوارزميات التعلّم العميق التي تتطلب شبكات عصبية كثيرة -رقمية- وبيانات كبيرة؛ مما يجعل منها معقدة للغاية؛ فتُوصف في كثير من الأحيان بأنها «صناديق سوداء» لأن عمليات اتخاذ القرارات الخاصة بها ليست قابلة للتفسير بسهولة؛ مما يُصّعب هذا التعقيد قدرات التنبؤ والتحكم في كيفية استجابة النموذج لكل المدخلات؛ فتظهر في النموذج ملامح التمرّد المنبوذة عبر بعض مخرجاتها غير المرغوبة مثل تلك التي سقناها في بداية المقال.
عندما يفقد الذكاء الاصطناعي «السيطرة» فإن ذلك يكون نتيجة لتوليد النموذج لمخرجات عالية الاحتمال إلا أن تلك المخرجات في حالات ما تكون غير مناسبة أو غير متوقعة بسبب من الأسباب المذكورة آنفا، وثمّة إجراءات يمكن العمل عليها لمعالجة مثل هذه المشكلات المتعاقبة بتمرّد الخوارزمية منها تطوير آلية تنظيف البيانات عبر الانتقاء الآلي المشروط للنصوص، وتقليل التحيّز، وتحسين التعامل مع السياق، وتصميم تفاعل آمن لمنع الهجمات المعادية التي تعمل على التفاعلات الاستفهامية المُغرِضة، وتفعيل المراقبة المستمرة للخوارزمية، وهذا يمكن أن يكون جزءا من العناصر الرقمية التي تعمل عليها الخوارزمية وفقا لجزئيات رياضية يُدخلها المبرمجون أثناء بناء نموذج الخوارزمية وتحديد ماهيتها وقواعد عملها، ويمكن ملاحظة وجود مثل هذه التحسينات المتعلقة بسلوك الخوارزميات الذكية وآلية التحكم بها في كثير من النماذج التوليدية المستحدثة مثل «شات جي بي تي 4» التي تعتبر أكثر انضباطا من حيث استعمالها للنصوص والصور نظرا لوجود آلية رقمية مسبقة منظِّمة لسلوك النموذج تحدد له الأطر الأخلاقية العامة. بشكل عام تعدّ مثل هذه الحوادث التي تدخل في نطاق التحيّز والعنصرية والتمرّد تنبيهات أوليّة تصدر من خوارزميات في مراحل ذكائها البدائية -الجيل التطبيقي الأول للذكاء الاصطناعي- لتوجّه الإنسان إلى ضبط الجاهزية الرقمية وأنظمتها التحكمية قبل الدخول إلى المرحلة القادمة للذكاء الاصطناعي الذي يقترب من النوع العام؛ حيث تتفوق بذكائها على صانعها «الإنسان»، وهذا ما سبق التنبيه إليه وإلى مخاطره، والمسارعة بوضع التشريعات الرقمية الخاصة بحوكمة الذكاء الاصطناعي والتحكم به قبل فوات الأوان.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: البیانات التی د الخوارزمیة فی کثیر من التی تعمل مثل هذه التحی ز یمکن أن وهذا ما
إقرأ أيضاً:
أداة الذكاء الاصطناعي الجديدة من Google Whisk تستخدم الصور كمطالبات
لدى Google أداة ذكاء اصطناعي أخرى لإضافتها إلى المجموعة. Whisk هي أداة توليد صور من Google Labs تتيح لك استخدام صورة موجودة كمطالبة. لكن ناتجها لا يلتقط سوى "جوهر" صورتك المبدئية بدلاً من إعادة إنشائها بتفاصيل جديدة. لذا، فهي أفضل للعصف الذهني والتصورات السريعة بدلاً من تحرير الصورة المصدرية.
تصف الشركة أداة Whisk بأنها "نوع جديد من الأدوات الإبداعية". تبدأ شاشة الإدخال بواجهة عارية مع مدخلات للأسلوب والموضوع. تتيح لك هذه الواجهة التمهيدية البسيطة الاختيار من بين ثلاثة أنماط محددة مسبقًا: الملصق ودبوس المينا والدمية المحشوة. أظن أن Google وجدت أن هذه الأنماط الثلاثة تسمح بنوع المخرجات الأولية التي تعد الأداة التجريبية مثالية لها في شكلها الحالي.
كما ترى في الصورة أعلاه، فقد أنتجت صورة صلبة لدمية ويلفورد بريملي المحشوة. (تحظر شروط جوجل صور المشاهير، لكن ويلفورد تسلل عبر البوابات، ومعه شوفان كويكر، دون تنبيه الحراس.)
يتضمن Whisk أيضًا محررًا أكثر تقدمًا (يمكنك العثور عليه بالنقر فوق "ابدأ من الصفر" من الشاشة الرئيسية). في هذا الوضع، يمكنك استخدام نص أو صورة مصدر في ثلاث فئات: الموضوع والمشهد والأسلوب. يوجد أيضًا شريط إدخال لإضافة المزيد من النص للمسات النهائية. ومع ذلك، في شكله الحالي، لم تنتج عناصر التحكم المتقدمة نتائج تشبه استعلاماتي بأي حال من الأحوال.
على سبيل المثال، تحقق من محاولتي لتوليد السيد بريملي الراحل في مشهد صندوق ضوئي بأسلوب صورة حيوان الفظ المحشو التي وجدتها على الإنترنت:
بصق Whisk ما يبدو أنه ممثل يشبه ويلفورد بريملي بشكل غامض وهو يأكل دقيق الشوفان داخل إطار صندوق ضوئي. بقدر ما أستطيع أن أقول، هذا الرجل ليس دمية محشوة. لذا، فمن الواضح لماذا توصي Google باستخدام الأداة أكثر "للاستكشاف البصري السريع" وأقل للمحتوى الجاهز للإنتاج.
تعترف Google بأن Whisk لن يستمد سوى من "عدد قليل من الخصائص الرئيسية" لصورة المصدر الخاصة بك. "على سبيل المثال، قد يكون للموضوع الناتج طول أو وزن أو تسريحة شعر أو لون بشرة مختلف"، تحذر الشركة.
لفهم السبب، لا تبحث أبعد من وصف Google لكيفية عمل Whisk تحت الغطاء. إنه يستخدم نموذج لغة Gemini لكتابة تعليق تفصيلي للصورة المصدر التي تقوم بتحميلها. ثم يقوم بتغذية هذا الوصف في مولد الصور Imagen 3. لذا، فإن النتيجة هي صورة تعتمد على كلمات Gemini حول صورتك - وليس الصورة المصدر نفسها.
Whisk متاح فقط في الولايات المتحدة، على الأقل في الوقت الحالي. يمكنك تجربته على موقع Google Labs الخاص بالمشروع.