عندما اكتشف براين هود أن أداة "تشات جي بي تي" للذكاء الاصطناعي نسبت إليه ماضياً إجرامياً، وجد هذا السياسي الأسترالي نفسه في مواجهة معضلة ينكبّ المهندسون جاهدين عى محاولة حلّها، وتتمثل في كيفية تعليم الذكاء محوَ الأخطاء.
فالخيار القانوني المتمثل في تلويح براين هود في أبريل الفائت برفع دعوى تشهير على شركة "أوبن إيه آي" (منشئة "تشات جبي بي تي") لا يبدو حلاً مناسباً.

كذلك لا يكمن الحلّ في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجدداً يستغرق وقتاً طويلاً وهو مكلف جداً.
يرى المختصون أن مسألة "إلغاء التعلّم" أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه، ستكون بالغة الأهمية في السنوات المقبلة، وخصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.
تؤكد ليسا غيفن أستاذة علوم المعلومات في جامعة "آر إم آي تي" في ملبورن الأسترالية أن "القدرة على محو البيانات الموجودة في قواعد بيانات التعلّم هي موضوع مهم جداً". لكنها ترى أن جهداً كبيراً لا يزال مطلوباً في هذا المجال نظرا إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي.
ففي ظل الكم الهائل من البيانات التي يُدرَّب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.
واكتسب الموضوع زخما خلال السنوات الثلاث أو الأربع الأخيرة، على ما يوضح مقداد كرمانجي الباحث الخبير في هذا المجال من جامعة "وارويك" البريطانية.
وعملت "غوغل ديب مايند" المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأميركية الشهر المنصرم مع كورمانجي، خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجَي "تشات جي بي تي" و"بارد" (من "غوغل").
- تصحيح بعض التحيزات
انكبّ أكثر من ألف خبير شاركوا في مسابقة أطلقتها الشركة الأميركية على العمل ما بين يوليو وسبتمبر الماضيين لتحسين أساليب "إلغاء تعلّم" الذكاء الاصطناعي.
وتتمثل الطريقة المستخدمة المشابهة لما توصلت إليه أبحاث أخرى في هذا المجال، في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار، ولا تتضمن تعديل قاعدة البيانات.
يؤكد مقداد كرمانجي أن هذه العملية يمكن أن تكون "أداة مهمة جداً" لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية.
ويؤكد أن الخوارزمية، التي تم التوصل إليها، أثبتت فاعليتها أيضاً في إزالة المحتوى المحميّ بموجب حقوق المؤلف أو في تصحيح بعض التحيزات.
لكنّ آخرين كمسؤول الذكاء الاصطناعي في "ميتا" (فيسبوك وإنستعرام) يانّ لوكان، يبدون أقل اقتناعاً بهذه الفاعلية.
ويوضح لوكان أنه لا يقول إن هذه الخوارزمية "غير مجدية أو غير مثيرة للاهتمام أو سيئة"، بل يرى أن "ثمة أولويات أخرى".
يعتبر مايكل روفاتسوس أستاذ الذكاء الاصطناعي في جامعة إدنبره أن "الحل التقني ليس الحل الناجع".
ويشرح أن "إلغاء التعلم" لن يتيح طرح أسئلة أوسع، ككيفية جمع البيانات، ومن المستفيد منها، أو من يجب أن يكون مسؤولا عن الضرر الذي يسببه الذكاء الاصطناعي.
ومع أن قضية براين هود عولجت، من دون تفسير، بعدما حظيت باهتمام إعلامي واسع أثمرَ تصحيح البيانات التي تعالجها "تشات جي بي تي"، فإنه يعتبر أن الأساليب التي ينبغي استخدامها في الوقت الراهن يجب أن تبقى يدوية.
ويقول الرجل الأسترالي "ينبغي أن يتحقق المستخدمون من كل شيء، في الحالات التي تعطي فيها روبوتات الدردشة معلومات خاطئة".

أخبار ذات صلة تعاون بين جامعة محمد بن زايد للذكاء الاصطناعي و«إي آند» شرطة الشارقة تستعرض الذكاء الاصطناعي التوليدي المصدر: آ ف ب

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي الأخطاء الشائعة تعلم الذکاء الاصطناعی

إقرأ أيضاً:

خبير أمن معلومات: الذكاء الاصطناعي أداة بحدين| تفاصيل

تحدث الدكتور أحمد بانافع، خبير أمن المعلومات، حول استخدام برنامج الذكاء الاصطناعي «شات جي بي تي» في حادثة تفجير سيارة أمام برج ترامب بولاية نيفادا الأمريكية ليلة رأس السنة. 

وأكد بانافع خلال مداخلته ببرنامج «صباح جديد» المذاع على قناة القاهرة الإخبارية أن الذكاء الاصطناعي أداة بحدين؛ يمكن أن يُستخدم في أمور مفيدة وإيجابية، ولكنه أيضًا أصبح أداة يستغلها المجرمون للحصول على معلومات تخدم أغراضهم.

مسؤولية الشركات المطورة للذكاء الاصطناعي

وأشار بانافع إلى أن المسؤولية الأخلاقية لمنع حوادث مشابهة تقع على عاتق الشركات المطورة لتقنيات الذكاء الاصطناعي، إذ يتطلب الأمر وضع قيود وبرامج تمنع إساءة استخدام هذه الأدوات. 

وأوضح أن إدارة الرئيس الأمريكي جو بايدن أصدرت طلبًا رئاسيًا يدعو الشركات إلى مراقبة تقنيات الذكاء الاصطناعي بشكل طوعي، دون إلزام قانوني. ومع ذلك، يظل التحدي الرئيسي هو تحقيق توازن بين مراقبة الاستخدام والربحية، إذ أن الرقابة قد تؤثر سلبًا على أرباح هذه الشركات.

إخفاق محاولات التقييد القانوني

وأوضح خبير أمن المعلومات أن بعض الولايات الأمريكية حاولت تحميل الشركات المطورة مسؤولية العواقب السلبية لاستخدام تقنيات الذكاء الاصطناعي، إلا أن هذه المحاولات باءت بالفشل نتيجة تعقيدات قانونية وتعارض المصالح. لكنه لفت إلى أن حادثة نيفادا قد تمثل نقطة تحول في دفع الجهود نحو تنظيم أكثر صرامة للتكنولوجيا المتطورة.

مستقبل الذكاء الاصطناعي في الميزان

واختتم بانافع حديثه بالإشارة إلى أن الذكاء الاصطناعي بات يلعب دورًا متزايدًا في حياة البشر، إلا أن حوادث مثل تفجير نيفادا تسلط الضوء على الحاجة العاجلة لإيجاد حلول تنظيمية تمنع استغلال هذه التكنولوجيا بطرق خطيرة.

 ودعا إلى تعاون دولي ومشترك بين الحكومات والشركات لوضع أطر تحكم استخدام الذكاء الاصطناعي بما يضمن الاستفادة من إمكاناته دون التسبب في أضرار.

مقالات مشابهة

  • خبير أمن معلومات: الذكاء الاصطناعي أداة بحدين| تفاصيل
  • AI Drones: تأثير مُسيّرات الذكاء الاصطناعي في نتائج الحروب
  • الذكاء الاصطناعي يزيح 92% من البشر عن وظائفهم
  • الذكاء الاصطناعي يُهدد 92 مليون وظيفة
  • مساعد الذكاء الاصطناعي «Gemini» يصل عالم السيارات| تفاصيل
  • الذكاء الاصطناعي يُهدد 92 مليون وظيفة عالمياً بحلول 2030
  • حجم سوق الذكاء الاصطناعي خليجياً.. 15 مليار دولار
  • تعزيز الذكاء الاصطناعي في القطاع الصحي
  • هكذا واجهت المقاومة أنظمة الذكاء الاصطناعي المعادية؟
  • هل الذكاء الاصطناعي قادر على الإبداع؟