عندما اكتشف براين هود أن أداة "تشات جي بي تي" للذكاء الاصطناعي نسبت إليه ماضياً إجرامياً، وجد هذا السياسي الأسترالي نفسه في مواجهة معضلة ينكبّ المهندسون جاهدين عى محاولة حلّها، وتتمثل في كيفية تعليم الذكاء محوَ الأخطاء.
فالخيار القانوني المتمثل في تلويح براين هود في أبريل الفائت برفع دعوى تشهير على شركة "أوبن إيه آي" (منشئة "تشات جبي بي تي") لا يبدو حلاً مناسباً.

كذلك لا يكمن الحلّ في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجدداً يستغرق وقتاً طويلاً وهو مكلف جداً.
يرى المختصون أن مسألة "إلغاء التعلّم" أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه، ستكون بالغة الأهمية في السنوات المقبلة، وخصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.
تؤكد ليسا غيفن أستاذة علوم المعلومات في جامعة "آر إم آي تي" في ملبورن الأسترالية أن "القدرة على محو البيانات الموجودة في قواعد بيانات التعلّم هي موضوع مهم جداً". لكنها ترى أن جهداً كبيراً لا يزال مطلوباً في هذا المجال نظرا إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي.
ففي ظل الكم الهائل من البيانات التي يُدرَّب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.
واكتسب الموضوع زخما خلال السنوات الثلاث أو الأربع الأخيرة، على ما يوضح مقداد كرمانجي الباحث الخبير في هذا المجال من جامعة "وارويك" البريطانية.
وعملت "غوغل ديب مايند" المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأميركية الشهر المنصرم مع كورمانجي، خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجَي "تشات جي بي تي" و"بارد" (من "غوغل").
- تصحيح بعض التحيزات
انكبّ أكثر من ألف خبير شاركوا في مسابقة أطلقتها الشركة الأميركية على العمل ما بين يوليو وسبتمبر الماضيين لتحسين أساليب "إلغاء تعلّم" الذكاء الاصطناعي.
وتتمثل الطريقة المستخدمة المشابهة لما توصلت إليه أبحاث أخرى في هذا المجال، في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار، ولا تتضمن تعديل قاعدة البيانات.
يؤكد مقداد كرمانجي أن هذه العملية يمكن أن تكون "أداة مهمة جداً" لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية.
ويؤكد أن الخوارزمية، التي تم التوصل إليها، أثبتت فاعليتها أيضاً في إزالة المحتوى المحميّ بموجب حقوق المؤلف أو في تصحيح بعض التحيزات.
لكنّ آخرين كمسؤول الذكاء الاصطناعي في "ميتا" (فيسبوك وإنستعرام) يانّ لوكان، يبدون أقل اقتناعاً بهذه الفاعلية.
ويوضح لوكان أنه لا يقول إن هذه الخوارزمية "غير مجدية أو غير مثيرة للاهتمام أو سيئة"، بل يرى أن "ثمة أولويات أخرى".
يعتبر مايكل روفاتسوس أستاذ الذكاء الاصطناعي في جامعة إدنبره أن "الحل التقني ليس الحل الناجع".
ويشرح أن "إلغاء التعلم" لن يتيح طرح أسئلة أوسع، ككيفية جمع البيانات، ومن المستفيد منها، أو من يجب أن يكون مسؤولا عن الضرر الذي يسببه الذكاء الاصطناعي.
ومع أن قضية براين هود عولجت، من دون تفسير، بعدما حظيت باهتمام إعلامي واسع أثمرَ تصحيح البيانات التي تعالجها "تشات جي بي تي"، فإنه يعتبر أن الأساليب التي ينبغي استخدامها في الوقت الراهن يجب أن تبقى يدوية.
ويقول الرجل الأسترالي "ينبغي أن يتحقق المستخدمون من كل شيء، في الحالات التي تعطي فيها روبوتات الدردشة معلومات خاطئة".

أخبار ذات صلة تعاون بين جامعة محمد بن زايد للذكاء الاصطناعي و«إي آند» شرطة الشارقة تستعرض الذكاء الاصطناعي التوليدي المصدر: آ ف ب

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي الأخطاء الشائعة تعلم الذکاء الاصطناعی

إقرأ أيضاً:

جديد الذكاء الاصطناعي.. يمكنه اكتشاف المشاعر!

بدأ الذكاء الاصطناعي في التغلغل في العديد من جوانب التجربة الإنسانية، وهو ليس مجرد أداة لتحليل البيانات، إنه يحول الطريقة التي نتواصل بها ونعمل ونعيش بها، من ChatGP إلى مولدات الفيديو بالذكاء الاصطناعي، أصبحت الخطوط الفاصلة بين التكنولوجيا وأجزاء من حياتنا غير واضحة بشكل متزايد، ولكن هل تعني هذه التطورات التكنولوجية أن الذكاء الاصطناعي يمكنه تحديد مشاعرنا عبر الإنترنت؟.

في بحث جديد، قام موقع "ذا كونفيرسيشن"، بفحص ما إذا كان الذكاء الاصطناعي قادرًا على اكتشاف المشاعر البشرية في المنشورات على X .

وركز البحث على كيفية تأثير المشاعر المعبر عنها في المنشورات حول بعض المنظمات غير الربحية على الإجراءات، مثل قرار التبرع لها في وقت لاحق، استخدام المشاعر لدفع الاستجابة تقليديًا، واعتمد الباحثون على تحليل المشاعر، الذي يصنف الرسائل على أنها إيجابية أو سلبية أو محايدة.
 وفي حين أن هذه الطريقة بسيطة وبديهية، إلا أنها محدودة، فالمشاعر البشرية أكثر دقة، وعلى سبيل المثال، الغضب وخيبة الأمل كلاهما مشاعر سلبية، لكنهما يمكن أن يثيرا ردود فعل مختلفة جدًا، وقد يتفاعل العملاء الغاضبون بقوة أكبر بكثير من العملاء المحبطين في سياق الأعمال.


سلوك الناس

ولمعالجة هذه القيود، طبق البحث نموذجًا للذكاء الاصطناعي يمكنه اكتشاف مشاعر معينة - مثل الفرح والغضب والحزن والاشمئزاز - المعبر عنها في التغريدات.
 وجد البحث أن المشاعر المعبر عنها على X يمكن أن تكون بمثابة تمثيل للمشاعر العامة للجمهور حول منظمات غير ربحية محددة.
وكان لهذه المشاعر تأثير مباشر على سلوك التبرع.
واكتشاف المشاعر استخدم البحث نموذج "تعلم نقل المحول" لاكتشاف المشاعر في النص، فالمحولات، المدربة مسبقًا على مجموعات بيانات ضخمة من قبل شركات مثل Google وFacebook، هي خوارزميات ذكاء اصطناعي متطورة للغاية تتفوق في فهم اللغة الطبيعية (اللغات التي تطورت بشكل طبيعي على عكس لغات الكمبيوتر أو الكود).
وقام البحث بضبط النموذج على مجموعة من أربع مجموعات بيانات للعواطف المبلغ عنها ذاتياً (أكثر من 3.6 مليون جملة) وسبع مجموعات بيانات أخرى (أكثر من 60000 جملة)، وسمح هذا برسم خريطة لمجموعة واسعة من المشاعر المعبر عنها عبر الإنترنت.
وعلى سبيل المثال، سيكتشف النموذج الفرح باعتباره العاطفة السائدة عند قراءة منشور X مثل، إن بدء صباحنا في المدارس هو الأفضل! كل الابتسامات لأطفال، وعلى العكس من ذلك، سيلتقط النموذج الحزن في تغريدة تقول، أشعر أنني فقدت جزءًا من نفسي،  لقد فقدت أمي منذ أكثر من شهر، وأبي منذ 13 عامًا،  أنا ضائع وخائف.
وحقق النموذج دقة مذهلة بنسبة 84٪ في اكتشاف المشاعر من النص، وهو إنجاز جدير بالملاحظة في مجال الذكاء الاصطناعي، ثم نظر البحث إلى تغريدات حول منظمتين مقرهما نيوزيلندا - مؤسسة فريد هولوز وجامعة أوكلاند. لقد وجد أن التغريدات التي تعبر عن الحزن كانت أكثر عرضة لدفع التبرعات لمؤسسة فريد هولوز، في حين ارتبط الغضب بزيادة التبرعات لجامعة أوكلاند.
ومفهوم تكنولوجيا التعلم الآلي ChatBot الرقمية تمكن النموذج الجديد من تحديد المشاعر المختلفة المعبر عنها في  منشورات. عدة.


الأسئلة الأخلاقية

إن تحديد المشاعر المحددة له آثار كبيرة على قطاعات مثل التسويق والتعليم والرعاية الصحية، والقدرة على تحديد الاستجابات العاطفية للأشخاص في سياقات محددة عبر الإنترنت يمكن أن تدعم صناع القرار في الاستجابة لعملائهم الفرديين أو سوقهم الأوسع، وتتطلب كل عاطفة محددة يتم التعبير عنها في منشورات وسائل التواصل الاجتماعي عبر الإنترنت رد فعل مختلف من الشركة أو المنظمة.
وأظهر البحث أن المشاعر المختلفة تؤدي إلى نتائج مختلفة عندما يتعلق الأمر بالتبرعات. 
 إن معرفة الحزن في الرسائل التسويقية يمكن أن تزيد من التبرعات للمنظمات غير الربحية تسمح بحملات أكثر فعالية وعاطفية، ويمكن للغضب أن يحفز الناس على التصرف استجابة للظلم المتصور، وفي حين يتفوق نموذج التعلم عن طريق نقل المحول في اكتشاف المشاعر في النص، فإن الاختراق الكبير القادم سيأتي من دمجه مع مصادر بيانات أخرى، مثل نبرة الصوت أو تعبيرات الوجه، لإنشاء ملف تعريف عاطفي أكثر اكتمالاً.
 تخيل الذكاء الاصطناعي الذي لا يفهم فقط ما تكتبه ولكن أيضًا كيف تشعر، و من الواضح أن مثل هذه التطورات تأتي مع تحديات أخلاقية، فإذا كان الذكاء الاصطناعي قادرًا على قراءة مشاعرنا، فكيف نضمن استخدام هذه القدرة بشكل مسؤول؟ كيف نحمي الخصوصية؟ هذه أسئلة حاسمة يجب معالجتها مع استمرار تطور التكنولوجيا، وفق البحث.
وما نحتاج إلى معرفته لفهم كيفية تعلم الآلات الذكاء الاصطناعي يحمل جانبًا إيجابيًا كبيرًا، ولكن الأضرار المحتملة يجب إدارتها، حيث الذكاء الاصطناعي يغذي أزمات عدة، وما وراء ذلك، وكيفية إصلاحه مسألة بالغة الأهمية.

مقالات مشابهة

  • التأمينات الاجتماعية تطلق منصة البيانات المفتوحة المدعمة بالذكاء الاصطناعي وخدمات دعم التوظيف والتطبيق الشامل
  • هل ينافس الذكاء الاصطناعي الإنسان مستقبلا على جوائز نوبل؟
  • الذكاء الاصطناعي يهدد الذكاء البشري
  • الذكاء الاصطناعي ينافس على نوبل!
  • ينتج صوتاً وصورة.. ميتا تكشف عن الذكاء الاصطناعي الجديد موفي جين
  • استخدام الذكاء الاصطناعي في تشخيص "التصلب المتعدد".. و12 ألف مريض سنويًا
  • الذكاء الاصطناعي.. هل سينافس البشر على الجوائز؟
  • مصر للمعلوماتية تنظم ورشة عمل حول الذكاء الاصطناعي التوليدي
  • جديد الذكاء الاصطناعي.. يمكنه اكتشاف المشاعر!
  • الكويت.. «الذكاء الاصطناعي» يدخل مدارس التعليم الثانوي