قالت شركة غوغل إن عائلتها الجديدة من نماذج الذكاء الاصطناعي تتمتع بميزة مثيرة للفضول وهي القدرة على تحديد المشاعر. وقد أعلنت عن عائلة "بيليجيما 2" (PaliGemma 2) التي تملتك قدرة تحليل صور الأشخاص وإنشاء تسميات توضيحية والإجابة على الأسئلة حول الأشخاص الموجودين في الصورة. وفقا لموقع "تيك كرانش".

وكتبت غوغل في منشور مدونة أن نماذج "بيليجيما 2" تولد تسميات توضيحية مفصلة عما يجري في الصورة، وتتجاوز التعرف البسيط على الأشياء لوصف الأفعال والمشاعر والسرد العام للمشهد.

ومن الجدير بالذكر أن تقنية التعرف على المشاعر لا تعمل بشكل تلقائي وتحتاج لضبط. ورغم ذلك، فقد أبدى الخبراء قلقهم من احتمال وجود تقنية لكشف المشاعر متاحة للعلن.

وقالت ساندرا واتشر أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت لموقع "تيك كرانش":  "إنه أمر مزعج للغاية، ومن غير المنطقي الافتراض بأننا نستطيع قراءة مشاعر الناس".

وعلى مر السنين حاولت الشركات الناشئة وشركات التكنولوجيا العملاقة على حد سواء بناء الذكاء الاصطناعي الذي يمكنه اكتشاف المشاعر في كل شيء من تدريب المبيعات إلى منع الحوادث. ويدعي البعض أنهم حققوا ذلك، لكن العلم يقف على أرض تجريبية غير مستقرة.

إعلان

وتستند غالبية تقنيات كشف المشاعر إلى الأعمال السابقة لبول إكمان، وهو عالم نفس افترض أن البشر يشتركون في 6 مشاعر أساسية وهي الغضب والدهشة والاشمئزاز والاستمتاع والخوف والحزن. ومع ذلك، فإن الدراسات اللاحقة أثارت الشكوك حول فرضية إكمان، حيث أظهرت أن هناك اختلافات كبيرة في الطريقة التي يعبر بها الأشخاص عن مشاعرهم.

أنظمة كشف المشاعر عادة ما تكون غير موثوقة ومتحيزة لفرضيات مصمميها (غيتي)

ويقول مايك كوك الباحث في جامعة كوين ماري والمتخصص في الذكاء الاصطناعي في تقرير "تيك كرانش":"اكتشاف المشاعر ليس ممكنا في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة". وأضاف "نعتقد أنه يمكننا معرفة ما يشعر به الآخرون من خلال النظر إليهم، وقد حاول الكثيرون على مر السنين القيام بذلك، مثل وكالات التجسس أو شركات التسويق. وأنا متأكد من إمكانية اكتشاف بعض العلامات في بعض الحالات، لكن هذا ليس شيئا يمكننا حله بشكل كامل".

والنتيجة المتوقعة هي أن أنظمة كشف المشاعر عادة ما تكون غير موثوقة ومتحيزة لفرضيات مصمميها. وفي دراسة أجريت في معهد ماساتشوستس للتكنولوجيا عام 2020، أظهر الباحثون أن النماذج التي تحلل الوجوه يمكن أن تتطور لتفضيل تعابير معينة، مثل الابتسامة. وتشير أبحاث أحدث أن نماذج التحليل العاطفي تعطي مشاعر سلبية أكثر لوجوه الأشخاص السود مقارنة بوجوه الأشخاص البيض.

وبالمقابل تقول غوغل إنها أجرت اختبارات موسعة لتقييم التحيزات الديمغرافية في نماذج "بيليجيما 2" ووجدت مستويات منخفضة من الأخطاء والشتائم مقارنة بالمعايير المهنية. ولكن الشركة لم تقدم القائمة الكاملة للمعايير التي استخدمتها، كما لم توضح أنواع الاختبارات التي أجرتها. وفقا لتيك كرانش.

والمعيار الوحيد الذي كشفت عنه هو "فير فيس" (FairFace)، وهو عبارة عن مجموعة صور لوجوه عشرات الآلاف من الأشخاص. وتدّعي الشركة أن "بيليجيما 2" حقق نتائج جيدة في هذا المعيار. ولكن بعض الباحثين انتقدوا هذا المعيار باعتباره مقياسا متحيزا، مشيرين إلى أن "فير فيس" يمثل فقط عددا قليلا من المجموعات العرقية.

وقالت هايدي خلف عالمة الذكاء الاصطناعي في معهد "إيه آي ناو" (AI Now) "إن تفسير المشاعر هو مسألة ذات طابع شخصي للغاية تمتد إلى ما هو أبعد من استخدام الوسائل البصرية، وتكون متأصلة بشكل كبير في السياق الشخصي والثقافي، وبحسب الأبحاث فنحن لا نستطيع اكتشاف المشاعر من ملامح الوجه وحدها" بحسب التقرير.

ومن جهة أخرى، أثارت أنظمة كشف المشاعر غضب المنظمين في الخارج الذين سعوا إلى تقليص استخدام التكنولوجيا في الجوانب عالية المخاطر. ويحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأرباب العمل نشر أجهزة كشف المشاعر (لكن ليس على وكالات إنفاذ القانون).

إعلان

وقالت خلف "إذا كانت نماذج تحديد المشاعر مبنية على افتراضات زائفة علميا، فهناك تداعيات كبيرة حول استخدام هذه القدرة لتعزيز التمييز ضد المجموعات المهمشة مثلما يحدث في إنفاذ القانون والموارد البشرية وإدارة الحدود وما إلى ذلك".

وسُئل المتحدث باسم غوغل عن مخاطر إطلاق "بيليجيما 2" بشكل عام، وقال لموقع تيك كرانش: "إن الشركة تقف وراء اختباراتها الأضرار التمثيلية فيما يتعلق بالإجابة عن الأسئلة البصرية والتوصيف". وأضاف "لقد أجرينا تقييمات دقيقة لنماذج تحديد المشاعر فيما يتعلق بالأخلاق والسلامة، بما في ذلك سلامة الأطفال وسلامة المحتوى".

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی فی

إقرأ أيضاً:

خبير أمن معلومات: الذكاء الاصطناعي أداة بحدين| تفاصيل

تحدث الدكتور أحمد بانافع، خبير أمن المعلومات، حول استخدام برنامج الذكاء الاصطناعي «شات جي بي تي» في حادثة تفجير سيارة أمام برج ترامب بولاية نيفادا الأمريكية ليلة رأس السنة. 

وأكد بانافع خلال مداخلته ببرنامج «صباح جديد» المذاع على قناة القاهرة الإخبارية أن الذكاء الاصطناعي أداة بحدين؛ يمكن أن يُستخدم في أمور مفيدة وإيجابية، ولكنه أيضًا أصبح أداة يستغلها المجرمون للحصول على معلومات تخدم أغراضهم.

مسؤولية الشركات المطورة للذكاء الاصطناعي

وأشار بانافع إلى أن المسؤولية الأخلاقية لمنع حوادث مشابهة تقع على عاتق الشركات المطورة لتقنيات الذكاء الاصطناعي، إذ يتطلب الأمر وضع قيود وبرامج تمنع إساءة استخدام هذه الأدوات. 

وأوضح أن إدارة الرئيس الأمريكي جو بايدن أصدرت طلبًا رئاسيًا يدعو الشركات إلى مراقبة تقنيات الذكاء الاصطناعي بشكل طوعي، دون إلزام قانوني. ومع ذلك، يظل التحدي الرئيسي هو تحقيق توازن بين مراقبة الاستخدام والربحية، إذ أن الرقابة قد تؤثر سلبًا على أرباح هذه الشركات.

إخفاق محاولات التقييد القانوني

وأوضح خبير أمن المعلومات أن بعض الولايات الأمريكية حاولت تحميل الشركات المطورة مسؤولية العواقب السلبية لاستخدام تقنيات الذكاء الاصطناعي، إلا أن هذه المحاولات باءت بالفشل نتيجة تعقيدات قانونية وتعارض المصالح. لكنه لفت إلى أن حادثة نيفادا قد تمثل نقطة تحول في دفع الجهود نحو تنظيم أكثر صرامة للتكنولوجيا المتطورة.

مستقبل الذكاء الاصطناعي في الميزان

واختتم بانافع حديثه بالإشارة إلى أن الذكاء الاصطناعي بات يلعب دورًا متزايدًا في حياة البشر، إلا أن حوادث مثل تفجير نيفادا تسلط الضوء على الحاجة العاجلة لإيجاد حلول تنظيمية تمنع استغلال هذه التكنولوجيا بطرق خطيرة.

 ودعا إلى تعاون دولي ومشترك بين الحكومات والشركات لوضع أطر تحكم استخدام الذكاء الاصطناعي بما يضمن الاستفادة من إمكاناته دون التسبب في أضرار.

مقالات مشابهة

  • خبير أمن معلومات: الذكاء الاصطناعي أداة بحدين| تفاصيل
  • AI Drones: تأثير مُسيّرات الذكاء الاصطناعي في نتائج الحروب
  • الذكاء الاصطناعي يزيح 92% من البشر عن وظائفهم
  • للألعاب وتدريب الروبوتات.. جوجل تسعى لبناء نماذج عالم للذكاء الاصطناعي
  • الذكاء الاصطناعي يُهدد 92 مليون وظيفة
  • مساعد الذكاء الاصطناعي «Gemini» يصل عالم السيارات| تفاصيل
  • الذكاء الاصطناعي يُهدد 92 مليون وظيفة عالمياً بحلول 2030
  • حجم سوق الذكاء الاصطناعي خليجياً.. 15 مليار دولار
  • تعزيز الذكاء الاصطناعي في القطاع الصحي
  • بـ3000 دولار.. إطلاق أصغر حاسوب فائق الذكاء الاصطناعي