أخبارنا:
2024-11-26@21:53:01 GMT

حكم ضد غوغل بسبب التمييز ضد النساء

تاريخ النشر: 23rd, October 2023 GMT

حكم ضد غوغل بسبب التمييز ضد النساء

 قضت هيئة المحلفين أن غوغل مذنبة بالتمييز الجنسي بين موظفيها، ومنحت أولكو رو، مديرة الهندسة في Google Cloud، التي قدمت شكوى ضد الشركة، مبلغ 1.1 مليون دولار كتعويض، حيث زعمت الدعوى القضائية التي رفعتها رو أن الشركة منحت أجورًا أعلى للذكور الأقل خبرة، وأنها رفضت فيما بعد ترقياتها انتقامًا من شكاواها، سواء الداخلية أو لاحقًا في المحكمة.


 
وقررت هيئة محلفين في نيويورك  أن غوغل ارتكبت تمييزًا على أساس الجنس، وتدين الآن لرو بمبلغ إجمالي قدره 1.15 مليون دولار كتعويضات تأديبية والألم والمعاناة التي تسببت فيها، وكانت رو تمتلك 23 عامًا من الخبرة عندما بدأت العمل في غوغل في عام 2017، وتزعم الدعوى القضائية أنها لم تتمكن من التوظيف لتضعها في مستوى يدفع لها أجرًا أقل بكثير مما يُعرض على الرجال.
 
ويأتي ذلك بعد ما يقرب من خمس سنوات من تنظيم حوالي 20 ألف موظف في غوغل إضرابًا للمطالبة بتغييرات حول تعامل الشركة مع سوء السلوك الجنسي والتمييز، وبينما تعهدت الشركة ببذل قصارى جهدها فيما يتعلق بالتحرش الجنسي، فإن استجابتها لا تزال تترك الكثير مما هو مرغوب فيه فيما يتعلق بموضوعات التحيز، ووفقًا لبلومبرج، فإن دعوى رو هي أول قضية تواجهها غوغل منذ الاحتجاجات.
 

المصدر: أخبارنا

إقرأ أيضاً:

خوارزميّات توظيف لا ترى النّساء

يسلط التقرير الضوء على وجود تمييز على أساس النوع، لدى خوارزميات أدوات الذكاء الاصطناعي المُعدة لفحص السير الذاتية، عند اختيار الموظفين/ات؛ ما يقلل فرص النساء في الحصول على الوظائف مقارنة بالرجال.

متفائلة على الدوام، تواصل منّة فتحي رحلتها في البحث عن وظيفة مناسبة؛ فمهما كانت المتاعب في سبيل تحقيق ذلك، تعتقد منّة أن التطبيقات الذكية تُعزّز من فرصها في التقديم والمنافسة على الوظائف المتاحة.

في الوقت ذاته، تفصح منّة عن معاناتها منذ فترة، في رحلة البحث عن وظيفة: « قدمت في 75 وظيفة، ولم يتصل بي أحد ولا أعلم السبب، كلها تذهب في ثقب أسود ».

منّة ليست حالة وحيدة، فمثلها كثيرون؛ إذ يعتقد 88 في المئة من أصحاب العمل أنهم يخسرون المرشحين ذوي المؤهلات العالية الذين يُستبعدون من عمليات التوظيف بواسطة « ATS »؛ لأنّ المرشحين لا يقدمون سِيَراً ذاتية « متوافقة مع معايير البرنامج وكلماته المفتاحية المُبرمَجة ». ولذلك تُرفض 75 في المئة من السِّير الذاتية وتُحذف من قاعدة البيانات، ولا تُعرض مطلقاً على فريق التوظيف.

المفاجآت تتوالى 

رغم معرفة رواد الأعمال بخسارتهم أفضل المرشحين، فإن 70 في المئة من الشركات الكبرى، و20 في المئة من الشركات الصغيرة والمتوسطة، و75 في المئة من مسؤولي التوظيف، يستخدمون حالياً برامج « ATS »، أو أيّ أداة توظيف أخرى تعمل بالذكاء الاصطناعي لمراجعة طلبات المتقدمين.

وبعيداً عن دهشة الجمهور لاعتقادهم أن التكنولوجيا صديقة للبشر، فإنّ برامج فحص طلبات التوظيف « ATS » تعتمد على ما تُزوَّد به من معلومات، فالتحدي لم يعد في أتمتة الوظائف، أو توفير النفقات؛ فكل مَن لم يتمّ تمثيله تمثيلاً دقيقاً وعادلاً داخل البيانات الضخمة، لن يستطيع الذكاء الاصطناعي معاملته بشكل حيادي لأنه « غير موجود » بالنسبة لنموذج البرمجة، والمعايير المسبقة الخاصة بتصنيفات الخوارزميات.

أجرت البروفيسورة إليزابيث كيلان، أستاذة القيادة والتنظيم بكلية إسيكس للأعمال، ومديرة مركز كرانفيلد الدولي، مقابلات مع 69 خبيراً من مطوري الذكاء الاصطناعي؛ لمعرفة موقفهم من استخدام التكنولوجيا في العمل، بما في ذلك التوظيف، ليكشف الخبراء عن أن أنظمة الذكاء الاصطناعي يمكنها أن تخلق تحيزاً خوارزمياً ضد المرأة، من خلال تخفيض تلقائي لرتبة المتقدمات من النساء، بسبب تدريبه مسبقاً على سِيَر ذاتية لم تتضمن النساء، حيث يتم التعلم الآلي من خلال التعرف على الأنماط السابقة، ومن ثم التّنبؤ بالأنماط الحالية والمستقبلية.

فالخوارزميات -في حد ذاتها- ليست متحيزة، ولكن نسبة تمثيل الرجال في البيانات المُدخلة تبلغ نحو 90 في المئة، وبالتالي تصبح النساء غير مرئيات للبرنامج.

نحن مَن يُعلّم الذكاء الاصطناعي

يؤكد المهندس أحمد عوض، خبير الذكاء الاصطناعي وتطوير برامج التعلم الآلي، وجود تحيز أثناء فرز السير الذاتية، يحدث عند تدريب النموذج من خلال مجموعة البيانات المُدخَلة، التي قد لا تحتوي على معلومات متساوية لكلا الجنسين، أو حتى تعطي تفاصيل أكثر أو أقل عن مجموعة دون أخرى، وبالتالي عندما تبدأ عملية التعلم الآلي، وتحليل الأنماط، والبحث عن السمات المشتركة؛ تصبح التنبؤات ضعيفة لفئة ما وأقوى بالنسبة للفئة الأخرى .

ويوضح عوض أن للتحيز أشكالاً متعددة، فربما يعطي الأولوية لجنس، أو فئة عمرية، أو عرق معين، فهذا لا يعني أن البيانات غير صحيحة، ولكنها غير متساوية لتتبع السرديات التي يغذيها القائمون على تدريب نموذج البرنامج.

وللتقريب، فإنه إذا ما غُذّيت بيانات البرنامج بأن الرجل هو من يمتلك شارباً (مثلاً)، فكل من لا يمتلك شارباً فهو من الفئة الأخرى! ويضخم الذكاء الاصطناعي التحيزات الموجودة بسبب التكرار، لأنه يستمد نماذج اللغة وموادها من المعلومات المنشورة بالفعل.

ويشير المهندس معتز عثمان، خبير تطوير البرامج الرقمية بشركة جو ميديا، إلى إمكانية الكشف عن التمييز أو التحيز المحتمل في أنظمة الذكاء الاصطناعي و »ATS »، باستخدام تقنيات ومنهجيات التدقيق الخوارزمي لتحليل مخرجات النظام، وللتحقق من وجود تباينات غير مبررة بين الفئات المختلفة .

العدالة الجندرية

ويتفق دكتور محمود خالد، الخبير التقني والمحاضر بكلية تكنولوجيا المعلومات بجامعة سيناء، بأن دقة هذه الأنظمة تعتمد على جودة وتنوع البيانات وتنظيفها من التحيزات، بسبب التغذية الراجعة للبشر. ولذلك لابد من دعم التشريعات واللوائح لضمان العدالة الجندرية في استخدام التكنولوجيا، إضافة إلى ضرورة توعية وتدريب الموظفين على كيفية التعامل مع برامج الفحص وتقييم البرامج بشكل مستمر .

ومن واقع أحد مشاريع تطوير وتدريب برامج الذكاء الاصطناعي، تقول تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، إن سيطرة الرجال على القوى العاملة، تعدّ من الأمثلة الواضحة على وجود التحيزات. فمن دون قصد، تُستخدم كلمات مباشرة بصيغة المذكر، لا تركز على المشاعر ولا تراعي الجوانب الإنسانية، وهي سمات تخص المجتمع الذكوري، ومن ثمّ تُدَّرب البرامج عليها،  ناهيك عن تفضيلات المطورين والمراجعين.

وتقترح قورة استحداث مهنة التدقيق والمراجعة الأخلاقية من بعد مطوري ومدربي الذكاء الاصطناعي، كإجراء للتخفيف من التحيز والتمييز، لضمان التعامل بمسؤولية وعدالة في التطرق للموضوعات كافة وبشكل متساوٍ، مثلما يحدث في قضية برامج النسخ العربية، بسبب الاعتماد على المصادر الأجنبية.

إننا مكشوفون أمامهم

تضيف تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، أنه ليس هناك ما يسمى بـ « الصدفة »، و »الحظّ » في عالم الإنترنت، فالخوارزميات تتبعك في كل مكان لتسجل تفضيلاتك، بل وتتنبأ برغباتك وتفاعلاتك .

وبالرجوع لمتخصصي تحسين محركات البحث، أوضح عبد الحسيب طارق، مشتري وسائل إعلام (Media Buyer) ()، أن منصات مثل لينكدإن تقدم خيارات استهداف تفصيلية تسمح للمعلنين بالوصول إلى شبكة احترافية، والاستفادة من بيانات المستخدمين الدقيقة؛ لضمان وصول الإعلان عن الوظيفة إلى الفئة المستهدفة من المهنيين .

ويشير طارق إلى أن الخوارزميات قد تؤدي دوراً مهماً في تقديم إعلانات الوظائف، أو انحرافها حسب الجنس أو العرق، بسبب التحسين الخوارزمي الخفي الخاص بالمنصات، والذي يعمل دون الرجوع لموافقة المعلنين. ويتمّ اختيار شرائح الجمهور طبقا لشخصية المعلن، وتحليل بيانات السوق والمنافسين.

معوقات إضافية للمرأة

ووفقاً لليونسكو، فإن النساء أقل بنسبة 25 في المئة من الرجال في معرفة كيفية الاستفادة من التكنولوجيا الرقمية، 12 في المئة فقط من الباحثين في مجال الذكاء الاصطناعي، وستة في المئة من مطوري البرمجيات هم من النساء. فعندما يتعلق الأمر بالأدوار الفنية الخاصة بعلوم الكمبيوتر والبرمجة وعلوم البيانات وهندسة البرمجيات؛ يشغل الرجال 75 في المئة من الوظائف.

لا تزال منّة تحاول الحصول على وظيفة قائلة: « ربما ارتكبت خطأً ما في السيرة الذاتية، فليس لديّ تجربة سلبية أو حتى إيجابية لأرويها، فكل شيء ينتهي عند حدود التقديم »، ولكنها ستكمل السعي للحصول على فرصة يوماً ما.

هذا التقرير أنجز بدعم من « أريج »

مقالات مشابهة

  • شبكة أطباء السودان: الإمدادات الطبية بسنار تخسر 2.5 مليون دولار بسبب الدعم السريع
  • في اليوم العالمي.. 736 مليون امرأة تعرضن للعنف حول العالم
  • رمضان صبحي يطلب تعويض 4.5 مليون دولار بسبب أزمة المنشطات
  • الأمم المتحدة: ليبيا تعاني من زيادة التحرش والتهديد والابتزاز الجنسي
  • الأمم المتحدة: من بين كل ثلاث نسوة.. سيدة واحدة تتعرض للعنف الجنسي أو الجسدي حول العالم.. وربما تقتل
  • خوارزميّات توظيف لا ترى النّساء
  • شاهد بالفيديو.. قصة الأغنية السودانية التي حققت أكثر من 2 مليون زيارة على يوتيوب والجمهور يسأل أين هذه المبدعة؟
  • وزارة الخارجية تلفت نظر المجتمع الدولي للفظائع التي يرتكبها مليشيا الجنجويد بشكل منهجي ضد النساء
  • هل تكون هيئة نهي عن المنكر؟.. الدبيبة يكشف حقيقة شرطة الآداب في ليبيا
  • مكتب صغير وتعويض بالملايين.. موظف يرفع دعوى قضائية على شركته بسبب الوزن