خوارزميّات توظيف لا ترى النّساء
تاريخ النشر: 25th, November 2024 GMT
يسلط التقرير الضوء على وجود تمييز على أساس النوع، لدى خوارزميات أدوات الذكاء الاصطناعي المُعدة لفحص السير الذاتية، عند اختيار الموظفين/ات؛ ما يقلل فرص النساء في الحصول على الوظائف مقارنة بالرجال.
متفائلة على الدوام، تواصل منّة فتحي رحلتها في البحث عن وظيفة مناسبة؛ فمهما كانت المتاعب في سبيل تحقيق ذلك، تعتقد منّة أن التطبيقات الذكية تُعزّز من فرصها في التقديم والمنافسة على الوظائف المتاحة.
في الوقت ذاته، تفصح منّة عن معاناتها منذ فترة، في رحلة البحث عن وظيفة: « قدمت في 75 وظيفة، ولم يتصل بي أحد ولا أعلم السبب، كلها تذهب في ثقب أسود ».
منّة ليست حالة وحيدة، فمثلها كثيرون؛ إذ يعتقد 88 في المئة من أصحاب العمل أنهم يخسرون المرشحين ذوي المؤهلات العالية الذين يُستبعدون من عمليات التوظيف بواسطة « ATS »؛ لأنّ المرشحين لا يقدمون سِيَراً ذاتية « متوافقة مع معايير البرنامج وكلماته المفتاحية المُبرمَجة ». ولذلك تُرفض 75 في المئة من السِّير الذاتية وتُحذف من قاعدة البيانات، ولا تُعرض مطلقاً على فريق التوظيف.
المفاجآت تتوالى
رغم معرفة رواد الأعمال بخسارتهم أفضل المرشحين، فإن 70 في المئة من الشركات الكبرى، و20 في المئة من الشركات الصغيرة والمتوسطة، و75 في المئة من مسؤولي التوظيف، يستخدمون حالياً برامج « ATS »، أو أيّ أداة توظيف أخرى تعمل بالذكاء الاصطناعي لمراجعة طلبات المتقدمين.
وبعيداً عن دهشة الجمهور لاعتقادهم أن التكنولوجيا صديقة للبشر، فإنّ برامج فحص طلبات التوظيف « ATS » تعتمد على ما تُزوَّد به من معلومات، فالتحدي لم يعد في أتمتة الوظائف، أو توفير النفقات؛ فكل مَن لم يتمّ تمثيله تمثيلاً دقيقاً وعادلاً داخل البيانات الضخمة، لن يستطيع الذكاء الاصطناعي معاملته بشكل حيادي لأنه « غير موجود » بالنسبة لنموذج البرمجة، والمعايير المسبقة الخاصة بتصنيفات الخوارزميات.
أجرت البروفيسورة إليزابيث كيلان، أستاذة القيادة والتنظيم بكلية إسيكس للأعمال، ومديرة مركز كرانفيلد الدولي، مقابلات مع 69 خبيراً من مطوري الذكاء الاصطناعي؛ لمعرفة موقفهم من استخدام التكنولوجيا في العمل، بما في ذلك التوظيف، ليكشف الخبراء عن أن أنظمة الذكاء الاصطناعي يمكنها أن تخلق تحيزاً خوارزمياً ضد المرأة، من خلال تخفيض تلقائي لرتبة المتقدمات من النساء، بسبب تدريبه مسبقاً على سِيَر ذاتية لم تتضمن النساء، حيث يتم التعلم الآلي من خلال التعرف على الأنماط السابقة، ومن ثم التّنبؤ بالأنماط الحالية والمستقبلية.
فالخوارزميات -في حد ذاتها- ليست متحيزة، ولكن نسبة تمثيل الرجال في البيانات المُدخلة تبلغ نحو 90 في المئة، وبالتالي تصبح النساء غير مرئيات للبرنامج.
نحن مَن يُعلّم الذكاء الاصطناعييؤكد المهندس أحمد عوض، خبير الذكاء الاصطناعي وتطوير برامج التعلم الآلي، وجود تحيز أثناء فرز السير الذاتية، يحدث عند تدريب النموذج من خلال مجموعة البيانات المُدخَلة، التي قد لا تحتوي على معلومات متساوية لكلا الجنسين، أو حتى تعطي تفاصيل أكثر أو أقل عن مجموعة دون أخرى، وبالتالي عندما تبدأ عملية التعلم الآلي، وتحليل الأنماط، والبحث عن السمات المشتركة؛ تصبح التنبؤات ضعيفة لفئة ما وأقوى بالنسبة للفئة الأخرى .
ويوضح عوض أن للتحيز أشكالاً متعددة، فربما يعطي الأولوية لجنس، أو فئة عمرية، أو عرق معين، فهذا لا يعني أن البيانات غير صحيحة، ولكنها غير متساوية لتتبع السرديات التي يغذيها القائمون على تدريب نموذج البرنامج.
وللتقريب، فإنه إذا ما غُذّيت بيانات البرنامج بأن الرجل هو من يمتلك شارباً (مثلاً)، فكل من لا يمتلك شارباً فهو من الفئة الأخرى! ويضخم الذكاء الاصطناعي التحيزات الموجودة بسبب التكرار، لأنه يستمد نماذج اللغة وموادها من المعلومات المنشورة بالفعل.
ويشير المهندس معتز عثمان، خبير تطوير البرامج الرقمية بشركة جو ميديا، إلى إمكانية الكشف عن التمييز أو التحيز المحتمل في أنظمة الذكاء الاصطناعي و »ATS »، باستخدام تقنيات ومنهجيات التدقيق الخوارزمي لتحليل مخرجات النظام، وللتحقق من وجود تباينات غير مبررة بين الفئات المختلفة .
العدالة الجندرية
ويتفق دكتور محمود خالد، الخبير التقني والمحاضر بكلية تكنولوجيا المعلومات بجامعة سيناء، بأن دقة هذه الأنظمة تعتمد على جودة وتنوع البيانات وتنظيفها من التحيزات، بسبب التغذية الراجعة للبشر. ولذلك لابد من دعم التشريعات واللوائح لضمان العدالة الجندرية في استخدام التكنولوجيا، إضافة إلى ضرورة توعية وتدريب الموظفين على كيفية التعامل مع برامج الفحص وتقييم البرامج بشكل مستمر .
ومن واقع أحد مشاريع تطوير وتدريب برامج الذكاء الاصطناعي، تقول تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، إن سيطرة الرجال على القوى العاملة، تعدّ من الأمثلة الواضحة على وجود التحيزات. فمن دون قصد، تُستخدم كلمات مباشرة بصيغة المذكر، لا تركز على المشاعر ولا تراعي الجوانب الإنسانية، وهي سمات تخص المجتمع الذكوري، ومن ثمّ تُدَّرب البرامج عليها، ناهيك عن تفضيلات المطورين والمراجعين.
وتقترح قورة استحداث مهنة التدقيق والمراجعة الأخلاقية من بعد مطوري ومدربي الذكاء الاصطناعي، كإجراء للتخفيف من التحيز والتمييز، لضمان التعامل بمسؤولية وعدالة في التطرق للموضوعات كافة وبشكل متساوٍ، مثلما يحدث في قضية برامج النسخ العربية، بسبب الاعتماد على المصادر الأجنبية.
إننا مكشوفون أمامهم
تضيف تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، أنه ليس هناك ما يسمى بـ « الصدفة »، و »الحظّ » في عالم الإنترنت، فالخوارزميات تتبعك في كل مكان لتسجل تفضيلاتك، بل وتتنبأ برغباتك وتفاعلاتك .
وبالرجوع لمتخصصي تحسين محركات البحث، أوضح عبد الحسيب طارق، مشتري وسائل إعلام (Media Buyer) ()، أن منصات مثل لينكدإن تقدم خيارات استهداف تفصيلية تسمح للمعلنين بالوصول إلى شبكة احترافية، والاستفادة من بيانات المستخدمين الدقيقة؛ لضمان وصول الإعلان عن الوظيفة إلى الفئة المستهدفة من المهنيين .
ويشير طارق إلى أن الخوارزميات قد تؤدي دوراً مهماً في تقديم إعلانات الوظائف، أو انحرافها حسب الجنس أو العرق، بسبب التحسين الخوارزمي الخفي الخاص بالمنصات، والذي يعمل دون الرجوع لموافقة المعلنين. ويتمّ اختيار شرائح الجمهور طبقا لشخصية المعلن، وتحليل بيانات السوق والمنافسين.
معوقات إضافية للمرأة
ووفقاً لليونسكو، فإن النساء أقل بنسبة 25 في المئة من الرجال في معرفة كيفية الاستفادة من التكنولوجيا الرقمية، 12 في المئة فقط من الباحثين في مجال الذكاء الاصطناعي، وستة في المئة من مطوري البرمجيات هم من النساء. فعندما يتعلق الأمر بالأدوار الفنية الخاصة بعلوم الكمبيوتر والبرمجة وعلوم البيانات وهندسة البرمجيات؛ يشغل الرجال 75 في المئة من الوظائف.
لا تزال منّة تحاول الحصول على وظيفة قائلة: « ربما ارتكبت خطأً ما في السيرة الذاتية، فليس لديّ تجربة سلبية أو حتى إيجابية لأرويها، فكل شيء ينتهي عند حدود التقديم »، ولكنها ستكمل السعي للحصول على فرصة يوماً ما.
هذا التقرير أنجز بدعم من « أريج »
المصدر: اليوم 24
كلمات دلالية: الذکاء الاصطناعی فی المئة من
إقرأ أيضاً:
يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟
يشهد العالم المعاصر تحوّلًا غير مسبوق في تاريخ الوجود البشري، تقوده التكنولوجيا بصفتها القوة الأكثر تأثيرًا في تشكيل ملامح الحياة الحديثة.
لم تعد التكنولوجيا مجرد أدوات أو منصات مساعدة، بل أصبحت بحد ذاتها بيئةً كلية نعيش فيها، وعاملًا حيويًا يُعيد صياغة مفاهيم الإنسان عن ذاته، وعن العالم، وعن الآخرين من حوله. وفي قلب هذا التحول تقف الأجيال الجديدة لا كمتلقٍّ سلبي، بل كنتاجٍ حيّ لهذا العصر الرقمي بكل تعقيداته وتناقضاته.
نتحدث هنا تحديدًا عن جيل Z (المولود بين 1997 و2012)، وجيل ألفا (المولود بعد 2013)، وهما جيلان نشآ في ظل تحوّل تكنولوجي عميق بدأ مع الثورة الرقمية في نهاية القرن العشرين، وتفاقم مع دخول الذكاء الاصطناعي والواقع المعزز والميتافيرس والبيانات الضخمة إلى صلب الحياة اليومية.
جيل Z يمثل الجسر بين عالمين: عالم ما قبل الثورة الرقمية، وعالم أصبحت فيه الخوارزميات هي "العقل الجمعي" الجديد.
لقد عاش هذا الجيل مراحل الانتقال الكبرى: من الكتب الورقية إلى الشاشات، من الاتصالات الهاتفية إلى الرسائل الفورية، من الصفوف المدرسية إلى التعليم عن بُعد. أما جيل ألفا، فهو الجيل الذي لم يعرف سوى الرقمية منذ لحظة الميلاد، إذ تفتحت حواسه الأولى على شاشة، وتكوّنت مهاراته اللغوية من خلال مساعد صوتي، وتعلّم المفاهيم الأولى عن طريق تطبيقات ذكية وخوارزميات دقيقة تستجيب لسلوك المستخدم لحظيًا.
إعلانإننا لا نتحدث عن تغيّر في أنماط الحياة فقط، بل عن إعادة تشكيل حقيقية للذات الإنسانية. ففي السابق، كانت الهوية تُبنى عبر التفاعل مع الأسرة، والمدرسة، والثقافة المحلية، وكانت تنشأ ضمن سياق اجتماعي واضح المعالم.
أما اليوم، فالأجيال الرقمية تبني صورها الذاتية في فضاءات افتراضية عالمية، تتخطى الحواجز اللغوية والثقافية والجغرافية. إنها هوية "مُفلترة"، تُنتجها الصور والمنشورات والتفاعلات المرسومة وفق خوارزميات منصات التواصل الاجتماعي، وتُقاس بكمية "الإعجابات" والمشاهدات، لا بتجربة الذات العميقة.
هذا التحول لا يخلو من مفارقات. فعلى الرغم من الكمّ الهائل من التواصل الرقمي، تشير دراسات عديدة إلى تصاعد مشاعر الوحدة والعزلة، خصوصًا بين المراهقين والشباب.
وقد ربطت تقارير صحية بين الإفراط في استخدام التكنولوجيا وبين ارتفاع معدلات القلق، واضطرابات النوم، وضعف التركيز، وتراجع المهارات الاجتماعية.
جيل Z، برغم إتقانه المذهل للتكنولوجيا، يواجه صعوبة متزايدة في بناء علاقات واقعية مستقرة. أما جيل ألفا، فيُظهر مبكرًا قدرة رقمية خارقة، لكنها تقترن أحيانًا بضعف في التطور اللغوي والعاطفي، وكأن المهارات الإنسانية الكلاسيكية باتت تُستبدل تدريجيًا بكفاءات رقمية جديدة.
هذا لا يعني أن الأجيال الرقمية "أقل إنسانية"، بل إنها مختلفة في تركيبها المعرفي والعاطفي والاجتماعي. إنها أجيال تعيش فيما يمكن تسميته "الواقع الموسّع"، حيث تتداخل فيه الذات البيولوجية بالذات الرقمية، ويذوب فيه الخط الفاصل بين ما هو واقعي وما هو افتراضي.
وهذه الحالة تطرح سؤالًا وجوديًا جوهريًا: من أنا في عالم يُعاد فيه تشكيل الذات بواسطة أدوات لا أتحكم بها بالكامل؟ من يوجّهني فعلًا: أنا، أم البرمجية التي تختار لي ما أقرأ وأشاهد وأرغب؟
في هذا السياق، تتزايد الحاجة إلى تفكيك العلاقة بين الإنسان والتكنولوجيا من جديد. فنحن لم نعد فقط نستخدم التكنولوجيا، بل يُعاد تشكيلنا من خلالها، وقد أصبح الذكاء الاصطناعي شريكًا خفيًا في اتخاذ القرارات، وتوجيه السلوك، وحتى في تكوين القيم وتصورات العالم. منصات مثل تيك توك ويوتيوب وإنستغرام لم تعد وسائط ترفيهية فحسب، بل منصات لإنتاج الثقافة والهوية والسلوك الاستهلاكي.
إعلانولعل المفارقة الكبرى تكمن في أن هذه التكنولوجيا التي وُعدنا بها كوسيلة لتحرير الإنسان، باتت تخلق أشكالًا جديدة من التبعية. فمن جهة، تسهّل الحياة وتختصر الوقت، لكنها من جهة أخرى تُعيد تشكي إدراكنا بطريقة غير مرئية. إنها "القوة الناعمة" الأشد تأثيرًا في تاريخ البشرية.
في ظل هذا الواقع، لا يكفي أن نُحمّل الأفراد مسؤولية التكيف. المطلوب هو تفكير جماعي لإعادة توجيه العلاقة بين الإنسان والتكنولوجيا. المؤسسات التعليمية مطالبة بأن تراجع مناهجها، لا فقط لتُدخل التقنية، بل لتُعيد التوازن بين ما هو رقمي وما هو إنساني.
الأسرة، بدورها، لم تعد فقط مصدرًا للقيم، بل أصبحت "ساحة مقاومة" للحفاظ على الحميمية في وجه التمدد الرقمي. أما صانعو السياسات، فعليهم مسؤولية أخلاقية وتشريعية للحدّ من تغوّل التكنولوجيا في تفاصيل الحياة اليومية، ووضع ضوابط تحمي الأجيال من فقدان الجوهر الإنساني.
ينبغي ألا يكون السؤال: كيف نُقلل من استخدام التكنولوجيا؟ بل: كيف نستخدمها بطريقة تحافظ على إنسانيتنا؟ كيف نُدرّب أبناءنا على التفكير النقدي، والقدرة على التأمل، والانفتاح العاطفي، لا فقط على البرمجة والتصميم؟
نحن نعيش لحظة مفصلية، لحظة يُعاد فيها تعريف الإنسان، لا بالمعنى البيولوجي، بل بالمعنى الوجودي. وإذا لم نُحسن إدارة هذا التحوّل، فإننا قد نخسر القدرة على أن نكون ذاتًا فاعلة حرة في عالم تتزايد فيه السيطرة غير المرئية للأنظمة الذكية.
المستقبل لا تصنعه الآلات، بل الإنسان الذي يعرف كيف يتعامل معها. ولهذا، فإن المعركة الأهم ليست بين الأجيال والتكنولوجيا، بل بين الإنسان وإنسانيته.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.
aj-logoaj-logoaj-logo إعلان من نحناعرض المزيدمن نحنالأحكام والشروطسياسة الخصوصيةسياسة ملفات تعريف الارتباطتفضيلات ملفات تعريف الارتباطخريطة الموقعتواصل معنااعرض المزيدتواصل معنااحصل على المساعدةأعلن معناابق على اتصالالنشرات البريديةرابط بديلترددات البثبيانات صحفيةشبكتنااعرض المزيدمركز الجزيرة للدراساتمعهد الجزيرة للإعلامتعلم العربيةمركز الجزيرة للحريات العامة وحقوق الإنسانقنواتنااعرض المزيدالجزيرة الإخباريةالجزيرة الإنجليزيالجزيرة مباشرالجزيرة الوثائقيةالجزيرة البلقانعربي AJ+تابع الجزيرة نت على:
facebooktwitteryoutubeinstagram-colored-outlinersswhatsapptelegramtiktok-colored-outline