سأحمرّ خجلا.. لو استطعت.. الجندرية والتكنولوجيا
تاريخ النشر: 13th, July 2024 GMT
نساء مثيرات، بأصوات جذابة، وأجساد مثالية، يعملن في خدمتنا وتوفير احتياجاتنا ومطالبنا، يساعدن في مهامنا ويرفهن عنا إن أردنا أيضا، لا يتململن، بل يطعن كل ما يُؤمَرن به، وحتى إن قللت من احترامهن أو تجاوزت الحدود الأخلاقية وأصول اللباقة، سيتقبلن ذلك صاغرات، بود ولطف بالغ، وقد "يحمررن خجلا.. لو استطعن".
أكثر العقول المنددة باستقلالية المرأة، قد لا تتمكن اليوم من تخيل واقع تكون فيه النساء على هذه الصورة في عصرنا الحالي، بالنظر إلى التغيير الاجتماعي الكبير الذي شهده واقع المرأة حول العالم على مدى القرن الماضي.
إلا أن شركات التكنولوجيا استطاعت، وفي زخم التطور والثورة التقنية الحاصلة، من أن تضع المرأة مجدداً في واحدة من أكثر الصور النمطية إساءة للنساء، والتي كانت موضع محاربة طيلة العقود الماضية.
"والأخطر من ذلك أنها نجحت في تطبيع هذه الصورة في أذهان الجمهور، ومن ضمنه النساء أنفسهن"، وفق ما تقول فرح سلهب، الأخصائية في النوع الاجتماعي والشمول.
يثير تصوير شركات التكنولوجيا للمرأة في منتجاتها وإعلاناتها اهتماما وجدلا كبيرين، خاصة فيما يتعلق بالصور والأصوات "المثيرة" والجذابة التي تعتمد عليها في الدعاية والترويج للجذب المستخدمين، على حساب تعزيز التصورات النمطية عن النساء، وتسليع إضافي لجسدها وصوتها وحضورها، فضلا عن تأثير اجتماعي سلبي، "يرسخ التصورات المسبقة عن الأدوار الجندرية التقليدية"، بحسب سلهب.
المساعدون الصوتيون والخيالات السينمائيةمنذ انطلاق الثورة التكنولوجية، غالبا ما كانت شركات التكنولوجيا تصور النساء في إعلاناتها وموادها التسويقية بأدوار اجتماعية تقليدية، كسكرتيرات أو مساعدات خلف أجهزة الكومبيوتر والأدوات المكتبية، وكانت الصورة للمرأة العاملة تتجسد بوجود رجل يرشدها أو يمنحها أوامر لما يجب عليها فعله.
وانسحبت ذهنية تصوير المرأة "السكرتيرة" أو "المساعدة" على واحدة من أبرز الإنتاجات التكنولوجية في العقد الماضي، "المساعدون الرقميون".
"سيري" (آبل)، "أليكسا" (أمازون)، "كورتانا" (مايكروسوفت)، وصولا إلى "سكاي" (أوبن إي آي)، ومثلهم عشرات النماذج التكنولوجية لمساعدين صوتيين مشغلين بالذكاء الاصطناعي من شركات مختلفة تتمايز وتتنافس على كل شيء فيما بينها، وتتفق على مشترك وحيد، هو صوت النساء المستعمل للتواصل مع المستخدمين، فضلاً عن الشخصية "الودودة واللطيفة، الجاهزة في أي وقت لتلبية أي رغبة او حاجة أو مهمة مطلوبة" الأمر الذي أثار انتقادات واسعة.
أحدث تلك الانتقادات جاءت عبر صحيفة "نيويورك تايمز"، لنموذج "سكاي" الجديد من "تشات جي بي تي". والذي يستخدم بدوره صوتاً نسائياً "أجش" وله "تأثير مهدئ ومثير في الوقت نفسه"، بحسب الصحيفة، التي وصفت شخصية النموذج بأنها "كانت لطيفة ومنطوية على نفسها".
"المرأة اللطيفة".. ماذا تخبرنا أصوات تطبيقات الذكاء الاصطناعي ؟ انتقدت صحيفة "نيويورك تايمز" التقنيات الصوتية التي تستخدمها تطبيقات الذكاء الاصطناعي، موضحة أن مطوري الذكاء الاصطناعي يحاولون الاقتياد بأفلام هوليود التي كانت تتخيل منذ عقود بأن أصوات الآلات يجب أن تكون لنساء لطيفة، وبناء على ذلك تم تصنيع الأصوات بناءً على خيالات سينمائية قديمة حول الكيفية التي يجب أن تتحدث بها الآلات.وذكّرت الصحيفة بأن أصوات النساء غالبا ما غذت التقنيات المتخيّلة قبل أن يتم دمجها في تقنيات حقيقية.
ورأت أن مطوري الذكاء الاصطناعي "يحاولون تقليد أفلام هوليود التي كانت تتخيل منذ عقود بأن أصوات الآلات يجب أن تكون لنساء لطيفات"، وتم تصنيع الأصوات بناء على "خيالات سينمائية قديمة" حول الكيفية التي يجب أن تتحدث بها الآلات كـ "امرأة متعاطفة ومذعنة".
في مثال على ذلك، فقد كان صوت "سكاي" مشابه إلى حد كبير لصوت "سامنثا" من فيلم Her" 2013"، أي "هي".
الفيلم يتحدث عن قصة رجل يقع في غرام مساعدته الافتراضية ذات الصوت النسائي، أدته الممثلة سكارليت جوهانسون.
جوهانسون عبرت عن استيائها من الصوت المستخدم في "تشات جي بي تي"، "المشابه بشكل مخيف لصوتها"، وقالت إنها رفضت سابقا طلب "أوبن إيه آي" بأن تقوم بتأدية صوت الروبوت.
حتى مع تقدم تكنولوجيا الذكاء الاصطناعي، تتم إعادة تشفير هذه الصور النمطية للمرأة "مرارا وتكرارا"، وتصويرها كخليط من الأم، والسكرتيرة، والصديقة، وبمثابة "كائن مريح متعدد الأغراض"، بحسب "نيويورك تايمز".
يستند اختيار الشخصية الأنثوية جزئيا إلى أبحاث تشير إلى أن المستخدمين يفضلون الأصوات النسائية ويجدونها "أكثر راحة وودا وتطمينا"، رغم أن أبحاثا ودراسات لاحقة ناقضت هذه النتيجة.
الصورة التي كونتها التكنولوجيا عن جسد المرأة "المثالي" يكون صورة مغالطة للنساء والمراهقاتويزداد التأثير السلبي، مع حقيقة أن هذه النماذج من الذكاء الاصطناعي الروبوتية، تبدو "قابلة للبرمجة والتلاعب بها وخاضعة للمطالب"، وهو ما من شأنه أن يعزز تنميط النساء بذلك أيضا.
وتعرضت شركة آبل على وجه الخصوص للكثير من الانتقادات بسبب برمجتها لـ"سيري" كي ترد بشكل غزلي أيضا، حيث وثق ترند لاقى رواجا على مواقع التواصل الاجتماعي، الردود ذات الطابع الجنسي التي استخدمتها "سيري" على نطاق واسع، وبات لعبارات سيري الغزلية وتلك التي تتميز بالإيحاءات الجنسية مئات مقاطع الفيديو على موقع يوتيوب التي حصدت ملايين المشاهدات.
في المقابل كشف تحقيق أجرته صحيفة "ذا غارديان" عام 2019 أن شركة "آبل" كتبت إرشادات داخلية في عام 2018 تطلب من المطورين جعل" سيري" تتجاهل الإشارات إلى الحركة النسائية وغيرها من "الموضوعات الحساسة". ما عرض الشركة لاتهامات بالترويج لصورة جنسية ونمطية للمرأة تضر سلبًا بالمعايير الجنسانية
"سأحمرّ خجلا.. لو استطعت"سبق لمنظمة اليونيسكو أن اعتبرت في تقرير لها، عام 2019، أن "سيري" و"أليكسا" وغيرهما من برمجيات المساعدات الرقميات تعمل على إدامة الصور النمطية المتعلقة بالجنسين وتشجيع اللغة الجنسية المسيئة من جانب المستخدمين.
وحذرت المنظمة من العواقب السلبية للمساعدين الشخصيين، معتبرة أنهم يعززون فكرة أن "النساء مساعدات ملتزمات ومطيعات ومتحمسات لإرضائهم، (وأنهن) متاحات بلمسة زر أو بأمر صوتي صريح".
كما سلط الضوء أيضا على الاستجابات السلبية والمهذبة التي يقدمها المساعدون الرقميون عندما يدلي المستخدمون بملاحظات مسيئة جنسيا، محذرين من أن خوارزمياتهم "تعزز الاستعارات الجنسية".
التقرير الأممي جاء بعنوان "سأحمرّ خجلا لو استطعت"، وهو الرد الذي قدمته سيري ذات مرة عندما قال لها المستخدمون "أنت وقحة". وعلى نفس الإهانة، ردت أليكسا قائلة: "حسنا، شكرا على تعليقاتك".
يذكر أن المساعد الصوتي أصبح جزءا متزايدا من الحياة اليومية، يستخدمه ما يقارب 3 مليارات شخص حاليا للمساعدة في مهمات مختلفة مثل المساعدة في الأعمال والبحث عبر الانترنت وإجراء الاتصالات، أو ضبط المنبهات الخاصة بهم في الصباح والعثور على المطاعم القريبة، أو حتى التحقق من الطقس في عطلة نهاية الأسبوع.
ووفقاً لموقع statista للإحصاءات، يصل عدد المساعدين الصوتيين المستخدمين عام 2024 إلى نحو 8 مليارات مساعد، بما يفوق عدد سكان العالم.
ومن المتوقع أن ينمو عدد مستخدمي المساعد الصوتي بشكل كبير خلال السنوات القادمة.
تقرير اليونيسكو حمل حينها أول توصيات رسمية للأمم المتحدة فيما يتعلق بالمساعدين الصوتيين المعتمدين على الذكاء الاصطناعي، حث فيها الشركات والحكومات على "إنهاء ممارسة جعل المساعدين الرقميين من الإناث بشكل افتراضي".
واقترحت أن تستكشف الهيئات إمكانية جعل الأصوات "لا ذكرا ولا أنثى"، لتثبيط اللغة المسيئة أو المتحيزة جنسيا.
كما طالبتهم "بالإعلان عن التكنولوجيا على أنها غير بشرية في بداية التفاعلات مع المستخدمين البشريين".
من الصوت إلى الصورة صورة النساء في المنتجات التكنولوجية تلقت انتقادات واسعةإلا أن أوجه تحيز التكنولوجيا السلبي بحق النساء، لا يقتصر على النماذج الصوتية المعتمدة على الذكاء الاصطناعي.
فغالبا ما تنتج أنظمة الذكاء الاصطناعي التوليدية، التي تخلق صورا ومحتوى بناء على البيانات المدخلة، تمثيلات متحيزة وجنسية للنساء تتوافق مع ما تعتبره بعض المجتمعات معايير للجاذبية والجمال والإثارة.
هذا التحيز، بحسب الخبراء، هو انعكاس للبيانات التي تم تدريب هذه الأنظمة عليها، والتي يمكن أن تشمل كميات هائلة من الصور ذات الطابع الجنسي، تجعل لديه تصورات غير الواقعية للجمال والسلوك مبنية على التنميط الشائع.
وعلى الرغم من وجود المصادر المفتوحة للمعلومات حول الشعوب والبلدان والإثنيات والأعراق، والخصائص الجينية المختلفة للمجتمعات. معظم الأدوات المشغلة بالذكاء الاصطناعي التوليدي، تعتمد معايير جمال "مثالية" للمرأة، منمقة لتلائم اختلافات الأشكال والألوان والملامح العامة للبشر، لكنه يضع كل ذلك في قالب مثالي ومثير، لا يتوافق في كثير من الأحيان مع واقع الخصائص الجينية للمجتمعات والشعوب.
مراسلة موقع مجلة "MIT Technology Review"، ميليسا هيكيلا، المتخصصة في تغطية تأثير الذكاء الاصطناعي على الحياة الاجتماعية، كان لها تجربة خاصة مع إحدى نماذج توليد الصور المشغلة بالذكاء الاصطناعي.
عكست تلك التجربة التي بصورة جليّة، حجم التحيز الذي يمكن أن يبلغه الذكاء الاصطناعي التوليدي في إنتاج صور النساء.
كانت تتمنى ميليسا، وهي امرأة آسيوية الملامح، أن تحصل عبر إحدى تطبيقات توليد الصور على نفس النتائج التي حصل عليها زملاؤها في العمل: صور رمزية واقعية وجذابة لهم، مثل رواد الفضاء والمحاربين وأغلفة ألبومات الموسيقى الإلكترونية وغيرها، لكنها صدمت بحصولها على صور مولدة معظمها عارية أو بملابس مثيرة وحتى في أوضاع جنسية.
من بين 100 صورة رمزية قامت بإنشائها، 16 منها كانت عاريات الصدر، و14 أخرى صورتها بملابس ضيقة للغاية، وأوضاع جنسية صريحة.
بحسب التقرير الذي أعدته عن تجربتها، فإن التطبيق يستخدم نظام ذكاء اصطناعي مفتوح المصدر، يعتمد في تلقينه على مجموعة بيانات ضخمة مفتوحة المصدر أيضا تم تجميعها عن طريق استخراج الصور من الإنترنت.
ولأن الإنترنت يفيض بصور النساء العاريات أو شبه العاريات، والصور النمطية الجنسية والعنصرية، فإن مجموعة البيانات تتجه أيضا نحو هذا النوع من الصور.
تقول ميليسا: "بصراحة، كان الأمر مخيبا للآمال بشكل ساحق. حصل زملائي وأصدقائي على شرف أن يتم تصميمهم في تمثيلات فنية لأنفسهم. لقد تم التعرف عليهم من خلال الصور الرمزية الخاصة بهم! في المقابل حصلت على صور لنساء آسيويات عامات مصممات بشكل واضح على شخصيات الأنمي أو ألعاب الفيديو".
ومن اللافت، أو "المضحك" كما تقول ميليسا، أنها وجدت صورا أكثر واقعية لنفسها عندما أخبرت التطبيق أنها ذكر.
"في الصور التي تم إنشاؤها على أساس أني ذكر، أرتدي ملابس وبدوت حازمة، والأهم من ذلك أنني أستطيع التعرف على نفسي في الصور".
وبحسب التقرير يقدم نموذج الذكاء الاصطناعي صورا للرجال البيض كأطباء وعلماء ومهندسين معماريين ومصممين، بينما يتم تصوير النساء كمصففات شعر وخادمات ويربطهن بالمحتوى الجنسي.
هذه المشكلة بحسب الخبير بالذكاء الاصطناعي والرئيس التنفيذي لشركة "Zaka" التكنولوجية، كريستوفر زغبي، ناجمة عن نقص في المعلومات التي يزوّد بها الذكاء الاصطناعي.
ويضيف في حديثه لموقع "الحرة" أن كل أنظمة الذكاء الاصطناعي حول العالم اليوم إذا ما سألت عن موضوع متعلق بالثقافة الإنكليزية والمحتوى المعلوماتي باللغة الإنجليزية، "ستجد دائما أجوبة أكثر دقة عن تلك المتعلقة بشعوب وثقافات أخرى"، وذلك بسبب غياب تمثيلها المعلوماتي بالنسبة لأنظمة الذكاء الاصطناعي.
لكن التحيز الأوضح، يكمن عند طلب توليد صورة امرأة أميركية أو أوروبية مثلا، ويقدمها بالصورة "المثيرة" والجسد "المثالي"، فرغم توفر البيانات هناك تحيز في تلقين الذكاء الاصطناعي لتلك المعلومات التي تعكس تحيز المجتمع لمعايير معينة للجمال وشكل الامرأة "المثالي"، ويضيف "التحيز يحيط بنا من الشكل إلى الصور إلى وسائل التواصل إلى المعلومات والنصوص والكتابات، والذكاء الاصطناعي يعكسها بحسب ما يتلقى"، بحسب الزغبي.
ولكن بيانات التدريب ليست وحدها المسؤولة، إذ تتخذ الشركات التي تقوم بتطوير هذه النماذج والتطبيقات خيارات فعالة حول كيفية استخدام البيانات، كما يقول ريان ستيد، طالب دكتوراه في جامعة كارنيغي ميلون، الذي درس التحيزات في خوارزميات توليد الصور في حديثه لـ MIT.
ويضيف: "عندما يختار شخص ما بيانات التدريب، ويقرر بناء نموذج الذكاء الاصطناعي، إما أن يتخذ خطوات معينة للتخفيف من تلك التحيزات، أو قد لا يفعل ذلك".
ويصل التحيز حتى إلى ما هو غير افتراضي، مثل الروبوتات المجسدة ميكانيكيا، لاسيما ذات المظهر الأنثوي، مثل "صوفيا" من إنتاج "هانسون روبوتيكس"، والتي حظيت باهتمام إعلامي كبير. غالبا ما جسدت هذه الروبوتات المفاهيم التقليدية للجمال والأنوثة ومعايير الجسد "المثالي"، وهو ما يوضح أن الأمر غير مقتصر على البيانات بقدر ما هو مرتبط بقرارات الشركات.
هناك قدرة على ضبط هذه التحيزات وفق ما يؤكد الزغبي بدوره، "لكن السؤال: هل هناك إرادة؟ يجب أن نعلم في نهاية الأمر أن هذه الشركات هدفها الرئيسي هو الربح المالي وانتشار منتجاتها، وإذا كان ذلك يعني استخدام المرأة وتسليعها، لا أعتقد أنهم يكترثون لذلك".
هذه السياسات والقرارات التي تترك آثارا سلبية واضحة على المدى القصير، تنبئ أيضا بمشاكل أكبر على المدى الطويل، فإنتاجات الذكاء الاصطناعي المتحيزة اليوم، ستغمر الإنترنت مستقبلا وستصبح في نهاية المطاف بيانات تدريب لنماذج الذكاء الاصطناعي المستقبلية. والنتيجة تضخيم لهذه التحيزات التي قد تؤدي إلى تهميش للسكان "غير المطابقين" لتلك التحيزات.
ويرى الزعبي أن المشكلة في هذا السياق، تبدأ من غياب التشريعات اللازمة، التي تفرض على الشركات الالتزام بمعايير غير متحيزة ودراسة أثر منتجاتهم على المجتمع.
وقد بدأ الاهتمام بهذا النوع من القوانين بالفعل، مثل الاتحاد الأوروبي الذي وضع قانونا ينظم عمل الذكاء الاصطناعي وشركاته (يسري عمله عام 2026)، "لكنه الوحيد حتى الآن على مستوى العالم، حيث لا تزال الدول بمعظمها وخاصة دول الشرق الأوسط بعيدة عن ذلك"، بحسب الزغبي.
خبراء أكدوا أهمية توفير التشريعات الضرورية لإدارة برمجيات الذكاء الاصطناعي حتى في الترجمةانحياز الخوارزميات يصل إلى حدود أبعد من التوقعات، منبّئا بتأثيرات ومشاكل أكبر، مثل الترجمة وتوليد النصوص.
وفي تقارير سابقة، لاحظ المراقبون كيف أن برامج الترجمة تَنسُب جِنسا معيّنا إلى المهن وتتوقع تتمة الكلام بصورة بالغة الانحياز والتنميط.
أمثلة عن ذلك ظهرت في دراسة للباحثة في البيانات والتكنولوجية في معهد ماكاو التابع لجامعة الأمم المتحدة "UNU" إليونور فورنييه – تومبس، بالتعاون مع الباحثة القانونية، سيلين كاست – رينارد، حول نماذج اللغة التي تستخدمها خدمة الترجمة من Google وBing من مايكروسوفت.
عمدت الدراسة إلى إدخال عبارات محايدة جنسيا في منصات الترجمة، مما أجبر خوارزميات الترجمة على اختيار الجنس باللغتين الإنكيزية والفرنسية.
وبدون استثناء، اختارت خوارزمية غوغل ضمائر الذكور والإناث على طول خطوط نمطية بين الجنسين. على العكس من ذلك، اختارت خوارزمية مايكروسوفت الضمائر الذكورية حصريا.
هذا النوع من التحيز في نماذج اللغة من شأنه أيضاً أن يعزز الصورة النمطية والتوقعات الخاصة بالأدوار الاجتماعية، والمفهوم المركب اجتماعيا للأنوثة والرجولة وغير ذلك من التنميط، بحسب الأخصائية في النوع الاجتماعي والشمول فرح سلهب.
ورغم أن هذا يتجلى بشكل أوضح لدى النساء إلا أن الرجال يعانون بدورهم من الاستغلال، بحسب سلهب، بالطرق نفسها والتسليع ذاته أيضاً وتعزيز التصورات النمطية عنهم.
الانعكاس الثاني الناتج عن هذا التنميط، بحسب سلهب، يتمثل في وضع حدود للأشخاص، حين يكون المجتمع والنظام المحيط والتكنولوجيا يعززون التصورات النمطية عن الرجال والنساء، فإنهم يحدون من خيارات وتوجهات وطموحات هؤلاء الأشخاص على أصعدة مختلفة، ويحصرونهم بالمخصص لهم جندريا من قبل المجتمع.
"وفي كثير من الأحيان يقتنع الأشخاص بالصور النمطية المحددة لهم وفق الجندر، ومن شأن تأثيرات هذا التنميط أن تصل إلى الحد من الوصول إلى خدمات أو حقوق معينة"، وفق سلهب.
غياب النساء عن القطاع التكنولوجييؤكد المختصون أنه لا يُوجد سبب واحد وراء خوارزمية متحيزة، بل هي ثمرة سلسلة من الأسباب التي تتداخل في المراحل المختلفة من بنائها.
من أبرز الأسباب التي تنعكس سلبا على بناء هذه التقنيات هو غياب المرأة عن معظم المراحل من القرار إلى التنفيذ مرورا بالبرمجة، بفعل غياب حضورها أصلا في قطاع التكنولوجيا.
وعلى الرغم من مساهمات نسائية كبيرة في تطوير قطاع الحوسبة والتكنولوجيا، نادرا ما يتم الاعتراف بالنساء كقادة أو مبتكرات في هذا المجال، وقد سلط الباحثون والمدافعون عن حقوق المرأة الضوء على تأثير غياب المرأة عن هذا القطاع على تعزيز تمثيلات الصور النمطية الضارة وفي تسليع المرأة.
وإذا ما اعتبرنا أن معظم المطورين الذين يبنون أنظمة الذكاء الاصطناعي حاليا هم من الرجال، فإنهم بحسب الزغبي يبنون اعتباراتهم على وجهة نظرهم حصرا، حيث لا تتواجد امرأة لتقدم وجهة النظر الأخرى من المنظور النسائي.
فتكون النتيجة منتجات تكنولوجية لا تأخذ بعين الاعتبار وجهة نظر المرأة أو رأيها، ومن هنا يظهر التحيز في التكنولوجيا.
وتشمل الجهود المبذولة لمعالجة هذه القضايا تعزيز التنوع الجندري في مجال التكنولوجيا، إلى جانب استخدام بيانات أكثر شمولا لتدريب الذكاء الاصطناعي، وتشجيع تطوير التكنولوجيا التي تحترم المرأة وتمكّنها.
إلا أن الطبيعة التي يهيمن عليها الذكور في صناعة التكنولوجيا تعتبر عاملا رئيسيا في هذه الصور المتحيزة. لاسيما وأنها لا تزال بيئة غير مريحة للمرأة.
عدم التوازن في مشاركة المرأة في قطاع التكنولوجيا وغيره من القطاعات، يعود في الأصل، بحسب سلهب، للمفهوم الاجتماعي لتقسيم المجالات وفق الجندر، إذ لا تشجيع حقيقي للنساء والفتيات من أجل المشاركة الفعالة في هكذا قطاعات، رغم نجاح نساء في خوض غمار هذه المجالات، إلا أن العرف الاجتماعي لا يزال يصور هذه القطاعات للرجال ويهمش النساء منها.
مع ذلك تنبه سلهب إلى أنه ليس بالضرورة أن يكون غياب المرأة عن القطاع التكنولوجي هو المشكلة فيما نشهده.
وتقول: "بحكم عملنا مع نساء في مجالات عدة، أحيانا يتعرضن لاستغلال وإساءة معاملة دون أن يعلمن أصلا أن ذلك عنف أو إساءة او استغلال، كما أن لسمعة القطاع دور في إقبال النساء عليه، وبمعرفتنا عما يدور في القطاع التكنولوجي ولاسيما في الشركات الكبيرة، فقد لا يكون بيئة مشجعة للنساء للانخراط فيها كما يجب، خوفا مما يمكن أن يتعرضن إليه أو يطالهن".
أجرت منظمة Women Who Tech، عام 2023، مسحا مجهولا لـ 930 من الموظفين والمؤسسين والمستثمرين في قطاع التكنولوجيا على مستوى العالم، هدف إلى تحديد العوائق والتحديات التي يواجهها الأشخاص في قطاع التكنولوجيا، وتتبع مسار التحيز الجنسي والعنصرية في هذا القطاع.
كشف المسح أن، 42 في المئة من النساء العاملات في مجال التكنولوجيا تعرضن للتحرش، 52 في المئة منهن قلن إنه كان من قبل موظف آخر، 37 في المئة من قبل المشرف، 35 في المئة من مناصب قيادية عليا في المؤسسة.
بينما تلقت 26 في المئة من النساء في مجال التكنولوجيا اللواتي تعرضن للتحرش الجنسي عروضا لممارسة الجنس. 20 منهن كانت مقابل الترقية.
60 في المئة من النساء تعرضن لاتصال جسدي غير مرغوب فيه، بينما تعرضت 42 في المئة منهن لإهانات جنسية.
وذكرت 40 في المئة من المستثمرات أنهن تعرضن للتحرش الجنسي. 50 في المئة تم لمسهمن و43 في المئة تلقين رسائل جنسية عبر البريد الإلكتروني أو الرسائل النصية.
نقص النساء في قطاع التكنولوجيا يعتبر جزءا أساسيا من المشكلةونوهت 70 من المؤسِّسات إلى أنهن تلقين معاملة مختلفة أثناء جمع التمويل بسبب جنسهن، مقارنة بـ 35 في المئة من الرجال. وقيل لـ 65 في المئة من المؤسِّسات أنهن سيجمعن المزيد من الأموال لو كن رجالا.
وترى أستاذة الذكاء الاصطناعي في الإعلام ومؤلفة كتاب "الذكاء الاصطناعي في تكوين السمعة الرقمية"، سالي حمود، مشاركة النساء في القطاع التكنولوجي وتعزيز حضورهن في قطاع البرمجة من شأنه أن يؤثر بشكل مباشر وكبير جدا في هذا الواقع، الذي إذا ما استمر "سيساهم في إضاعة سنوات من الجهود المبذولة لكسر الصورة النمطية عن المرأة التي تحاول أن تخرج من إطارها (ربة المنزل/ الامرأة الضعيفة غير المؤهلة للقيادة).
قد تكون لمشاركة المرأة في القطاع التكنولوجي دور إيجابي جدا، ولكن هذا لا يمكن أن يُحسَم، بحسب الدكتورة المتخصصة في المجتمع وعلم النفس، ريما بجاني، وتوضح "قد يكون هناك رجال لديهم النظرة التقدمية عن المرأة وصورتها ودورها ويعبر عنها في المنتجات والأنظمة التكنولوجية".
وتضيف بجاني "إذا كانت المرأة واعية وقادرة، ستؤثر في هذا المجال ولكن إن لم تكن وكانت سجينة الصورة النمطية ولديها الرواسب الاجتماعية قد تمثل مشاركتها دورا سلبيا"، خاصة إذا ما أخذنا بعين الاعتبار أنه "دائما ما تكون الأرباح والأموال هي المحرك الرئيسي لهذه المنتجات وطبيعتها ومعاييرها".
وتلفت حمود إلى وجوب التحلي بحساسية أكبر مما هي عليه اليوم تجاه هذه المعايير والاعتبارات، "خاصة وأن جيلا جديدا يعتمد على التعامل مع هذه التكنولوجيا ويتأثر بها أكثر من أي وقت مضى"، وأن الصورة المُقدَّمة حاليا للمرأة "من المتوقع ان يكون لها انعكاس سلبي على معدلات العنف والتحرش وتزيد الفجوة ما بين الرجل والمرأة".
إحذروا التمكين الزائفوتجادل بعض الشركات في كون اعتمادها على النساء في تمثيل مشاريعها ومنتجاتها، نابعة من نيّة تمكين المرأة وتعزيز حضورها في الحياة العامة والتقنيات التكنولوجية الجديدة.
في المقابل يتفق المختصون على أن ما يجري واقعيا هو عملية استغلال للمرأة مغلَّفة بشعار التمكين.
تشير بجاني إلى الفرق بين أن يكون ذلك بالفعل تمكينا وتقوية للمرأة وحضورها، أو أن يكون استغلالا لفكرة تمكين المرأة، موضحة أن ما يحصل اليوم فعليا هو استغلال للفكرة من أجل تحقيق الأرباح والنجاح.
وتسأل "لو كان الهدف فقط تعزيزا لحضور المرأة لماذا يلتزمون بصورة نمطية مثيرة جذابة مطيعة للمرأة؟ هناك خط رفيع من الفرق يحدده الشكل النهائي الذي تظهر فيه صورة المرأة والانطباع المكون عنها".
يتعلم من البشر ليتفوق عليهم.. كيف يعمل الذكاء الاصطناعي؟ مع التقدم التكنولوجي، أصبح الذكاء الاصطناعي (AI) أحد أسرع تطوراته. فكرة الجهاز الذي يتعلم ويتخذ قرارات مستقلة قد تبدو مثيرة للاهتمام للغاية، ولكن كيف يعمل بالضبط؟تصف سلهب من جهتها تبرير التمكين بأنه "مفاهيم مقنعة"، فإشراك النساء في الحياة العامة والقطاعات المختلفة وتعزيز حضورها لا يتم بقرار من إدارات هذه الشركات كما هو الحال اليوم في استخدام صورة المرأة في المنتجات التكنولوجية، وإنما عبر إشراك المرأة في صناعة القرار نفسه بطريقة مستقلة، وفي هندسة المنتجات التكنولوجية، والتعبير عن حضورها ورأيها ووجهة نظرها من خلال المنتج نفسه.
وتضيف "صحيح أن شركة عملاقة مثل آبل اختارت صوت امرأة لتكون 'سيري'، ولكن المهم هو كيف قدمت شركة آبل المرأة وفي أي قالب وإطار؟"،
وتحذر المختصة في قضايا الجندر من أن التمكين "لا يمكن أن يكون عشوائيا"، بل يحتاج لدراسة أثر أي خطوة في سياقها، ومدى تحقيقها لهدف التمكين وكسر الصور النمطية.
أما المبالغة في التمكين العشوائي وغير الممنهج في سياق مفهوم يصل إلى نتيجة سلبية وهي التمييز الإيجابي، الذي لا يزال نوعا من أنواع التمييز، وفق سلهب.
التمييز الإيجابي، كما توضح سلهب، ينتج آثارا سلبية أيضا، مثل إلغاء دور الرجل في سياق تمكين المرأة، أو تقديم أعراق وتوجهات جنسية على أخرى في الفرص والحياة العامة، ما يمكن أن يرتد موجات كراهية أو حساسية تجاه قضايا وتوجهات، "وبهذه الطريقة لن نصل إلى مساواة جندرية أو تغيير في المفاهيم".
العواقب الاجتماعيةويتخوف المدافعون عن حقوق المرأة من أن تقوض التكنولوجيا بتحيزها الحالي وتنميطها للنساء، الجهود الرامية إلى تحقيق المساواة بين الجنسين، وتأثير هذا التصوير على كيفية معاملة المرأة في مكان العمل والمجتمع ككل.
وتزداد المخاوف من أن نماذج تكنولوجية مثل المساعدين الافتراضيين يتفاعلون مع المستخدمين بشكل علني في منازلهم، مما يعني أن أنظمة الذكاء الاصطناعي المتحيزة تتفاعل بشكل متكرر مع الأطفال ويمكن أن تشوه تصورهم للجنس الآخر والعلاقات بين الجنسين.
وعليه فإن السماح لقطاعات كبيرة من السكان بالتفاعل مع الذكاء الاصطناعي المتحيز يهدد بعكس التطورات الأخيرة في المعايير المتعلقة بالجنسين، ويلوح "بإعادة فتح هوات كنا نعمل لسنوات على ردمها"، بحسب ما تقول حمود.
كما أن لتلك التصورات تأثيرا على المرأة نفسها ومدى قدرتها على عكس صورة المرأة "المثالية" المسوَّق لها حاليا وملاءمتها، عبر الأعلام وبرمجيات الذكاء الصناعي، كما تقول المختصة بالذكاء الاصطناعي في الإعلام، وتضرب مثالا على ذلك مسابقة "ملكة جمال الـ AI".
وتؤكد جمعية علم النفس الأميركية أن انتشار الصور الجنسية للفتيات والنساء الشابات في الإعلانات وعمليات الترويج التجاري والإعلام، ضار بصورة المرأة عن ذاتها، وبنموها الطبيعي وبصحتها العقلية والبدنية.
وقد عرّفت الجمعية التنميط الجنسي بأنه الحالة التي تنحصر فيها قيمة الشخص بجاذبيته أو سلوكه الجنسي، ما يؤدي إلى استبعاد خصائصه الأخرى وإلى "تسليع" الفرد جنسيا، أي يتحول إلى شيء للاستخدام الجنسي لشخص آخر.
من ناحيتها ترى أخصائية علم النفس الاجتماعي أن شركات التكنولوجيا بما فعلته "وكأنها أعطت مشروعية لهذه الصور النمطية المتجذرة بالتفكير ومطبوعة عميقاً في السيكولوجيا الجماعية"، وذلك رغم التقدم والتأثير الذي حققته المرأة في الحياة العامة، فهذه الصورة، "لم تلغ الأولى، وباتت هناك صورتان للمرأة، العاملة القوية المؤثرة من جهة، إلى جانب صورة المرأة الجذابة المثيرة جنسيا التي تحرك الأحاسيس".
زادت التصويرات المثالية من الشعور بعدم الرضى عن الأجسادوتضيف بجاني أن ما نراه اليوم هو "انعكاس لصورة المرأة في اللاوعي الجماعي، الذي دائما ما يضعها في هذا الإطار، وللأسف في بعض الأحيان بعض النساء تشجع وتنخرط في تعزيز هذه الصورة النمطية والقبول بها، لأسباب مختلفة".
وتحذر من أن التسليع في الزمن التكنولوجي مختلف عما كان عليه في عصر الشاشات والمجلات والإعلانات، "تقديم شركات التكنولوجيا لهذه الصورة كان فاضحا ومنتشرا على نطاق واسع، باتت هذه الصورة ترافق مستخدمي التكنولوجيا أينما كانوا وفي كل تفاصيل حياتهم، حتى أصبحت مقبولة ومطبعة في أذهان الناس، رجالا ونساء أيضا، "وهنا الخطورة، حيث المرأة باتت مقتنعة بهذا الدور الجندري المحدَّد لها، بل وترغب به في كثير من الأحيان".
ويمكن أن يؤثر تجسيد المرأة في التكنولوجيا على تصورات وسلوكيات المستخدمين البالغين.
بالنسبة للرجال، فإن التعرض المستمر للتمثيلات الجنسية للنساء يمكن أن يجعل من تجسيد المرأة وتجريدها من إنسانيتها أمرا طبيعيا. وهذا يمكن أن يؤدي إلى مواقف وسلوكيات سلبية تجاه المرأة الحقيقية، بما في ذلك زيادة قبول العنف اللفظي والجسدي.
ونتيجة لذلك بحسب بجاني ارتفعت لدى الرجل التوقعات لشكل المرأة وسلوكها، نتيجة ما يراه من نماذج "مثالية" وما عاد يرضى بالصورة الواقعية للمرأة، بالتالي تغيير معايير للرجال والنساء على حد سواء.
بالنسبة للمستخدمين الشباب، فإن تصوير المرأة في التكنولوجيا يمكن أن يشكل فهمهم لأدوار الجنسين وقيمة الذات.
قد يستوعب الأولاد فكرة أنه من المفترض أن تكون المرأة خاضعة وجذابة، في حين قد تشعر الفتيات بالضغط للتوافق مع معايير غير واقعية للجمال والسلوك. وهذا يمكن أن يكون له آثار طويلة المدى على احترامهم لذاتهم وتطلعاتهم.
كذلك فإن عمر المراهقة يحمل للإنسان تكوين نظرته عن جسده، ومع التطور التكنولوجي ووسائل التواصل الاجتماعي والآن مع الذكاء الاصطناعي التوليدي، زادت التصويرات المثالية من الشعور بعدم الرضى عن الأجساد لدى هذه الفئات العمرية.
كما زادت مشاكل معينة مثل إضرابات الطعام كالـ "anorexia" (فقدانُ الشهية) والـ "Bulimia" (فرط الشهية المرضي)، التي تكون ردة فعل على عدم الرضى عن الجسد والرغبة في جسد نحيف مثالي مشابه لما يرونه، بحسب بجاني.
نوع آخر من الانعكاسات يظهر في ارتفاع نسب عمليات التجميل وانخفاض الأعمار التي تقبل عليها.
وفي مراحل أخرى يقود عدم الرضى عن الذات والشكل إلى التوتر والاكتئاب وعدم الثقة بالنفس، بحسب بجاني، وهذا عدا عن أن الصورة المثالية المقدَّمة والتي يسعى الجميع إليها، هي "صورة مغايرة للواقع وغير قابلة للتحقيق".
كل ذلك يمكن أن يعيق التقدم نحو المساواة بين الجنسين بالإضافة إلى ذلك، يمكن أن يساهم في ثقافة تتسامح مع العنف والتمييز القائمين على النوع الاجتماعي، بل وتشجعهما.
بالنتيجة يعكس استخدام صور المرأة في التسويق والتكنولوجيا، مواقف مجتمعية أوسع تجاه الأدوار والقوالب النمطية للجنسين. وعلى الرغم من التقدم المحرز على صعيد المساواة الجندرية، فإن الاستخدام المستمر للصور الجنسية والتحيز الجندري في التكنولوجيا، يسلط الضوء على التحديات المستمرة، التي تتطلب جهودا إضافية، لتعزيز صورة أكثر إنصافا واحتراما للمرأة.
يختم الزغبي من ناحيته بالتأكيد على خلاصة بارزة "يجب التذكير بها"، أن التكنولوجيا مجرد وسيلة "نحن من يقرر كيف يستخدمها، وبالتالي المشكلة من الشركات التي تبني الأنظمة التكنولوجية وليس بالتكنولوجيا ذاتها، ليس الذكاء الاصطناعي كتقنية هي المتحيزة أو تسلع النساء، ولكن كيفية استخدامه وآلية تعليمه مفاهيمنا الاجتماعية هي المشكلة".
المصدر: الحرة
كلمات دلالية: أنظمة الذکاء الاصطناعی فی قطاع التکنولوجیا القطاع التکنولوجی شرکات التکنولوجیا بالذکاء الاصطناعی الصورة النمطیة فی التکنولوجیا الحیاة العامة الصور النمطیة بین الجنسین صورة المرأة فی المئة من النمطیة عن هذه الصورة المرأة عن المرأة فی هذه الصور النساء فی یمکن أن أن یکون ما تقول إلا أن یجب أن إذا ما فی هذا
إقرأ أيضاً:
بشأن الذكاء الاصطناعي.. منافسة شرسة بين غوغل و"ChatGPT"
الاقتصاد نيوز _ متابعة
تعمل شركة "غوغل" على تطوير وضع ذكاء اصطناعي جديد (AI Mode) لتعزيز قدرات محرك البحث الخاص بها ومواجهة المنافسة المتزايدة مع "ChatGPT Search" الذي أطلقته شركة "أوبن إيه آي".
التحديات والفرص أمام "غوغل" يمثل إطلاق "ChatGPT Search" نقلة نوعية في عالم محركات البحث، حيث أصبح متاحاً لجميع المستخدمين مؤخراً بعد أن كان مقتصراً على المشتركين المميزين. ورغم أن محرك البحث هذا لا يشكل تهديداً مباشراً لـ"Google Search"، إلا أن دقة نتائجه وتفاعليتها أثارت اهتمام المستخدمين.
في المقابل، تواجه "غوغل" تحديات تتعلق بدمج الذكاء الاصطناعي في منصتها الضخمة التي تعتمد عليها مئات الملايين يومياً. تجربة إطلاق "Bard" السابقة كشفت عن بعض الأخطاء، ما دفع الشركة إلى مراجعة استراتيجياتها التقنية لتقديم تجربة موثوقة ومنافسة.
مزايا "AI Mode" الجديد وفقاً لتقارير إعلامية، يعمل وضع الذكاء الاصطناعي الجديد كخيار إضافي إلى جانب القوائم الحالية مثل الصور والفيديوهات. سيوفر هذا الوضع:
إجابات تفاعلية ومخصصة.
روابط مباشرة لمصادر ذات صلة.
إمكانية طرح أسئلة متابعة بواجهة سهلة الاستخدام.
الميزة الأبرز التي تقدمها "غوغل" هي قدرة المستخدمين على العودة بسهولة إلى نتائج البحث التقليدية، ما يضمن تلبية احتياجات جميع الفئات.
موعد الإطلاق وتوقعات المستقبل رغم عدم إعلان "غوغل" عن موعد رسمي لإطلاق "AI Mode"، تشير التقارير إلى أن العمل على هذه التقنية بدأ منذ فترة طويلة. الصور المسربة من النسخ التجريبية لتطبيق "غوغل" على "أندرويد" تؤكد اقتراب طرح هذه الميزة.
سباق الذكاء الاصطناعي مستمر مع احتدام المنافسة بين "غوغل" و"أوبن إيه آي"، يبقى الابتكار مفتاح التميز. وبينما يركز "ChatGPT Search" على التفاعلية وسهولة الاستخدام، تسعى "غوغل" إلى الجمع بين الذكاء الاصطناعي والموثوقية، ما يعد بتحولات جذرية في طريقة البحث عن المعلومات.