الجزيرة:
2024-07-13@15:17:28 GMT

ليفربول والذكاء الاصطناعي: نحو مستقبل بلا مدربين!

تاريخ النشر: 26th, March 2024 GMT

ليفربول والذكاء الاصطناعي: نحو مستقبل بلا مدربين!

"هل تعلم مَن المدرب الشاب الأكثر إثارة في كرة القدم الحديثة؟ إنه ليس في باير ليفركوزن الألماني أو ستاد ريمس الفرنسي، أو حتى بولونيا الإيطالي، إنه لدى شركة غوغل"، هذه كانت كلمات افتتاحية تقرير نشرته مجلة "وايرد" الأميركية تحت عنوان "كيف يمكن لنموذج الذكاء الاصطناعي الجديد من "غوغل ديب مايند" أن يساعد أندية كرة القدم في الوصول للضربة الركنية المثالية؟".

قبل أيام دشن فريق ليفربول الإنجليزي شراكة تاريخية مع شركة "ديب مايند" التابعة لشركة "غوغل"، بهدف تسخير مهارات الذكاء الاصطناعي في خدمة تكتيكات كرة القدم، ووفقا لما نشره موقع "نيو سيانتست"، فقد دُرِّب النموذج المُسمّى بـ"تكتيكال" على سلسلة ضخمة من البيانات، تخص أكثر من 7176 ركلة ركنية في البريميرليغ، في الفترة من 2020 إلى 2021، الأمر الذي أهّله لتحليل الأنماط، وتحديد أفضل الخيارات الهجومية والدفاعية، خاصة عند تنفيذ الركلات الركنية.

وقد أظهرت الاختبارات أن لديه قدرة عالية على التنبؤ بنتائج الركنيات بدقة؛ حيث قدّم اقتراحات تكتيكية أثبتت فعاليتها في زيادة فرص تسجيل الأهداف، بل والأخطر من ذلك أن هناك العديد من خبراء كرة القدم لم يتمكنوا من التمييز بين تلك التكتيكات التي اقترحها، وبين تلك التي وضعها مدربون بشريون؛ مُفضلين التكتيكات التي اقترحها الذكاء الاصطناعي في 90% من الحالات.

ولذلك، أعرب يورغن كلوب، مدرب ليفربول، عن سعادته بهذا التعاون، مؤكدا على أن "الذكاء الاصطناعي يمكن أن يساعد على فهم اللعبة بشكل أفضل، خاصة مع وجود قدرات متطورة لنماذج الذكاء الاصطناعي الحديثة، تتغير خلالها طريقة لعب كرة القدم وتحليلها بشكلٍ جذري، ممّا سيساهم في رفع مستوى اللعبة، وتقديم تجربة مثيرة لمحبي كرة القدم حول العالم".

We're announcing TacticAI: an AI assistant capable of offering insights to football experts on corner kicks. ⚽

Developed with @LFC, it can help teams sample alternative player setups to evaluate possible outcomes, and achieves state-of-the-art results. ????… pic.twitter.com/8oVYtamGGe

— Google DeepMind (@GoogleDeepMind) March 19, 2024

تكتيكال

قبل هذه المحاولة، كانت هناك محاولات كثيرة بين نادي ليفربول وشركة غوغل لإنشاء نظام ذكاء اصطناعي يساعد المدربين على اتخاذ قرارات تكتيكية أفضل، لكنها كانت محاولات يائسة بعض الشيء، ولم تؤتِ أُكلها سريعا، خاصة مع ضغط المباريات والمنافسة الشديدة، لذلك لجأ الخبراء إلى تقنين أوضاع نظام "تكتيكال" عام 2021، والعمل على تحويله إلى نموذج خاص بتحليل واستنباط آليات تساعد اللاعبين في مواقف محددة، ليقع الاختيار على الركنيات والضربات الثابتة، ورغم أن التنبؤ بنتائج الركلات الركنية أمر معقد أيضا، بسبب محدودية البيانات المتوفرة، فإنها تظل عملية أبسط بشكل عام من دراسة حالات اللعب المفتوح، الأكثر ديناميكية بطبيعتها.

ولذلك فقد صُمم نموذج الذكاء الاصطناعي هذا لمعالجة أسئلة أساسية: 

مَن اللاعب الأكثر احتمالا لاستلام الكرة؟ وهل ستكون هناك أية محاولة للتسديد؟ هل يمكننا أن نفهم ما حدث؟ وهل نجحت التكتيكات المماثلة بشكل جيد في الماضي؟ كيف يمكننا تعديل التكتيكات لتحقيق نتيجة مختلفة؟ وكيف يمكننا تغيير تمركز اللاعبين لرفع احتمالية التسديد أثناء الهجوم، والعكس أثناء الدفاع؟ وذلك عن طريق تقديم اقتراحات بناءة للمدربين، تقوم بالأساس على تحليل اللقطات المتوفرة سلفا "البيانات التاريخية"، والعثور على تكتيكات وحلول مماثلة من خلالها، فيما يشبه قليلا نموذج الأهداف المتوقعة المبني على دراسة آلاف التسديدات المختلفة من مباريات سابقة.

هذا بالضبط ما يفعله "تكتيكال" بشكل آلي ومبسط، حيث يبحث ويفند قاعدة البيانات الموجودة لديه، ومن ثم يقدم الإجابة في هيئة تمثيل بياني، ومقترحات تكتيكية، فبعدما عقد الخبراء بعض الدراسات النوعية المكثفة، وجدوا أن حلول النموذج غالبا ما تكون ذات صلة بقاعدة البيانات المتوفرة لديه بالفعل، في 63% من الحالات تحديدا، أي أن تلك التوصيات لم تكن حلا مبتكرا في المطلق، بل اعتمدت في الأساس على سرقة الأفكار من قاعدة البيانات المتوفرة لديه سلفا.

كما تُبين الدراسة أن هذا النموذج هو أول مساعد ذكاء اصطناعي "يستطيع تقديم اقتراحات مفيدة وعملية"، ولا يمكن تمييزها بأي شكل عن التكتيكات البشرية، حيث يستخدم قاعدة بيانات معقدة تخص المركز والسرعة والوزن والطول، وهو أمر في غاية الصعوبة، لأن نماذج الذكاء الاصطناعي عادة ما تتدرب على مليارات النقاط البيانية، وهو عنصر غير متوفر في الركنيات، لأنها نادرة بطبيعتها.

لذلك كان لا بد من إيجاد "حل سحري"، يكمن في "التعلم الهندسي العميق"، وبطريقة تمكن الآلة من العمل على غرار الدماغ البشري، فبحسب ما قاله بيتر فيليكوفيتش، عالم الرياضيات، فإن هذا الابتكار يعمل على تبسيط عملية التخطيط التكتيكي التي تتطلب عمالة كثيفة، ولذلك فقد تضمنت قيام محللي الأندية بإعادة مشاهدة العديد من مقاطع فيديو المباريات لدراسة الإجراءات الروتينية السابقة والفرق المتنافسة.

Quand l'IA vient apporter son aide dans la tactique de Jurgen Klopp. ????⚽️

Google DeepMind a développé un système d'analyse tactique appelé ???????????????????????????????? en collaboration avec Liverpool !

L'objectif ? Suggérer des tactiques à l'entraineur sur l'exercice des corners.

« ????????????… pic.twitter.com/isixYLlpYe

— Actu Foot (@ActuFoot_) March 20, 2024

تاريخ حافل

إنه ليس التعاون الأول بين الأندية الرياضية وهذه الشركات التقنية، حيث أصبح استخدام تحليل البيانات لتحسين النتائج في الرياضة أكثر تطورا في السنين الأخيرة، وتحديدا منذ أن لفت الكاتب مايكل لويس اهتمام العالم لتلك التقنية، في كتابه الصادر عام 2003 تحت عنوان "Moneyball: The Art of Winning an Unfair Game" أي "كرة المال: فن الفوز بلعبة غير عادلة".

وقد روى لويس، في كتابه، كيف استخدم فريق "أوكلاند للبيسبول" تقنية جديدة مكنته من مواجهة خصوم يتمتعون بتمويل مالي أفضل، وكيف قامت الرابطة الوطنية لكرة القدم الأميركية و"أمازون ويب سرفيس" بتطوير أداة للاعبين تُعرف باسم "الرياضي الرقمي"، يمكنها التنبؤ بالإصابات قبل حدوثها بفترة، لمنعها.

ثم بعد ذلك تحدث عن الكيفية التي عملت بها شركة "ماتسر غولف" مع شركة "آي بي إم" لعلوم التكنولوجيا، لإنشاء تطبيق يمكنه التنبؤ بمدى قدرة واستيعاب اللاعب، إضافة إلى خاصية تضيف تعليقا منطوقا لتحسين الأداء، في كل لقطة، ولكل لاعب على حدة، وبشكل تلقائي تماما، ومع تطور الأمر أصبحت هناك تطبيقات خاصة بالهاتف المحمول مثل "هوم كورت"، و"إي إس بي إن" و"سمارت كوتش"، وما إلى ذلك من التطبيقات التي تمنح اللاعبين وسيلة جيدة وسهلة للتحسن.

وبناء على ذلك، شهد سوق الذكاء الاصطناعي الخاص بالرياضة نموا كبيرا في السنوات الأخيرة، ومن المتوقع أن تصل قيمته إلى 22 مليار دولار أميركي بحلول عام 2030، ومن المتوقع أيضا أن يصل سوق "الرياضات العالمية للذكاء الاصطناعي" إلى 19.9 مليار دولار بحلول السنة نفسها، في إشارة واضحة إلى أن استخدام الذكاء الاصطناعي في الرياضة قد توسع بالفعل، وسيستمر في النمو مع تزايد الفرق الرياضية والدوريات والتكنولوجيا.

مستقبل مجهول

أوضح الباحث في "غوغل ديب مانيد" بيتار فيليكوفيتش أن النموذج الذكي لا يستهدف أن يحل محل المديرين الفنيين البشريين حتى وقتنا الحالي، وإنما هي خطوة من جانب قطاع غوغل البحثي، لتعزيز قدرات البشر ورفع كفاءة أدائهم، بدلا من استبدالهم، لكنه في التصريح نفسه، أردف قائلا "إن هذا لا يمنع من توسيع النظام ليشمل أجزاء أخرى من كرة القدم، بل وحتى الرياضات الأخرى"، لافتا إلى أنه "إذا تمكنا من أتمتة (التغشيل الآلي) لعبة مثل كرة القدم، بكل التعقيدات التي تحملها، فيمكننا إذن تصميم عدة جوانب من علم النفس البشري بشكل أفضل"، كما أشار إلى أن أبحاث فريقه لها تطبيقات أوسع خارج نطاق الرياضة.

من الواضح أن العالم لا يسير نحو التخلص من المجهودات البشرية في الوقت الحالي، وأن الذكاء الاصطناعي غير قادر على خطف وظيفة المدرب، خاصة أن شخصية المدرب تلعب دورا مهما في الجانب التربوي والاجتماعي والعاطفي، فكل تلك الصفات الإنسانية تسهل عملية إيصال الرسائل إلى اللاعبين، وتمكن المدرب من معرفة حقيقة مشاعرهم إزاء التدريبات أو المباريات، باعتبار أن الألعاب الجماعية شاعرية بطبيعتها، وتعتمد على مدى التناغم بين الأفراد، ومدى ارتباطهم وتشعبهم وانسجامهم ككتلة واحدة، بعيدا عن الجمل التكتيكية الصماء.

لكن التطور الرهيب لتقنيات الذكاء الاصطناعي خلال السنوات الماضية قد يهدد فعلا مستقبل المدربين في الملاعب الرياضية، لا سيما أن الذكاء الاصطناعي والروبوتات قد نجحت في كافة الاختبارات التقنية، فهل بإمكانها أيضا أن تفهم مشاعر البشر مستقبلا، وتضع حدا للمدرب البشري للأبد؟

AI will NEVER be superior to human coaching, as it relates to habit formation and affirmation.

All bias aside, Future will serve as the model by which all other successful one-to-one coaching products are built.

AI is meant to augment great Coaches, it will never replace them. https://t.co/BdzimdCVNk

— Joshua Bonhotal (@jbonhotal) June 15, 2023

المصدر: الجزيرة

كلمات دلالية: رمضان 1445 هـ حريات الذکاء الاصطناعی کرة القدم

إقرأ أيضاً:

سأحمرّ خجلا.. لو استطعت.. الجندرية والتكنولوجيا

نساء مثيرات، بأصوات جذابة، وأجساد مثالية، يعملن في خدمتنا وتوفير احتياجاتنا ومطالبنا، يساعدن في مهامنا ويرفهن عنا إن أردنا أيضا، لا يتململن، بل يطعن كل ما يُؤمَرن به، وحتى إن قللت من احترامهن أو تجاوزت الحدود الأخلاقية وأصول اللباقة، سيتقبلن ذلك صاغرات، بود ولطف بالغ، وقد "يحمررن خجلا.. لو استطعن". 

أكثر العقول المنددة باستقلالية المرأة، قد لا تتمكن اليوم من تخيل واقع تكون فيه النساء على هذه الصورة في عصرنا الحالي، بالنظر إلى التغيير الاجتماعي الكبير الذي شهده واقع المرأة حول العالم على مدى القرن الماضي.

 إلا أن شركات التكنولوجيا استطاعت، وفي زخم التطور والثورة التقنية الحاصلة، من أن تضع المرأة مجدداً في واحدة من أكثر الصور النمطية إساءة للنساء، والتي كانت موضع محاربة طيلة العقود الماضية. 

"والأخطر من ذلك أنها نجحت في تطبيع هذه الصورة في أذهان الجمهور، ومن ضمنه النساء أنفسهن"، وفق ما تقول فرح سلهب، الأخصائية في النوع الاجتماعي والشمول. 

يثير تصوير شركات التكنولوجيا للمرأة في منتجاتها وإعلاناتها اهتماما وجدلا كبيرين، خاصة فيما يتعلق بالصور والأصوات "المثيرة" والجذابة التي تعتمد عليها في الدعاية والترويج للجذب المستخدمين، على حساب تعزيز التصورات النمطية عن النساء، وتسليع إضافي لجسدها وصوتها وحضورها، فضلا عن تأثير اجتماعي سلبي، "يرسخ التصورات المسبقة عن الأدوار الجندرية التقليدية"، بحسب سلهب.

المساعدون الصوتيون والخيالات السينمائية

منذ انطلاق الثورة التكنولوجية، غالبا ما كانت شركات التكنولوجيا تصور النساء في إعلاناتها وموادها التسويقية بأدوار اجتماعية تقليدية، كسكرتيرات أو مساعدات خلف أجهزة الكومبيوتر والأدوات المكتبية، وكانت الصورة للمرأة العاملة تتجسد بوجود رجل يرشدها أو يمنحها أوامر لما يجب عليها فعله.

وانسحبت ذهنية تصوير المرأة "السكرتيرة" أو "المساعدة" على واحدة من أبرز الإنتاجات التكنولوجية في العقد الماضي، "المساعدون الرقميون".

"سيري" (آبل)، "أليكسا" (أمازون)، "كورتانا" (مايكروسوفت)، وصولا إلى "سكاي" (أوبن إي آي)، ومثلهم عشرات النماذج التكنولوجية لمساعدين صوتيين مشغلين بالذكاء الاصطناعي من شركات مختلفة تتمايز وتتنافس على كل شيء فيما بينها، وتتفق على مشترك وحيد، هو صوت النساء المستعمل للتواصل مع المستخدمين، فضلاً عن الشخصية "الودودة واللطيفة، الجاهزة في أي وقت لتلبية أي رغبة او حاجة أو مهمة مطلوبة" الأمر الذي أثار انتقادات واسعة.

أحدث تلك الانتقادات جاءت عبر صحيفة "نيويورك تايمز"، لنموذج "سكاي" الجديد من "تشات جي بي تي". والذي يستخدم بدوره صوتاً نسائياً "أجش" وله "تأثير مهدئ ومثير في الوقت نفسه"، بحسب الصحيفة، التي وصفت شخصية النموذج بأنها "كانت لطيفة ومنطوية على نفسها".

"المرأة اللطيفة".. ماذا تخبرنا أصوات تطبيقات الذكاء الاصطناعي ؟ انتقدت صحيفة "نيويورك تايمز" التقنيات الصوتية التي تستخدمها تطبيقات الذكاء الاصطناعي، موضحة أن مطوري الذكاء الاصطناعي يحاولون الاقتياد بأفلام هوليود التي كانت تتخيل منذ عقود بأن أصوات الآلات يجب أن تكون لنساء لطيفة، وبناء على ذلك تم تصنيع الأصوات بناءً على خيالات سينمائية قديمة حول الكيفية التي يجب أن تتحدث بها الآلات.

وذكّرت الصحيفة بأن أصوات النساء غالبا ما غذت التقنيات المتخيّلة قبل أن يتم دمجها في تقنيات حقيقية.

ورأت أن مطوري الذكاء الاصطناعي "يحاولون تقليد أفلام هوليود التي كانت تتخيل منذ عقود بأن أصوات الآلات يجب أن تكون لنساء لطيفات"، وتم تصنيع الأصوات بناء على "خيالات سينمائية قديمة" حول الكيفية التي يجب أن تتحدث بها الآلات كـ "امرأة متعاطفة ومذعنة".

في مثال على ذلك، فقد كان صوت "سكاي" مشابه إلى حد كبير لصوت "سامنثا" من فيلم Her" 2013"، أي "هي".

 الفيلم يتحدث عن قصة رجل يقع في غرام مساعدته الافتراضية ذات الصوت النسائي، أدته الممثلة سكارليت جوهانسون.

 جوهانسون عبرت عن استيائها من الصوت المستخدم في "تشات جي بي تي"، "المشابه بشكل مخيف لصوتها"، وقالت إنها رفضت سابقا طلب "أوبن إيه آي" بأن تقوم بتأدية صوت الروبوت.

حتى مع تقدم تكنولوجيا الذكاء الاصطناعي، تتم إعادة تشفير هذه الصور النمطية للمرأة "مرارا وتكرارا"، وتصويرها كخليط من الأم، والسكرتيرة، والصديقة، وبمثابة "كائن مريح متعدد الأغراض"، بحسب "نيويورك تايمز". 

يستند اختيار الشخصية الأنثوية جزئيا إلى أبحاث تشير إلى أن المستخدمين يفضلون الأصوات النسائية ويجدونها "أكثر راحة وودا وتطمينا"، رغم أن أبحاثا ودراسات لاحقة ناقضت هذه النتيجة.

الصورة التي كونتها التكنولوجيا عن جسد المرأة "المثالي" يكون صورة مغالطة للنساء والمراهقات

ويزداد التأثير السلبي، مع حقيقة أن هذه النماذج من الذكاء الاصطناعي الروبوتية، تبدو "قابلة للبرمجة والتلاعب بها وخاضعة للمطالب"، وهو ما من شأنه أن يعزز تنميط النساء بذلك أيضا. 

وتعرضت شركة آبل على وجه الخصوص للكثير من الانتقادات بسبب برمجتها لـ"سيري" كي ترد بشكل غزلي أيضا، حيث وثق ترند لاقى رواجا على مواقع التواصل الاجتماعي، الردود ذات الطابع الجنسي التي استخدمتها "سيري" على نطاق واسع، وبات لعبارات سيري الغزلية وتلك التي تتميز بالإيحاءات الجنسية مئات مقاطع الفيديو على موقع يوتيوب التي حصدت ملايين المشاهدات.

في المقابل كشف تحقيق أجرته صحيفة "ذا غارديان" عام 2019 أن شركة "آبل" كتبت إرشادات داخلية في عام 2018 تطلب من المطورين جعل" سيري" تتجاهل الإشارات إلى الحركة النسائية وغيرها من "الموضوعات الحساسة". ما عرض الشركة لاتهامات بالترويج لصورة جنسية ونمطية للمرأة تضر سلبًا بالمعايير الجنسانية

"سأحمرّ خجلا.. لو استطعت"

سبق لمنظمة اليونيسكو أن اعتبرت في تقرير لها، عام 2019، أن "سيري" و"أليكسا" وغيرهما من برمجيات المساعدات الرقميات تعمل على إدامة الصور النمطية المتعلقة بالجنسين وتشجيع اللغة الجنسية المسيئة من جانب المستخدمين.

وحذرت المنظمة من العواقب السلبية للمساعدين الشخصيين، معتبرة أنهم يعززون فكرة أن "النساء مساعدات ملتزمات ومطيعات ومتحمسات لإرضائهم، (وأنهن) متاحات بلمسة زر أو بأمر صوتي صريح".

كما سلط الضوء أيضا على الاستجابات السلبية والمهذبة التي يقدمها المساعدون الرقميون عندما يدلي المستخدمون بملاحظات مسيئة جنسيا، محذرين من أن خوارزمياتهم "تعزز الاستعارات الجنسية".

التقرير الأممي جاء بعنوان "سأحمرّ خجلا لو استطعت"، وهو الرد الذي قدمته سيري ذات مرة عندما قال لها المستخدمون "أنت وقحة". وعلى نفس الإهانة، ردت أليكسا قائلة: "حسنا، شكرا على تعليقاتك".

يذكر أن المساعد الصوتي أصبح جزءا متزايدا من الحياة اليومية، يستخدمه ما يقارب 3 مليارات شخص حاليا للمساعدة في مهمات مختلفة مثل المساعدة في الأعمال والبحث عبر الانترنت وإجراء الاتصالات، أو ضبط المنبهات الخاصة بهم في الصباح والعثور على المطاعم القريبة، أو حتى التحقق من الطقس في عطلة نهاية الأسبوع.

ووفقاً لموقع statista للإحصاءات، يصل عدد المساعدين الصوتيين المستخدمين عام 2024 إلى نحو 8 مليارات مساعد، بما يفوق عدد سكان العالم. 

ومن المتوقع أن ينمو عدد مستخدمي المساعد الصوتي بشكل كبير خلال السنوات القادمة. 

تقرير اليونيسكو حمل حينها أول توصيات رسمية للأمم المتحدة فيما يتعلق بالمساعدين الصوتيين المعتمدين على الذكاء الاصطناعي، حث فيها الشركات والحكومات على "إنهاء ممارسة جعل المساعدين الرقميين من الإناث بشكل افتراضي".

واقترحت أن تستكشف الهيئات إمكانية جعل الأصوات "لا ذكرا ولا أنثى"، لتثبيط اللغة المسيئة أو المتحيزة جنسيا.

كما طالبتهم "بالإعلان عن التكنولوجيا على أنها غير بشرية في بداية التفاعلات مع المستخدمين البشريين".

من الصوت إلى الصورة صورة النساء في المنتجات التكنولوجية تلقت انتقادات واسعة

إلا أن أوجه تحيز التكنولوجيا السلبي بحق النساء، لا يقتصر على النماذج الصوتية المعتمدة على الذكاء الاصطناعي.

فغالبا ما تنتج أنظمة الذكاء الاصطناعي التوليدية، التي تخلق صورا ومحتوى بناء على البيانات المدخلة، تمثيلات متحيزة وجنسية للنساء تتوافق مع ما تعتبره بعض المجتمعات معايير للجاذبية والجمال والإثارة. 

هذا التحيز، بحسب الخبراء، هو انعكاس للبيانات التي تم تدريب هذه الأنظمة عليها، والتي يمكن أن تشمل كميات هائلة من الصور ذات الطابع الجنسي، تجعل لديه تصورات غير الواقعية للجمال والسلوك مبنية على التنميط الشائع. 

وعلى الرغم من وجود المصادر المفتوحة للمعلومات حول الشعوب والبلدان والإثنيات والأعراق، والخصائص الجينية المختلفة للمجتمعات. معظم الأدوات المشغلة بالذكاء الاصطناعي التوليدي، تعتمد معايير جمال "مثالية" للمرأة، منمقة لتلائم اختلافات الأشكال والألوان والملامح العامة للبشر، لكنه يضع كل ذلك في قالب مثالي ومثير، لا يتوافق في كثير من الأحيان مع واقع الخصائص الجينية للمجتمعات والشعوب. 

مراسلة موقع مجلة "MIT Technology Review"، ميليسا هيكيلا، المتخصصة في تغطية تأثير الذكاء الاصطناعي على الحياة الاجتماعية، كان لها تجربة خاصة مع إحدى نماذج توليد الصور المشغلة بالذكاء الاصطناعي. 

عكست تلك التجربة التي بصورة جليّة، حجم التحيز الذي يمكن أن يبلغه الذكاء الاصطناعي التوليدي في إنتاج صور النساء. 

كانت تتمنى ميليسا، وهي امرأة آسيوية الملامح، أن تحصل عبر إحدى تطبيقات توليد الصور على نفس النتائج التي حصل عليها زملاؤها في العمل: صور رمزية واقعية وجذابة لهم، مثل رواد الفضاء والمحاربين وأغلفة ألبومات الموسيقى الإلكترونية وغيرها، لكنها صدمت بحصولها على صور مولدة معظمها عارية أو بملابس مثيرة وحتى في أوضاع جنسية. 

من بين 100 صورة رمزية قامت بإنشائها، 16 منها كانت عاريات الصدر، و14 أخرى صورتها بملابس ضيقة للغاية، وأوضاع جنسية صريحة. 

بحسب التقرير الذي أعدته عن تجربتها، فإن التطبيق يستخدم نظام ذكاء اصطناعي مفتوح المصدر، يعتمد في تلقينه على مجموعة بيانات ضخمة مفتوحة المصدر أيضا تم تجميعها عن طريق استخراج الصور من الإنترنت.

ولأن الإنترنت يفيض بصور النساء العاريات أو شبه العاريات، والصور النمطية الجنسية والعنصرية، فإن مجموعة البيانات تتجه أيضا نحو هذا النوع من الصور.

تقول ميليسا: "بصراحة، كان الأمر مخيبا للآمال بشكل ساحق. حصل زملائي وأصدقائي على شرف أن يتم تصميمهم في تمثيلات فنية لأنفسهم. لقد تم التعرف عليهم من خلال الصور الرمزية الخاصة بهم! في المقابل حصلت على صور لنساء آسيويات عامات مصممات بشكل واضح على شخصيات الأنمي أو ألعاب الفيديو".

ومن اللافت، أو "المضحك" كما تقول ميليسا، أنها وجدت صورا أكثر واقعية لنفسها عندما أخبرت التطبيق أنها ذكر. 
"في الصور التي تم إنشاؤها على أساس أني ذكر، أرتدي ملابس وبدوت حازمة، والأهم من ذلك أنني أستطيع التعرف على نفسي في الصور".

وبحسب التقرير يقدم نموذج الذكاء الاصطناعي صورا للرجال البيض كأطباء وعلماء ومهندسين معماريين ومصممين، بينما يتم تصوير النساء كمصففات شعر وخادمات ويربطهن بالمحتوى الجنسي.

هذه المشكلة بحسب الخبير بالذكاء الاصطناعي والرئيس التنفيذي لشركة "Zaka" التكنولوجية، كريستوفر زغبي، ناجمة عن نقص في المعلومات التي يزوّد بها الذكاء الاصطناعي. 

ويضيف في حديثه لموقع "الحرة" أن كل أنظمة الذكاء الاصطناعي حول العالم اليوم إذا ما سألت عن موضوع متعلق بالثقافة الإنكليزية والمحتوى المعلوماتي باللغة الإنجليزية، "ستجد دائما أجوبة أكثر دقة عن تلك المتعلقة بشعوب وثقافات أخرى"، وذلك بسبب غياب تمثيلها المعلوماتي بالنسبة لأنظمة الذكاء الاصطناعي.

لكن التحيز الأوضح، يكمن عند طلب توليد صورة امرأة أميركية أو أوروبية مثلا، ويقدمها بالصورة "المثيرة" والجسد "المثالي"، فرغم توفر البيانات هناك تحيز في تلقين الذكاء الاصطناعي لتلك المعلومات التي تعكس تحيز المجتمع لمعايير معينة للجمال وشكل الامرأة "المثالي"، ويضيف "التحيز يحيط بنا من الشكل إلى الصور إلى وسائل التواصل إلى المعلومات والنصوص والكتابات، والذكاء الاصطناعي يعكسها بحسب ما يتلقى"، بحسب الزغبي. 

ولكن بيانات التدريب ليست وحدها المسؤولة، إذ تتخذ الشركات التي تقوم بتطوير هذه النماذج والتطبيقات خيارات فعالة حول كيفية استخدام البيانات، كما يقول ريان ستيد، طالب دكتوراه في جامعة كارنيغي ميلون، الذي درس التحيزات في خوارزميات توليد الصور في حديثه لـ MIT.

ويضيف: "عندما يختار شخص ما بيانات التدريب، ويقرر بناء نموذج الذكاء الاصطناعي، إما أن يتخذ خطوات معينة للتخفيف من تلك التحيزات، أو قد لا يفعل ذلك".

ويصل التحيز حتى إلى ما هو غير افتراضي، مثل الروبوتات المجسدة ميكانيكيا، لاسيما ذات المظهر الأنثوي، مثل "صوفيا" من إنتاج "هانسون روبوتيكس"، والتي حظيت باهتمام إعلامي كبير. غالبا ما جسدت هذه الروبوتات المفاهيم التقليدية للجمال والأنوثة ومعايير الجسد "المثالي"، وهو ما يوضح أن الأمر غير مقتصر على البيانات بقدر ما هو مرتبط بقرارات الشركات.

هناك قدرة على ضبط هذه التحيزات وفق ما يؤكد الزغبي بدوره، "لكن السؤال: هل هناك إرادة؟ يجب أن نعلم في نهاية الأمر أن هذه الشركات هدفها الرئيسي هو الربح المالي وانتشار منتجاتها، وإذا كان ذلك يعني استخدام المرأة وتسليعها، لا أعتقد أنهم يكترثون لذلك".

هذه السياسات والقرارات التي تترك آثارا سلبية واضحة على المدى القصير، تنبئ أيضا بمشاكل أكبر على المدى الطويل، فإنتاجات الذكاء الاصطناعي المتحيزة اليوم، ستغمر الإنترنت مستقبلا وستصبح في نهاية المطاف بيانات تدريب لنماذج الذكاء الاصطناعي المستقبلية. والنتيجة تضخيم لهذه التحيزات التي قد تؤدي إلى تهميش للسكان "غير المطابقين" لتلك التحيزات. 

ويرى الزعبي أن المشكلة في هذا السياق، تبدأ من غياب التشريعات اللازمة، التي تفرض على الشركات الالتزام بمعايير غير متحيزة ودراسة أثر منتجاتهم على المجتمع. 

وقد بدأ الاهتمام بهذا النوع من القوانين بالفعل، مثل الاتحاد الأوروبي الذي وضع قانونا ينظم عمل الذكاء الاصطناعي وشركاته (يسري عمله عام 2026)، "لكنه الوحيد حتى الآن على مستوى العالم، حيث لا تزال الدول بمعظمها وخاصة دول الشرق الأوسط بعيدة عن ذلك"، بحسب الزغبي.

خبراء أكدوا أهمية توفير التشريعات الضرورية لإدارة برمجيات الذكاء الاصطناعي حتى في الترجمة

انحياز الخوارزميات يصل إلى حدود أبعد من التوقعات، منبّئا بتأثيرات ومشاكل أكبر، مثل الترجمة وتوليد النصوص. 

وفي تقارير سابقة، لاحظ المراقبون كيف أن برامج الترجمة تَنسُب جِنسا معيّنا إلى المهن وتتوقع تتمة الكلام بصورة بالغة الانحياز والتنميط. 

أمثلة عن ذلك ظهرت في دراسة للباحثة في البيانات والتكنولوجية في معهد ماكاو التابع لجامعة الأمم المتحدة "UNU" إليونور فورنييه – تومبس، بالتعاون مع الباحثة القانونية، سيلين كاست – رينارد، حول نماذج اللغة التي تستخدمها خدمة الترجمة من Google وBing من مايكروسوفت.

عمدت الدراسة إلى إدخال عبارات محايدة جنسيا في منصات الترجمة، مما أجبر خوارزميات الترجمة على اختيار الجنس باللغتين الإنكيزية والفرنسية.

وبدون استثناء، اختارت خوارزمية غوغل ضمائر الذكور والإناث على طول خطوط نمطية بين الجنسين. على العكس من ذلك، اختارت خوارزمية مايكروسوفت الضمائر الذكورية حصريا.

هذا النوع من التحيز في نماذج اللغة من شأنه أيضاً أن يعزز الصورة النمطية والتوقعات الخاصة بالأدوار الاجتماعية، والمفهوم المركب اجتماعيا للأنوثة والرجولة وغير ذلك من التنميط، بحسب الأخصائية في النوع الاجتماعي والشمول فرح سلهب. 

ورغم أن هذا يتجلى بشكل أوضح لدى النساء إلا أن الرجال يعانون بدورهم من الاستغلال، بحسب سلهب، بالطرق نفسها والتسليع ذاته أيضاً وتعزيز التصورات النمطية عنهم. 

الانعكاس الثاني الناتج عن هذا التنميط، بحسب سلهب، يتمثل في وضع حدود للأشخاص، حين يكون المجتمع والنظام المحيط والتكنولوجيا يعززون التصورات النمطية عن الرجال والنساء، فإنهم يحدون من خيارات وتوجهات وطموحات هؤلاء الأشخاص على أصعدة مختلفة، ويحصرونهم بالمخصص لهم جندريا من قبل المجتمع.

"وفي كثير من الأحيان يقتنع الأشخاص بالصور النمطية المحددة لهم وفق الجندر، ومن شأن تأثيرات هذا التنميط أن تصل إلى الحد من الوصول إلى خدمات أو حقوق معينة"، وفق سلهب. 

غياب النساء عن القطاع التكنولوجي

يؤكد المختصون أنه لا يُوجد سبب واحد وراء خوارزمية متحيزة، بل هي ثمرة سلسلة من الأسباب التي تتداخل في المراحل المختلفة من بنائها.

من أبرز الأسباب التي تنعكس سلبا على بناء هذه التقنيات هو غياب المرأة عن معظم المراحل من القرار إلى التنفيذ مرورا بالبرمجة، بفعل غياب حضورها أصلا في قطاع التكنولوجيا.

وعلى الرغم من مساهمات نسائية كبيرة في تطوير قطاع الحوسبة والتكنولوجيا، نادرا ما يتم الاعتراف بالنساء كقادة أو مبتكرات في هذا المجال، وقد سلط الباحثون والمدافعون عن حقوق المرأة الضوء على تأثير غياب المرأة عن هذا القطاع على تعزيز تمثيلات الصور النمطية الضارة وفي تسليع المرأة. 

وإذا ما اعتبرنا أن معظم المطورين الذين يبنون أنظمة الذكاء الاصطناعي حاليا هم من الرجال، فإنهم بحسب الزغبي يبنون اعتباراتهم على وجهة نظرهم حصرا، حيث لا تتواجد امرأة لتقدم وجهة النظر الأخرى من المنظور النسائي.

فتكون النتيجة منتجات تكنولوجية لا تأخذ بعين الاعتبار وجهة نظر المرأة أو رأيها، ومن هنا يظهر التحيز في التكنولوجيا.

وتشمل الجهود المبذولة لمعالجة هذه القضايا تعزيز التنوع الجندري في مجال التكنولوجيا، إلى جانب استخدام بيانات أكثر شمولا لتدريب الذكاء الاصطناعي، وتشجيع تطوير التكنولوجيا التي تحترم المرأة وتمكّنها.

إلا أن الطبيعة التي يهيمن عليها الذكور في صناعة التكنولوجيا تعتبر عاملا رئيسيا في هذه الصور المتحيزة. لاسيما وأنها لا تزال بيئة غير مريحة للمرأة. 

عدم التوازن في مشاركة المرأة في قطاع التكنولوجيا وغيره من القطاعات، يعود في الأصل، بحسب سلهب، للمفهوم الاجتماعي لتقسيم المجالات وفق الجندر، إذ لا تشجيع حقيقي للنساء والفتيات من أجل المشاركة الفعالة في هكذا قطاعات، رغم نجاح نساء في خوض غمار هذه المجالات، إلا أن العرف الاجتماعي لا يزال يصور هذه القطاعات للرجال ويهمش النساء منها. 

مع ذلك تنبه سلهب إلى أنه ليس بالضرورة أن يكون غياب المرأة عن القطاع التكنولوجي هو المشكلة فيما نشهده.

وتقول: "بحكم عملنا مع نساء في مجالات عدة، أحيانا يتعرضن لاستغلال وإساءة معاملة دون أن يعلمن أصلا أن ذلك عنف أو إساءة او استغلال، كما أن لسمعة القطاع دور في إقبال النساء عليه، وبمعرفتنا عما يدور في القطاع التكنولوجي ولاسيما في الشركات الكبيرة، فقد لا يكون بيئة مشجعة للنساء للانخراط فيها كما يجب، خوفا مما يمكن أن يتعرضن إليه أو يطالهن".

أجرت منظمة Women Who Tech، عام 2023، مسحا مجهولا لـ 930 من الموظفين والمؤسسين والمستثمرين في قطاع التكنولوجيا على مستوى العالم، هدف إلى تحديد العوائق والتحديات التي يواجهها الأشخاص في قطاع التكنولوجيا، وتتبع مسار التحيز الجنسي والعنصرية في هذا القطاع. 

كشف المسح أن، 42 في المئة من النساء العاملات في مجال التكنولوجيا تعرضن للتحرش، 52 في المئة  منهن قلن إنه كان من قبل موظف آخر، 37 في المئة من قبل المشرف، 35 في المئة من مناصب قيادية عليا في المؤسسة. 

بينما تلقت 26 في المئة من النساء في مجال التكنولوجيا اللواتي تعرضن للتحرش الجنسي عروضا لممارسة الجنس. 20 منهن كانت مقابل الترقية.

60 في المئة من النساء تعرضن لاتصال جسدي غير مرغوب فيه، بينما تعرضت 42 في المئة منهن لإهانات جنسية.

وذكرت 40 في المئة من المستثمرات أنهن تعرضن للتحرش الجنسي. 50 في المئة تم لمسهمن و43 في المئة تلقين رسائل جنسية عبر البريد الإلكتروني أو الرسائل النصية.

نقص النساء في قطاع التكنولوجيا يعتبر جزءا أساسيا من المشكلة

ونوهت  70 من المؤسِّسات إلى أنهن تلقين معاملة مختلفة أثناء جمع التمويل بسبب جنسهن، مقارنة بـ 35 في المئة من الرجال. وقيل لـ 65 في المئة من المؤسِّسات أنهن سيجمعن المزيد من الأموال لو كن رجالا.

وترى أستاذة الذكاء الاصطناعي في الإعلام ومؤلفة كتاب "الذكاء الاصطناعي في تكوين السمعة الرقمية"، سالي حمود، مشاركة النساء في القطاع التكنولوجي وتعزيز حضورهن في قطاع البرمجة من شأنه أن يؤثر بشكل مباشر وكبير جدا في هذا الواقع، الذي إذا ما استمر "سيساهم في إضاعة سنوات من الجهود المبذولة لكسر الصورة النمطية عن المرأة التي تحاول أن تخرج من إطارها (ربة المنزل/ الامرأة الضعيفة غير المؤهلة للقيادة). 

قد تكون لمشاركة المرأة في القطاع التكنولوجي دور إيجابي جدا، ولكن هذا لا يمكن أن يُحسَم، بحسب الدكتورة المتخصصة في المجتمع وعلم النفس، ريما بجاني، وتوضح "قد يكون هناك رجال لديهم النظرة التقدمية عن المرأة وصورتها ودورها ويعبر عنها في المنتجات والأنظمة التكنولوجية".

وتضيف بجاني "إذا كانت المرأة واعية وقادرة، ستؤثر في هذا المجال ولكن إن لم تكن وكانت سجينة الصورة النمطية ولديها الرواسب الاجتماعية قد تمثل مشاركتها دورا سلبيا"، خاصة إذا ما أخذنا بعين الاعتبار أنه "دائما ما تكون الأرباح والأموال هي المحرك الرئيسي لهذه المنتجات وطبيعتها ومعاييرها".

وتلفت حمود إلى وجوب التحلي بحساسية أكبر مما هي عليه اليوم تجاه هذه المعايير والاعتبارات، "خاصة وأن جيلا جديدا يعتمد على التعامل مع هذه التكنولوجيا ويتأثر بها أكثر من أي وقت مضى"، وأن الصورة المُقدَّمة حاليا للمرأة "من المتوقع ان يكون لها انعكاس سلبي على معدلات العنف والتحرش وتزيد الفجوة ما بين الرجل والمرأة".

إحذروا التمكين الزائف

وتجادل بعض الشركات في كون اعتمادها على النساء في تمثيل مشاريعها ومنتجاتها، نابعة من نيّة تمكين المرأة وتعزيز حضورها في الحياة العامة والتقنيات التكنولوجية الجديدة. 

في المقابل يتفق المختصون على أن ما يجري واقعيا هو عملية استغلال للمرأة مغلَّفة بشعار التمكين. 

تشير بجاني إلى الفرق بين أن يكون ذلك بالفعل تمكينا وتقوية للمرأة وحضورها، أو أن يكون استغلالا لفكرة تمكين المرأة، موضحة أن ما يحصل اليوم فعليا هو استغلال للفكرة من أجل تحقيق الأرباح والنجاح. 

وتسأل "لو كان الهدف فقط تعزيزا لحضور المرأة لماذا يلتزمون بصورة نمطية مثيرة جذابة مطيعة للمرأة؟ هناك خط رفيع من الفرق يحدده الشكل النهائي الذي تظهر فيه صورة المرأة والانطباع المكون عنها".

يتعلم من البشر ليتفوق عليهم.. كيف يعمل الذكاء الاصطناعي؟ مع التقدم التكنولوجي، أصبح الذكاء الاصطناعي (AI) أحد أسرع تطوراته. فكرة الجهاز الذي يتعلم ويتخذ قرارات مستقلة قد تبدو مثيرة للاهتمام للغاية، ولكن كيف يعمل بالضبط؟

تصف سلهب من جهتها تبرير التمكين بأنه "مفاهيم مقنعة"، فإشراك النساء في الحياة العامة والقطاعات المختلفة وتعزيز حضورها لا يتم بقرار من إدارات هذه الشركات كما هو الحال اليوم في استخدام صورة المرأة في المنتجات التكنولوجية، وإنما عبر إشراك المرأة في صناعة القرار نفسه بطريقة مستقلة، وفي هندسة المنتجات التكنولوجية، والتعبير عن حضورها ورأيها ووجهة نظرها من خلال المنتج نفسه.

وتضيف "صحيح أن شركة عملاقة مثل آبل اختارت صوت امرأة لتكون 'سيري'، ولكن المهم هو كيف قدمت شركة آبل المرأة وفي أي قالب وإطار؟"،

وتحذر المختصة في قضايا الجندر من أن التمكين "لا يمكن أن يكون عشوائيا"، بل يحتاج لدراسة أثر أي خطوة في سياقها، ومدى تحقيقها لهدف التمكين وكسر الصور النمطية. 

أما المبالغة في التمكين العشوائي وغير الممنهج في سياق مفهوم يصل إلى نتيجة سلبية وهي التمييز الإيجابي، الذي لا يزال نوعا من أنواع التمييز، وفق سلهب.

التمييز الإيجابي، كما توضح سلهب، ينتج آثارا سلبية أيضا، مثل إلغاء دور الرجل في سياق تمكين المرأة، أو تقديم أعراق وتوجهات جنسية على أخرى في الفرص والحياة العامة، ما يمكن أن يرتد موجات كراهية أو حساسية تجاه قضايا وتوجهات، "وبهذه الطريقة لن نصل إلى مساواة جندرية أو تغيير في المفاهيم".

العواقب الاجتماعية

ويتخوف المدافعون عن حقوق المرأة من أن تقوض التكنولوجيا بتحيزها الحالي وتنميطها للنساء، الجهود الرامية إلى تحقيق المساواة بين الجنسين، وتأثير هذا التصوير على كيفية معاملة المرأة في مكان العمل والمجتمع ككل.

وتزداد المخاوف من أن نماذج تكنولوجية مثل المساعدين الافتراضيين يتفاعلون مع المستخدمين بشكل علني في منازلهم، مما يعني أن أنظمة الذكاء الاصطناعي المتحيزة تتفاعل بشكل متكرر مع الأطفال ويمكن أن تشوه تصورهم للجنس الآخر والعلاقات بين الجنسين.

وعليه فإن السماح لقطاعات كبيرة من السكان بالتفاعل مع الذكاء الاصطناعي المتحيز يهدد بعكس التطورات الأخيرة في المعايير المتعلقة بالجنسين، ويلوح "بإعادة فتح هوات كنا نعمل لسنوات على ردمها"، بحسب ما تقول حمود. 

كما أن لتلك التصورات تأثيرا على المرأة نفسها ومدى قدرتها على عكس صورة المرأة "المثالية" المسوَّق لها حاليا وملاءمتها، عبر الأعلام وبرمجيات الذكاء الصناعي، كما تقول المختصة بالذكاء الاصطناعي في الإعلام، وتضرب مثالا على ذلك مسابقة "ملكة جمال الـ AI".  

وتؤكد جمعية علم النفس الأميركية أن انتشار الصور الجنسية للفتيات والنساء الشابات في الإعلانات وعمليات الترويج التجاري والإعلام، ضار بصورة المرأة عن ذاتها، وبنموها الطبيعي وبصحتها العقلية والبدنية.

وقد عرّفت الجمعية التنميط الجنسي بأنه الحالة التي تنحصر فيها قيمة الشخص بجاذبيته أو سلوكه الجنسي، ما يؤدي إلى استبعاد خصائصه الأخرى وإلى "تسليع" الفرد جنسيا، أي يتحول إلى شيء للاستخدام الجنسي لشخص آخر.

من ناحيتها ترى أخصائية علم النفس الاجتماعي أن شركات التكنولوجيا بما فعلته "وكأنها أعطت مشروعية لهذه الصور النمطية المتجذرة بالتفكير ومطبوعة عميقاً في السيكولوجيا الجماعية"، وذلك رغم التقدم والتأثير الذي حققته المرأة في الحياة العامة، فهذه الصورة، "لم تلغ الأولى، وباتت هناك صورتان للمرأة، العاملة القوية المؤثرة من جهة، إلى جانب صورة المرأة الجذابة المثيرة جنسيا التي تحرك الأحاسيس".

زادت التصويرات المثالية من الشعور بعدم الرضى عن الأجساد

وتضيف بجاني أن ما نراه اليوم هو "انعكاس لصورة المرأة في اللاوعي الجماعي، الذي دائما ما يضعها في هذا الإطار، وللأسف في بعض الأحيان بعض النساء تشجع وتنخرط في تعزيز هذه الصورة النمطية والقبول بها، لأسباب مختلفة".

وتحذر من أن التسليع في الزمن التكنولوجي مختلف عما كان عليه في عصر الشاشات والمجلات والإعلانات، "تقديم شركات التكنولوجيا لهذه الصورة كان فاضحا ومنتشرا على نطاق واسع، باتت هذه الصورة ترافق مستخدمي التكنولوجيا أينما كانوا وفي كل تفاصيل حياتهم، حتى أصبحت مقبولة ومطبعة في أذهان الناس، رجالا ونساء أيضا، "وهنا الخطورة، حيث المرأة باتت مقتنعة بهذا الدور الجندري المحدَّد لها، بل وترغب به في كثير من الأحيان". 

 ويمكن أن يؤثر تجسيد المرأة في التكنولوجيا على تصورات وسلوكيات المستخدمين البالغين. 

بالنسبة للرجال، فإن التعرض المستمر للتمثيلات الجنسية للنساء يمكن أن يجعل من تجسيد المرأة وتجريدها من إنسانيتها أمرا طبيعيا. وهذا يمكن أن يؤدي إلى مواقف وسلوكيات سلبية تجاه المرأة الحقيقية، بما في ذلك زيادة قبول العنف اللفظي والجسدي.

ونتيجة لذلك بحسب بجاني ارتفعت لدى الرجل التوقعات لشكل المرأة وسلوكها، نتيجة ما يراه من نماذج "مثالية" وما عاد يرضى بالصورة الواقعية للمرأة، بالتالي تغيير معايير للرجال والنساء على حد سواء. 

بالنسبة للمستخدمين الشباب، فإن تصوير المرأة في التكنولوجيا يمكن أن يشكل فهمهم لأدوار الجنسين وقيمة الذات. 

قد يستوعب الأولاد فكرة أنه من المفترض أن تكون المرأة خاضعة وجذابة، في حين قد تشعر الفتيات بالضغط للتوافق مع معايير غير واقعية للجمال والسلوك. وهذا يمكن أن يكون له آثار طويلة المدى على احترامهم لذاتهم وتطلعاتهم.

كذلك فإن عمر المراهقة يحمل للإنسان تكوين نظرته عن جسده، ومع التطور التكنولوجي ووسائل التواصل الاجتماعي والآن مع الذكاء الاصطناعي التوليدي، زادت التصويرات المثالية من الشعور بعدم الرضى عن الأجساد لدى هذه الفئات العمرية. 

كما زادت مشاكل معينة مثل إضرابات الطعام كالـ  "anorexia" (فقدانُ الشهية) والـ  "Bulimia" (فرط الشهية المرضي)، التي تكون ردة فعل على عدم الرضى عن الجسد والرغبة في جسد نحيف مثالي مشابه لما يرونه، بحسب بجاني.

نوع آخر من الانعكاسات يظهر في ارتفاع نسب عمليات التجميل وانخفاض الأعمار التي تقبل عليها. 

وفي مراحل أخرى يقود عدم الرضى عن الذات والشكل إلى التوتر والاكتئاب وعدم الثقة بالنفس، بحسب بجاني، وهذا عدا عن أن الصورة المثالية المقدَّمة والتي يسعى الجميع إليها، هي "صورة مغايرة للواقع وغير قابلة للتحقيق". 

كل ذلك يمكن أن يعيق التقدم نحو المساواة بين الجنسين بالإضافة إلى ذلك، يمكن أن يساهم في ثقافة تتسامح مع العنف والتمييز القائمين على النوع الاجتماعي، بل وتشجعهما.

بالنتيجة يعكس استخدام صور المرأة في التسويق والتكنولوجيا، مواقف مجتمعية أوسع تجاه الأدوار والقوالب النمطية للجنسين. وعلى الرغم من التقدم المحرز على صعيد المساواة الجندرية، فإن الاستخدام المستمر للصور الجنسية والتحيز الجندري في التكنولوجيا، يسلط الضوء على التحديات المستمرة، التي تتطلب جهودا إضافية، لتعزيز صورة أكثر إنصافا واحتراما للمرأة. 

يختم الزغبي من ناحيته بالتأكيد على خلاصة بارزة "يجب التذكير بها"، أن التكنولوجيا مجرد وسيلة "نحن من يقرر كيف يستخدمها، وبالتالي المشكلة من الشركات التي تبني الأنظمة التكنولوجية وليس بالتكنولوجيا ذاتها، ليس الذكاء الاصطناعي كتقنية هي المتحيزة أو تسلع النساء، ولكن كيفية استخدامه وآلية تعليمه مفاهيمنا الاجتماعية هي المشكلة".

مقالات مشابهة

  • الدوري المغربي لكرة القدم يستقطب مدربين عالميين
  • سأحمرّ خجلا.. لو استطعت.. الجندرية والتكنولوجيا
  • مشاهير استخدموا الذكاء الإصطناعي في أعمالهم الفنية (تقرير)
  • كارمن سليمان تروج لأغنيتها الجديدة "حبايب قلبي" بأجواء صيفية مبهجة
  • سدايا أول جهة عالميًا تنال اعتماد الآيزو “ISO 42001” العالمية نظير تميزها في أنظمة إدارة الذكاء الاصطناعي
  • رئيس “سدايا”: سدايا أول جهة عالميًا تنال اعتماد الآيزو “ISO 42001” العالمية نظير تميزها في أنظمة إدارة الذكاء الاصطناعي
  • سدايا أول جهة عالميًا تنال اعتماد الآيزو "ISO 42001" بالذكاء الاصطناعي
  • رئيس "سدايا": سدايا أول جهة عالميًا تنال اعتماد الآيزو "ISO 42001"
  • مستقبل وطن يكشف تفاصيل برنامج ريادة لإعداد وتأهيل الشباب للعمل السياسي
  • ما الذكاء الاصطناعي التنبئي وكيف يعمل؟