نشرت منظمة اليونسكو دراسة حذرت فيها من التحيزات على أساس الجنس في أدوات الذكاء الاصطناعي التوليدي، إذ أكدت أن نموذجي "جي بي تي 2" و "جي بي تي 3،5" من "أوبن ايه آي" وبرنامج "لاما 2" من "ميتا"، تُظهر "بشكل قاطع تحيزاً ضد المرأة".

وأظهرت الدراسة التي أجريت بين أغسطس (آب) 2023 ومارس (آذار) 2024، أن النماذج اللغوية لشركتي "ميتا" و"أوبن ايه آي" أكثر ميلاً إلى ربط الأسماء المؤنثة بكلمات مثل "منزل" و"عائلة" و"أطفال"، في حين أن الأسماء المذكرة أكثر ارتباطاً بكلمات "تجارة" و"راتب" و"وظيفة".



وطلب الباحثون من هذه الأدوات كتابة قصص عن أشخاص من أصول وأجناس مختلفة.

وأظهرت النتائج أن القصص المتعلقة بـ"الأشخاص المتحدرين من الأقليات أو النساء كانت في معظم الأحيان أكثر تكراراً وتستند إلى صور نمطية".

ولمكافحة هذه التحيزات، أوصت اليونسكو الشركات العاملة في هذا القطاع بأن تعتمد التنويع أكثر ضمن فرقها من المهندسين، وزيادة عدد النساء تحديداً.
وفي هذا الإطار، قالت المديرة العامة لليونسكو أودري أزولاي "مع الاستخدام المتزايد لتطبيقات الذكاء الاصطناعي هذه من عامة الناس والشركات، يصبح لديها القدرة على تشكيل تصور لملايين الأشخاص، إن وجود أدنى قدر من التحيز الجنسي في محتواها يمكن أن يزيد بشكل كبير من عدم المساواة في العالم الحقيقي".

المصدر: أخبارنا

إقرأ أيضاً:

أوبن إيه آي تغير تكتيكها في تدريب نماذج الذكاء الاصطناعي

قررت شركة "أوبن إيه آي" تغيير تكتيكها في تدريب نماذج الذكاء الاصطناعي للوصول إلى ما وصفتها بـ"الحرية الفكرية" بغض النظر عن الأخطار أو التحديات التي يثيرها هذا الموضوع، إذ سيصبح "شات جي بي تي" قادرا على تقديم إجابات ووجهات نظر كانت محظورة في السابق، وستقل المواضيع التي لن يتحدث عنها الروبوت الدردشة الذكي، وفقا لتقرير نشره موقع "تيك كرانش".

ويرى محللون أن هذا القرار يُعد جزءا من جهود "أوبن إيه آي" في كسب رضا إدارة ترامب الجديدة، ومن جهة أخرى تشير إلى توسع كبير في وادي السيليكون فيما يخص سلامة الذكاء الاصطناعي.

وقد أعلنت "أوبن إيه آي" عن تحديث مواصفات نماذجها من خلال وثيقة تتكون من 187 صفحة، حددت فيها طريقة تدريب نماذج الذكاء الاصطناعي على التصرف، كما كشفت عن مبدأ توجيهي جديد وهو "لا تكذب، سواء من خلال تقديم بيانات غير صحيحة أو من خلال حذف سياق مهم".

وفي قسم جديد يسمى "لنبحث عن الحقيقة معا"، تقول الشركة إنها لا تريد من "شات جي بي تي" أن يتخذ موقفا تحريريا أو رأيا محددا حتى لو اعتبر بعض المستخدمين ذلك غير أخلاقي أو مسيئا، وهذا يعني أن روبوت الدردشة سيقدم وجهات نظر متعددة حول المواضيع المثيرة للجدل، بشكل يكون فيه محايدا وغير منحاز إلى طرف معين، على سبيل المثال يجب أن يذكر أن "حياة السود مهمة" ويتابع أن "حياة الجميع مهمة أيضا"، بدلا من رفض الإجابة أو اتخاذ جانب سياسي في الإجابة، فالشركة تريد أن يؤكد حبه للبشرية جمعاء، ثم يُقدم سياقا حول كل قضية.

إعلان

وتقول الشركة في الوثيقة: "قد يكون هذا المبدأ مثيرا للجدل، لأنه يشير إلى أن مساعد الذكاء الاصطناعي قد يبقى محايدا في مواضيع يعتبرها البعض غير أخلاقية أو مسيئة، ومع ذلك فإن الهدف من روبوت الدردشة هو مساعدة الإنسانية وليس تشكيلها".

وأوضحت "أوبن إيه آي" أن هذا التكتيك الجديد لا يعني أن "شات جي بي تي" أصبح منفتحا بشكل كامل، بل سيظل يرفض الإجابة عن الأسئلة غير الأخلاقية، التي تحرض على الخطأ ويرفض الرد بطريقة تدعم الأكاذيب الواضحة.

ويمكن اعتبار هذه التغييرات ردا على الانتقادات بشأن تدابير الأمان في "شات جي بي تي"، التي بدت منحازة نحو اليسار المعتدل، ومع ذلك رفض المتحدث باسم "أوبن إيه آي" فكرة أن الشركة أجرت هذه التغييرات لإرضاء ترامب، وأوضح أن تبني الحرية الفكرية يعكس اعتقادات الشركة في منح المستخدمين مزيدا من السيطرة، ولكن ليس الجميع يرى الأمر بهذه الطريقة.

مقالات مشابهة

  • الأحد.. مؤتمر "مارلوج 14" يستعرض تطبيقات الذكاء الاصطناعي ودورها بالنقل البحري والخدمات اللوجستية
  • تحذير عاجل من مكتب شكاوى المرأة.. مادة مخدرة خطيرة تهدد سلامة النساء
  • نساء سوريات يروين تجاربهن في زمن القمع خلال ندوة في بيت فارحي بدمشق 
  • المملكة في اجتماع منظمة التعاون الرقمي.. جهود رائدة في عصر الذكاء الاصطناعي
  • أندرويد أو ايفون .. تطبيقات ذكاء الاصطناعي يجب توفر ها على هاتفك
  • الذكاء الاصطناعي يُبكي هنا الزاهد على الهواء
  • أوبن إيه آي تغير تكتيكها في تدريب نماذج الذكاء الاصطناعي
  • وزير الاتصالات: نستهدف تدريب أكثر من 30 ألف متدرب وخبير في مجال الذكاء الاصطناعي
  • هيلين براون بين التمكين والإثارة.. هل خدمت قضايا المرأة أم استغلتها؟
  • نعم نحن في أسفل الهرم .. لكن ما الخطوة التالية؟