بوابة الوفد:
2025-01-02@22:05:32 GMT

دراسة تكشف "عنصرية" الذكاء الاصطناعي

تاريخ النشر: 22nd, November 2023 GMT

لقد وصل الذكاء الاصطناعي إلى مستوى مذهل من الواقعية، لدرجة أن بعض الأدوات يمكن أن تخدع الناس وتجعلهم يعتقدون أنهم يتفاعلون مع إنسان آخر.
الغرابة لا تتوقف عند هذا الحد، وفي دراسة نشرت في مجلة "ساينس أليرت"، تم التوصل إلى أن صور الوجوه البيضاء الناتجة عن خوارزمية "جي آه إن 2 ستايل" الشهيرة تبدو أكثر "واقعية" من وجوه الأشخاص الفعلية.


يقوم الذكاء الاصطناعي بإنشاء وجوه واقعية للغاية
في هذا البحث، عُرض على 124 مشاركًا صورًا للعديد من الوجوه البيضاء المختلفة، وطُلب منهم أن يقرروا ما إذا كان كل وجه حقيقيًا أم تم إنشاؤه بواسطة الذكاء الاصطناعي.
كانت نصف الصور لوجوه حقيقية، بينما تم إنشاء النصف الآخر بواسطة الذكاء الاصطناعي، إذا كان المشاركون قد خمنوا بشكل عشوائي، فمن المتوقع منهم أن يكونوا على حق في نصف الإجابات تقريبًا (وهو ما يشبه رمي العملة المعدنية والحصول على الكتابة في نصف الوقت).
وبدلاً من ذلك، كان المشاركون مخطئين بشكل مدهش، وكانوا أكثر ميلاً إلى القول بأن الوجوه التي أنشأها الذكاء الاصطناعي كانت حقيقية، وسطيا قام الأشخاص بتصنيف حوالي 2 من أصل 3 من الوجوه التي أنشأها الذكاء الاصطناعي على أنها وجوه بشرية.
تشير هذه النتائج إلى أن الوجوه التي ينشئها الذكاء الاصطناعي تبدو أكثر واقعية من الوجوه الفعلية، ويُسمى هذا التأثير بـ"الواقعية المفرطة"، والأشخاص الأكثر عرضة للخداع من قبل الذكاء الاصطناعي لم يكونوا على علم بأنهم تعرضوا للخداع.
مخاطر واقعية الذكاء الاصطناعي
لقد أحدثت الثورة الصناعية الرابعة (والتي تتضمن تقنيات مثل الذكاء الاصطناعي والروبوتات والحوسبة المتقدمة) تغييرا عميقا في أنواع "الوجوه" التي نراها على الإنترنت.
الوجوه التي ينشئها الذكاء الاصطناعي متاحة بسهولة، ويأتي استخدامها مصحوبًا بمخاطر وفوائد، وعلى الرغم من استخدامها للمساعدة في العثور على الأطفال المفقودين، فقد تم استخدامها أيضًا في الاحتيال على الهوية والتصيد والحرب السيبرانية.
إن ثقة الناس في غير محلها في قدرتهم على اكتشاف وجوه الذكاء الاصطناعي يمكن أن تجعلهم أكثر عرضة للممارسات الخادعة، فقد يقومون، على سبيل المثال، بتسليم معلومات حساسة بسهولة إلى مجرمي الإنترنت الذين يتخفون وراء هويات الذكاء الاصطناعي الواقعية للغاية.
الجانب الآخر المثير للقلق في الواقعية المفرطة للذكاء الاصطناعي هو أنها متحيزة عنصريًا، وباستخدام بيانات من دراسة أخرى اختبرت أيضًا الوجوه الآسيوية والسوداء، وجدنا أن الوجوه البيضاء التي تم إنشاؤها بواسطة الذكاء الاصطناعي فقط هي التي تبدو حقيقية للغاية.
وهذا يعني أن الوجوه البيضاء التي يولدها الذكاء الاصطناعي تبدو أكثر واقعية من الوجوه الملونة التي يولدها الذكاء الاصطناعي.
الآثار المترتبة على التحيز والذكاء الاصطناعي المفرط الواقعية
من المحتمل أن ينبع هذا التحيز العنصري من حقيقة أن خوارزميات الذكاء الاصطناعي، بما في ذلك تلك التي اختبرناها، غالبًا ما يتم تدريبها على صور الوجوه البيضاء في الغالب.
يمكن أن يكون للتحيز "العنصري" في التدريب الخوارزمي آثار خطيرة، وجدت إحدى الدراسات الحديثة أن السيارات ذاتية القيادة أقل عرضة لاكتشاف الأشخاص السود، مما يعرضهم لخطر أكبر من الأشخاص البيض، تتحمل كل من الشركات المنتجة للذكاء الاصطناعي، والحكومات التي تشرف عليها، مسؤولية ضمان التمثيل المتنوع وتخفيف التحيز في الذكاء الاصطناعي.

في هذا البحث، تم تحديد العديد من الميزات التي تجعل وجوه الذكاء الاصطناعي البيضاء تبدو حقيقية للغاية، على سبيل المثال، غالبًا ما يكون لديهم سمات متناسبة ومألوفة، ويفتقرون إلى الخصائص المميزة التي تجعلهم يبرزون على أنهم "غريبون" عن الوجوه الأخرى.
ويوصي مؤلفو الدراسة إلى إدخال تقنيات جديدة للذكاء الاصطناعي تساعد في تخفيف مخاطر الذكاء الاصطناعي، من أجل تجنب مظاهرالاحتيال وانتهاك الحقوق الشخصية.

المصدر: بوابة الوفد

كلمات دلالية: الذكاء الاصطناعى أخلاقيات الذكاء الاصطناعي أجهزة الذكاء الاصطناعي الذکاء الاصطناعی الوجوه البیضاء الوجوه التی من الوجوه

إقرأ أيضاً:

الذكاء الاصطناعي قد “يبيع قراراتك” قبل اتخاذها

1 يناير، 2025

بغداد/المسلة: قد يصبح وكلاء الذكاء الاصطناعي قادرين على التأثير على نواياك بشكل سري، ما يخلق حدودًا تجارية جديدة يطلق عليها الباحثون اسم “اقتصاد النية”.

وقد نشهد في المستقبل القريب مساعدين للذكاء الاصطناعي يمكنهم التنبؤ بالقرارات التي نريد اتخاذها والتأثير عليها في مرحلة مبكرة، وبيع هذه “النوايا” المتطورة في الوقت الحقيقي للشركات القادرة على تلبية الاحتياجات حتى قبل أن نتخذ قرارنا.
تخيل أنظمة الذكاء الاصطناعي القادرة على التنبؤ بقراراتك وبيعها للشركات قبل أن تتخذها. ووفقًا للباحثين في جامعة كامبريدج، فإن هذا السيناريو المزعج قد يتحول إلى حقيقة في ما يطلقون عليه “اقتصاد النية” – وهو سوق جديد حيث تصبح الدوافع البشرية هي عملة العصر الرقمي.

ويحذر الدكتور جوني بين، مؤرخ التكنولوجيا في مركز ليفرهولم لمستقبل الذكاء في كامبريدج، من أن “اقتصاد النية سوف يعامل دوافعك باعتبارها العملة الجديدة ما لم يتم تنظيمه. وسوف يكون بمثابة اندفاعة ذهبية لأولئك الذين يستهدفون النوايا البشرية ويوجهونها ويبيعونها”.
ويزعم الباحثون أن صعود الذكاء الاصطناعي التفاعلي وروبوتات الدردشة يخلق فرصًا غير مسبوقة للتلاعب الاجتماعي. وسوف تجمع هذه الأنظمة بين معرفة عاداتنا عبر الإنترنت ومحاكاة الشخصية المتطورة لبناء مستويات عميقة من الثقة، كل ذلك في حين تجمع بيانات نفسية حميمة من خلال المحادثة غير الرسمية.
يوضح الدكتور يعقوب شودري، وهو باحث زائر في معهد لندن لأبحاث السياسة الخارجية بجامعة كامبريدج، أن “ما يقوله الناس أثناء المحادثة، وكيف يقولون ذلك، ونوع الاستنتاجات التي يمكن التوصل إليها في الوقت الفعلي نتيجة لذلك، أكثر حميمية بكثير من مجرد سجلات التفاعلات عبر الإنترنت”.

وقال: “يتم إنفاق موارد هائلة لوضع مساعدي الذكاء الاصطناعي في كل مجال من مجالات الحياة، وهو ما ينبغي أن يثير التساؤل حول مصالح وأغراض من تم تصميم هؤلاء المساعدين المزعومين لخدمتهم”.

إن شركات التكنولوجيا الكبرى تضع الأساس لهذا المستقبل بالفعل. فقد دعت شركة “OpenAI” إلى “البيانات التي تعبر عن النية البشرية… عبر أي لغة وموضوع وتنسيق”.

ويتضمن إطار عمل المطورين الجديد لشركة “Apple” بروتوكولات “للتنبؤ بالإجراءات التي قد يتخذها شخص ما في المستقبل”. وفي الوقت ذاتهذ، ناقش الرئيس التنفيذي لشركة “Nvidia” علنًا استخدام نماذج لغة الذكاء الاصطناعي لمعرفة النية والرغبة.
إن العواقب قد تكون بعيدة المدى، وتؤثر على كل شيء بدءاً من اختيارات المستهلكين وحتى العمليات الديمقراطية. ويحذر جوني بين قائلاً: “يتعين علينا أن نبدأ في النظر في التأثير المحتمل لمثل هذه السوق على التطلعات البشرية، بما في ذلك الانتخابات الحرة والنزيهة، والصحافة الحرة، والمنافسة العادلة في السوق، قبل أن نصبح ضحايا لعواقبها غير المقصودة”.

قد تتجلى هذه التكنولوجيا بطرق مفيدة على ما يبدو ــ مثل مساعد الذكاء الاصطناعي الذي يقترح تذاكر السينما بعد أن يكتشف أنك متوتر (“ذكرت أنك تشعر بالإرهاق، هل أحجز لك تذكرة السينما التي تحدثنا عنها؟”). ولكن وراء مثل هذه التسهيلات يكمن نظام متطور لتوجيه المحادثات والسلوكيات لصالح منصات أو معلنين أو حتى منظمات سياسية محددة.
وبحسب مجلة ” scienceblog” فإنه على الرغم أن من الباحثين يعترفون بأن هذا المستقبل ليس حتميًا، فإنهم يؤكدون على الحاجة إلى التوعية العامة والمناقشة الفورية. ويوضح بين أن “الوعي العام بما هو قادم هو المفتاح لضمان عدم سلوكنا الطريق الخطأ”.

المسلة – متابعة – وكالات

النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.

About Post Author moh moh

See author's posts

مقالات مشابهة

  • دراسة: الكثير من الأطباء يستخدمون الذكاء الاصطناعي في الرعاية الطبية
  • الأرشيف والمكتبة الوطنية يناقش الذكاء الاصطناعي والإعلام
  • الذكاء الاصطناعي قد “يبيع قراراتك” قبل اتخاذها
  • مدبولي: أقل راتب في قطاع الذكاء الاصطناعي يبدأ من 15 ألف جنيه
  • الأعلى للثقافة: الذكاء الاصطناعي أحد المخاطر التي تواجه العالم
  • الذكاء الاصطناعي والترجمة
  • مع الذكاء الاصطناعي.. كُن مستعدًا لوظائف المستقبل
  • استخدام الذكاء الاصطناعي للتحدث مع الحيوانات
  • كل أسبوع.. خطر الذكاء الاصطناعي على القيم الأخلاقية
  • تكنولوجيا القرن الـ19 التي تهدد الذكاء الاصطناعي في أميركا