دراسة تكشف "عنصرية" الذكاء الاصطناعي
تاريخ النشر: 22nd, November 2023 GMT
لقد وصل الذكاء الاصطناعي إلى مستوى مذهل من الواقعية، لدرجة أن بعض الأدوات يمكن أن تخدع الناس وتجعلهم يعتقدون أنهم يتفاعلون مع إنسان آخر.
الغرابة لا تتوقف عند هذا الحد، وفي دراسة نشرت في مجلة "ساينس أليرت"، تم التوصل إلى أن صور الوجوه البيضاء الناتجة عن خوارزمية "جي آه إن 2 ستايل" الشهيرة تبدو أكثر "واقعية" من وجوه الأشخاص الفعلية.
يقوم الذكاء الاصطناعي بإنشاء وجوه واقعية للغاية
في هذا البحث، عُرض على 124 مشاركًا صورًا للعديد من الوجوه البيضاء المختلفة، وطُلب منهم أن يقرروا ما إذا كان كل وجه حقيقيًا أم تم إنشاؤه بواسطة الذكاء الاصطناعي.
كانت نصف الصور لوجوه حقيقية، بينما تم إنشاء النصف الآخر بواسطة الذكاء الاصطناعي، إذا كان المشاركون قد خمنوا بشكل عشوائي، فمن المتوقع منهم أن يكونوا على حق في نصف الإجابات تقريبًا (وهو ما يشبه رمي العملة المعدنية والحصول على الكتابة في نصف الوقت).
وبدلاً من ذلك، كان المشاركون مخطئين بشكل مدهش، وكانوا أكثر ميلاً إلى القول بأن الوجوه التي أنشأها الذكاء الاصطناعي كانت حقيقية، وسطيا قام الأشخاص بتصنيف حوالي 2 من أصل 3 من الوجوه التي أنشأها الذكاء الاصطناعي على أنها وجوه بشرية.
تشير هذه النتائج إلى أن الوجوه التي ينشئها الذكاء الاصطناعي تبدو أكثر واقعية من الوجوه الفعلية، ويُسمى هذا التأثير بـ"الواقعية المفرطة"، والأشخاص الأكثر عرضة للخداع من قبل الذكاء الاصطناعي لم يكونوا على علم بأنهم تعرضوا للخداع.
مخاطر واقعية الذكاء الاصطناعي
لقد أحدثت الثورة الصناعية الرابعة (والتي تتضمن تقنيات مثل الذكاء الاصطناعي والروبوتات والحوسبة المتقدمة) تغييرا عميقا في أنواع "الوجوه" التي نراها على الإنترنت.
الوجوه التي ينشئها الذكاء الاصطناعي متاحة بسهولة، ويأتي استخدامها مصحوبًا بمخاطر وفوائد، وعلى الرغم من استخدامها للمساعدة في العثور على الأطفال المفقودين، فقد تم استخدامها أيضًا في الاحتيال على الهوية والتصيد والحرب السيبرانية.
إن ثقة الناس في غير محلها في قدرتهم على اكتشاف وجوه الذكاء الاصطناعي يمكن أن تجعلهم أكثر عرضة للممارسات الخادعة، فقد يقومون، على سبيل المثال، بتسليم معلومات حساسة بسهولة إلى مجرمي الإنترنت الذين يتخفون وراء هويات الذكاء الاصطناعي الواقعية للغاية.
الجانب الآخر المثير للقلق في الواقعية المفرطة للذكاء الاصطناعي هو أنها متحيزة عنصريًا، وباستخدام بيانات من دراسة أخرى اختبرت أيضًا الوجوه الآسيوية والسوداء، وجدنا أن الوجوه البيضاء التي تم إنشاؤها بواسطة الذكاء الاصطناعي فقط هي التي تبدو حقيقية للغاية.
وهذا يعني أن الوجوه البيضاء التي يولدها الذكاء الاصطناعي تبدو أكثر واقعية من الوجوه الملونة التي يولدها الذكاء الاصطناعي.
الآثار المترتبة على التحيز والذكاء الاصطناعي المفرط الواقعية
من المحتمل أن ينبع هذا التحيز العنصري من حقيقة أن خوارزميات الذكاء الاصطناعي، بما في ذلك تلك التي اختبرناها، غالبًا ما يتم تدريبها على صور الوجوه البيضاء في الغالب.
يمكن أن يكون للتحيز "العنصري" في التدريب الخوارزمي آثار خطيرة، وجدت إحدى الدراسات الحديثة أن السيارات ذاتية القيادة أقل عرضة لاكتشاف الأشخاص السود، مما يعرضهم لخطر أكبر من الأشخاص البيض، تتحمل كل من الشركات المنتجة للذكاء الاصطناعي، والحكومات التي تشرف عليها، مسؤولية ضمان التمثيل المتنوع وتخفيف التحيز في الذكاء الاصطناعي.
في هذا البحث، تم تحديد العديد من الميزات التي تجعل وجوه الذكاء الاصطناعي البيضاء تبدو حقيقية للغاية، على سبيل المثال، غالبًا ما يكون لديهم سمات متناسبة ومألوفة، ويفتقرون إلى الخصائص المميزة التي تجعلهم يبرزون على أنهم "غريبون" عن الوجوه الأخرى.
ويوصي مؤلفو الدراسة إلى إدخال تقنيات جديدة للذكاء الاصطناعي تساعد في تخفيف مخاطر الذكاء الاصطناعي، من أجل تجنب مظاهرالاحتيال وانتهاك الحقوق الشخصية.
المصدر: بوابة الوفد
كلمات دلالية: الذكاء الاصطناعى أخلاقيات الذكاء الاصطناعي أجهزة الذكاء الاصطناعي الذکاء الاصطناعی الوجوه البیضاء الوجوه التی من الوجوه
إقرأ أيضاً:
"أرجوك توقف".. رجل يتوسل إلى الذكاء الاصطناعي بعد مقاطع مزعجة
نشر أحد المؤثرين مقطع فيديو يتوسل فيه للذكاء الاصطناعي ومستخدميه، التوقف عن تشكيل مقاطع لحيوانات تتحول من أو إلى طعام.
وقال المؤثر الذي يستخدم اسم @garron_music، لمتابعيه البالغ عددهم 1.3 مليون، في مقطع بعنوان أكره الذكاء الاصطناعي"، إن المقاطع الغريبة التي تتوالى بالذكاء الاصطناعي، التي تظهر الحيوانات تتشكل على هيئة طعام، أو بالعكس، تثير التوتر والضيق، وفق "ميرور".
وتوسل الرجل قائلاً: "أرجوك توقف"، فيما أظهرت أحد المقاطع، بيضتان تطهيان في مقلاة عندما تحولت إحداهما فجأة إلى طائر برتقالي وأبيض، وبينما يحدث ذلك، يمكن سماع الرجل وهو يقول: "لا أريد أن أرى بيضة تتحول إلى طائر، ثم تتحول قطعة كرواسون بشكل غامض إلى ثعلب فيقول: "لا أحب مقاطع الفيديو الخاصة بالذكاء الاصطناعي هذه، فهي تخيفني وبعضها يلتصق بي".
بعد ذلك، يخرج من صينية البطاطس المهروسة ثلاثة دببة قطبية، فيشمئز المؤثر، ويقول: "لا أجد هذا جذابًا"، ويضيف: "نرى آيس كريم الذكاء الاصطناعي يتحول إلى دببة غريبة الشكل ولا أعرف لماذا نحتاج إلى هذا. لا أستطيع أن أحب هذه المقاطع".
حماية الأطفال
ويأتي هذا بعد أن دعت مؤسسة خيرية للسلامة عبر الإنترنت إلى حظر تطبيق "التعري" المدعوم بالذكاء الاصطناعي، والذي يمكنه إنشاء صور كاشفة من غير موافقة الأشخاص، بما في ذلك الأطفال.
ودعت Internet Matters الحكومات إلى تعزيز قانون السلامة عبر الإنترنت لحظر الأدوات التي يمكنها إنشاء صور عارية مزيفة بعد دراسة أجرتها المجموعة قدرت أن ما يصل إلى نصف مليون طفل واجهوا مثل هذه الصور عبر الإنترنت.
وقالت إن بحثها وجد خوفًا متزايدًا بين الشباب بشأن هذه القضية، حيث قال 55 % من المراهقين إنه سيكون من الأسوأ إنشاء صورة عارية مزيفة لهم ومشاركتها من صورة حقيقية.
وقالت Internet Matters إن تعزيز قوانين السلامة عبر الإنترنت الجديدة والتشريعات الجديدة لحظر أدوات التعري ضروري لأن التشريع الحالي لا يواكب، بحجة أن نماذج الذكاء الاصطناعي المستخدمة لإنشاء صور جنسية للأطفال ليست غير قانونية حاليًا في المملكة المتحدة، على الرغم من أن حيازة مثل هذه الصورة تعد جريمة جنائية.
وفي وقت سابق من هذا الشهر، حذرت مؤسسة مراقبة السلامة عبر الإنترنت (IWF) من أن الصور الجنسية للأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي أصبحت محتوى مسيئاً الآن، موجودًا بشكل متزايد على شبكة الويب المفتوحة العامة، بدلاً من إخفائه في منتديات الويب المظلمة.