بناية سكنية على شكل حي شعبي.. حقيقة الصورة المتداولة في مصر
تاريخ النشر: 23rd, June 2024 GMT
ينشر المصمم والمعماري المصري، حسن رجب، منذ سنوات على صفحته في إنستغرام تصاميم مولدة باستخدام برمجيات الذكاء الاصطناعي، إلا أن مواقع عدة تأخذ هذه الأعمال وتنشرها على أنها صور حقيقية.
آخر هذه المنشورات صورة زعم ناشروها أنها لعمارة ضخمة في مصر، لكنها في الحقيقة مصممة أيضا باستخدام الذكاء الاصطناعي.
وحصدت المنشورات آلاف التفاعلات ومئات المشاركات من صفحات عدة على موقع فيسبوك.
وجاء في التعليقات المرافقة لها “صورة لبناء سكني في أحد الأحياء الشعبية في القاهرة”.
وصدق كثيرون أن الصورة حقيقية فيما قال آخرون إنها مولدة باستخدام الذكاء الاصطناعي.
إثر ذلك أرشد التفتيش عن الصورة إلى النسخة الأصلية منشورة في حساب رجب على موقع إنستغرام في الثامن من فبراير 2024.
ونشرت هذه الصورة ضمن مجموعة تصميمات أخرى تظهر أبنية سكنية شعبية ضخمة.
وجاء في التعليق المرافق لها أنها مصممة باستخدام الذكاء الاصطناعي تحت عنوان “رسومات القاهرة”.
على ضوء ذلك، أكد حسن رجب أنه هو من صمم هذه الصور بالذكاء الاصطناعي.
وقال لصحفي بخدمة تقصي صحة الأخبار في وكالة فرانس برس إنه استخدم أداة Midjourney لتوليد الصور، إضافة إلى أدوات أخرى.
وتتيح هذه التطبيقات إنشاء صور من وصف مكتوب بسيط يسمى “الأمر” (prompt)، وقد حظيت باهتمام متزايد على مواقع التواصل الاجتماعي.
وأظهرت هذه البرامج قدرات كبيرة في إنشاء الصور، لكن اتضح أيضا أنها تنطوي على أخطار إذ يمكن أن تستخدم لغرض التضليل.
وعلى الرغم من أن المصمم حسن رجب يرفق تصميماته بإشارة توضح أنها مولدة باستخدام الذكاء الاصطناعي، إلا أن كثيرين يعتقدون أنها حقيقية خصوصاً أن صفحات أخرى تعيد نشرها على أنها صور فوتوغرافية.
ويقول رجب في هذا الإطار “حينما تكون الصور مثيرة للجدل، تتعمد بعض الصفحات عدم إطلاع متابعيها أنها منتجة بالذكاء الإصطناعي، ما يجذب تفاعلا أكبر. للأسف هذه حال معظم منصات التواصل وأعمالي ليست استثناء”.
ويشير إلى أن البعض قد يعتقدون أن تصاميمه حقيقية لأنه يضفي شكلا من الواقعية عليها نظرا لأنه مهندس معماري في الأساس.
فرانس برس
إنضم لقناة النيلين على واتساب
المصدر: موقع النيلين
كلمات دلالية: باستخدام الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.