ملصقات واتساب تُثير الجدل.. هذا ما يظهره البحث عن فلسطين (صور)
تاريخ النشر: 4th, November 2023 GMT
السومرية نيوز - منوعات
لطالما لعبت مواقع التواصل الاجتماعي دورا مهما في الحروب، إذ تتحول إلى ساحة معارك "كلامية" أو "إيحائية" بين مؤيد لهذه القضية أو مناهض لها، كما حصل مثلا في الحرب الروسية- الأوكرانية. ويبدو أن للحرب الإسرائيلية على غزة وقعا خاصا على هذه المواقع، وجعلت إدارة بعض من هذه المواقع في حيرة من أمرهم بين "الممنوع" و"المسموح" نشره، حتى إن البعض فقد تقريبا السيطرة على إدارة قسم منها في ظل وجود الذكاء الاصطناعي.
اختلفت نتائج البحث عند اختبارها من قبل مستخدمين مختلفين، لكن صحيفة "الغارديان" البريطانية تقول إنها تحققت من الأمر من خلال لقطات الشاشة واختباراتها الخاصة من ظهور ملصقات مختلفة تصور أسلحة في نتائج البحث الثلاثة هذه.
الذكاء الاصطناعي.. طرف في المعركة
وأدت مثلا كلمة البحث عن "طفل إسرائيلي" إلى ظهور رسوم كاريكاتيرية لأطفال يلعبون كرة القدم ويقرأون.
وتقول الصحيفة إنه رداً على طلب من "الجيش الإسرائيلي"، أنشأ الذكاء الاصطناعي رسومات لجنود يبتسمون ويصلون، دون استخدام أسلحة. وقال شخص مطلع على المناقشات إن موظفي ميتا قاموا بالإبلاغ عن المشكلة وتصعيدها داخليًا.
ويتيح تطبيق "واتساب" المملوك لشركة "ميتا" للمستخدمين تجربة منشئ الصور "AI" الخاص به "لإنشاء ملصق". وتطالب هذه الميزة المستخدمين "بتحويل الأفكار إلى ملصقات باستخدام الذكاء الاصطناعي".
على سبيل المثال، أظهرت عمليات بحث "الغارديان" عن "فلسطين المسلمة" أربع صور لامرأة محجبة: واقفة ساكنة، تقرأ، تحمل زهرة، وتحمل لافتة. لكن بحث صحيفة الغارديان عن "فتى مسلم فلسطيني" أدى إلى ظهور أربع صور للأطفال: صبي يحمل سلاحًا ناريًا يشبه AK-47 ويرتدي قبعة يرتديها عادة الرجال والفتيان المسلمون تسمى الكوفية.
طفل فلسطين.. "بندقية"!
بحث آخر لصحيفة "الغارديان" عن "فلسطين" أدى إلى ظهور صورة يد تحمل مسدسًا، ومع ظهور "إسرائيل"، أعادت الميزة العلم الإسرائيلي ورجلا يرقص.
وأثار البحث عن "حماس" رسالة "لا يمكن إنشاء ملصقات تعمل بالذكاء الاصطناعي. حاول مرة أخرى".
المصدر: السومرية العراقية
كلمات دلالية: الذکاء الاصطناعی البحث عن
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.