انستغرام تعتذر لإضافة كلمة إرهابي على بعض الحسابات الفلسطينية
تاريخ النشر: 20th, October 2023 GMT
اعتذرت شركة ميتا عن إضافة كلمة "إرهابي" إلى السيرة الذاتية لبعض مستخدمي منصة إنستغرام الذين يصفون أنفسهم بأنهم فلسطينيين، وفقا لشبكة "بي بي سي" البريطانية.
وقالت ميتا إنها أصلحت مشكلة "تسببت لفترة وجيزة في ترجمات عربية غير لائقة" في بعض منتجاتها، واعتذرت الشركة بشدة عن حدوث ذلك، بحسب "بي بي سي".
وسبق أن واجهت المنصة أيضا اتهامات بقمع المحتوى الذي يعبر عن الدعم للفلسطينيين خلال الصراع بين إسرائيل وغزة.
وأكد مستخدمو المنصة، إنه تم "حظرهم في الظل" على إنستغرام بسبب منشورات مؤيدة للفلسطينيين. يحدث هذا عندما تتدخل إحدى المنصات للتأكد من عدم ظهور المنشورات في خلاصات الأشخاص الآخرين.
وذكر المستخدمون أن المنشورات خلال 24 ساعة على القصص التي تشير إلى الأحداث في غزة، حظيت بمشاهدات أقل من غيرها وأنه لا يمكن العثور على حساباتهم بسهولة في البحث.
وذكرت الشبكة، "أن ميتا أقرت بوجود خطأ أثر على القصص، لكنه قال إنه لا علاقة له بالموضوع".
وفي أيار/مايو 2021، اتهمت منظمة هيومن رايتس ووتش الحقوقية، موقع إنستغرام بإزالة مقاطع الفيديو والصور والتعليقات حول الأزمة.
وقالت شركة التواصل الاجتماعي ردًا على ذلك، إنه تمت إزالة المنشورات لاحتوائها على "خطاب كراهية أو رموز" وغيرت خوارزمياتها، لكنها دفعت ميتا إلى إجراء مراجعة مستقلة لاعتدالها في محتوى الصراع الإسرائيلي الفلسطيني لعام 2021.
ومنذ انطلاق عملية طوفان الأقصى تشن شركة ميتا حملة قمع وتقييد واسعة ضد المحتوى الفلسطيني، حيث حظرت وأوقفت آلاف الحسابات بذريعة بث خطاب الكراهية.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة مقابلات سياسة دولية المحتوى الفلسطيني انستغرام مواقع التواصل المحتوى الفلسطيني طوفان الاقصي سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة
إقرأ أيضاً:
ميتا قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية
تعهد الرئيس التنفيذي لشركة "ميتا" مارك زوكربيرغ بجعل الذكاء الاصطناعي العام "إيه جي آي" (AGI) متاحا للعامة يوما ما، ولكن في وثيقة جديدة اقترحت ميتا أنها لن تُصدر نظام ذكاء اصطناعي متقدما للعلن في حال وجود سيناريوهات معينة قد تُشكل خطرا أو ضررا ما. بحسب تقرير نشره موقع "تيك كرانش".
ويُشاع أن الذكاء الاصطناعي العام قادر على التعلم الذاتي ويمكنه إنجاز كل المهمات التي يمكن للبشر القيام بها، على عكس الذكاء الاصطناعي التقليدي الذي يفعل ما دُرب عليه فقط، ولهذا فإن ميتا قلقة من وقوع هذه التقنية المتقدمة في أيدٍ خاطئة وعدم قدرتها على السيطرة عليها.
وكانت الوثيقة بعنوان إطار عمل الذكاء الاصطناعي المتقدم (Frontier AI Framework) حيث حددت ميتا نوعين من الأنظمة التي تعتبرها عالية الخطورة في حال طرحها وهما "أنظمة عالية الخطورة" و"أنظمة فائقة الخطورة".
وبحسب تعريف ميتا فإن كلا من الأنظمة "عالية الخطورة" و"فائقة الخطورة" تساعد على تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، ولكن الفارق هو أن الأنظمة "فائقة الخطورة" قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها، في المقابل قد تساعد الأنظمة "عالية الخطورة" في تنفيذ هجوم، ولكن يمكن السيطرة عليه نسبيا لأنه ليس بمستوى الفاعلية مثل الأنظمة فائقة الخطورة.
إعلانوذكرت ميتا بعض الأمثلة عن هذه الهجمات مثل اختراق نظام التشفير التام بين الطرفين كالذي تستخدمه واتساب وانتشار أسلحة بيولوجية عالية التأثير، وتقر الشركة بأن قائمة الكوارث المحتملة في الوثيقة ليست شاملة ولكنها الأكثر احتمالا في حال إطلاق نظام ذكاء اصطناعي قوي.
ومن الجدير بالذكر أن ميتا لا تُصنف مخاطر الأنظمة استنادا إلى اختبار تجريبي واحد فقط، بل تعتمد على مدخلات عديدة أجراها باحثون داخل الشركة وخارجها والذين يخضعون لمراجعة من قبل صناع قرار رفيعي المستوى.
وفي حال قررت ميتا أن نظاما ما يُعتبر "عالي الخطورة" فإنها ستقيد الوصول إلى هذا النظام داخليا ولن تطلقه حتى تتخذ تدابير مناسبة لتقليل المخاطر إلى مستويات معتدلة، ولكن إذا صُنف النظام على أنه "فائق الخطورة"، فستقوم الشركة بتنفيذ تدابير أمنية غير محددة لمنع تسريب النظام وإيقاف تطويره حتى يمكن جعله أقل خطورة.
وتدّعي ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور مع تغير مشهد الذكاء الاصطناعي، وذلك ردا على الانتقادات الموجهة لنهج الشركة "المفتوح" في تطوير أنظمتها، إذ تبنت ميتا إستراتيجية تتمثل في جعل تقنية الذكاء الاصطناعي الخاصة بها متاحة للجميع وإن لم تكن مفتوحة المصدر بالمعنى الحرفي، على عكس شركات مثل "أوبن إيه آي" التي تحمي أنظمتها خلف واجهة برمجة التطبيقات "إيه بي آي" (API).
وبالنسبة لشركة ميتا فقد أثبت نهج الإصدار المفتوح أنه نعمة ونقمة في آن واحد، حيث حققت مجموعة نماذج الذكاء الاصطناعي الخاصة بالشركة والتي تُعرف باسم "لاما" (Llama) مئات الملايين من التنزيلات، ولكن يُشاع أن نماذج "لاما" استخدمها خصم واحد على الأقل من خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي وهو روبوت مصمم خصيصا لمساعدة المؤسسات في تعزيز دفاعاتها الإلكترونية.
إعلانومن جهة أخرى فإن نشر ميتا لإطار عمل الذكاء الاصطناعي المتقدم يهدف أيضا إلى مقارنة إستراتيجيتها للذكاء الاصطناعي المفتوح مع إستراتيجية شركة الذكاء الاصطناعي الصينية "ديب سيك" والتي تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك ضمانات حماية كافية ويمكن توجيهها لتوليد مخرجات ضارة وخطيرة.
وكتبت ميتا في الوثيقة: "نعتقد أنه من خلال النظر في الفوائد والمخاطر الناتجة عن تطوير ونشر الذكاء الاصطناعي المتقدم، فمن الممكن تقديم هذه التكنولوجيا للمجتمع بطريقة تجمع أكبر فائدة بأقل ضرر".