قبيل الانتخابات.. ميتا تلغي القيود المشددة على حسابات ترامب على وسائل التواصل
تاريخ النشر: 13th, July 2024 GMT
قالت "ميتا" أمس الجمعة إنها ستزيل أي عقوبات وقيود تم فرضها مسبقًا على حسابات وسائل التواصل الاجتماعي للرئيس السابق دونالد ترامب، على أن يسري مفعولها على الفور، بحسب تقرير لموقع "سي إن بي سي".
واتخذت الشركة أول إجراء ضد حسابات ترامب على وسائل التواصل عام 2021، بعد وقت قصير من أحداث الشغب التي قام بها "الترامبيون" داخل مبنى الكونغرس في 6 يناير/كانون الثاني بواشنطن العاصمة.
وفي يناير/كانون الثاني 2023، قالت "ميتا" إنها ستعيد اسم ترامب إلى منصتها، وبالفعل استعاد الوصول إلى حساباته الشهر التالي. لكن ترامب لا يزال خاضعًا للعقوبات والقيود المشددة التي كان من الممكن أن تؤدي إلى تعليق حساباته على وسائل التواصل فترة طويلة.
وبعد إعلان "ميتا" الأخير، ستصبح القيود على حساب ترامب أقل في حالة انتهك إرشادات المجتمع، حيث سيواجه تعليقًا محتملًا أقصر بكثير قد يستمر بضعة أيام فقط، بدلاً من التعليق الأطول بموجب العقوبات المفروضة مسبقًا.
وكتب رئيس الشؤون العالمية في الشركة نيك كليج -في تدوينة الجمعة- أن التعليق الأصلي والعقوبات "كانت استجابة لظروف قاهرة وغير عادية، ولم يكن من الضروري نشرها".
وقال "مع انعقاد مؤتمرات الحزب قريبًا، بما في ذلك الأسبوع المقبل، سيتم قريبًا ترشيح المرشحين لمنصب رئيس الولايات المتحدة رسميًا". وأضاف "في تقييم مسؤوليتنا للسماح بالتعبير السياسي، نعتقد أن الشعب الأميركي يجب أن يكون قادرًا على الاستماع إلى المرشحين لمنصب الرئيس على نفس الأساس".
ووصف متحدث باسم "ميتا" الإجراء بأنه "اتخذ لجعل مرشح الحزب الجمهوري المفترض ترامب على قدم المساواة مع الرئيس بايدن".
المصدر: الجزيرة
كلمات دلالية: حراك الجامعات حريات وسائل التواصل
إقرأ أيضاً:
ميتا قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية
تعهد الرئيس التنفيذي لشركة "ميتا" مارك زوكربيرغ بجعل الذكاء الاصطناعي العام "إيه جي آي" (AGI) متاحا للعامة يوما ما، ولكن في وثيقة جديدة اقترحت ميتا أنها لن تُصدر نظام ذكاء اصطناعي متقدما للعلن في حال وجود سيناريوهات معينة قد تُشكل خطرا أو ضررا ما. بحسب تقرير نشره موقع "تيك كرانش".
ويُشاع أن الذكاء الاصطناعي العام قادر على التعلم الذاتي ويمكنه إنجاز كل المهمات التي يمكن للبشر القيام بها، على عكس الذكاء الاصطناعي التقليدي الذي يفعل ما دُرب عليه فقط، ولهذا فإن ميتا قلقة من وقوع هذه التقنية المتقدمة في أيدٍ خاطئة وعدم قدرتها على السيطرة عليها.
وكانت الوثيقة بعنوان إطار عمل الذكاء الاصطناعي المتقدم (Frontier AI Framework) حيث حددت ميتا نوعين من الأنظمة التي تعتبرها عالية الخطورة في حال طرحها وهما "أنظمة عالية الخطورة" و"أنظمة فائقة الخطورة".
وبحسب تعريف ميتا فإن كلا من الأنظمة "عالية الخطورة" و"فائقة الخطورة" تساعد على تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، ولكن الفارق هو أن الأنظمة "فائقة الخطورة" قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها، في المقابل قد تساعد الأنظمة "عالية الخطورة" في تنفيذ هجوم، ولكن يمكن السيطرة عليه نسبيا لأنه ليس بمستوى الفاعلية مثل الأنظمة فائقة الخطورة.
إعلانوذكرت ميتا بعض الأمثلة عن هذه الهجمات مثل اختراق نظام التشفير التام بين الطرفين كالذي تستخدمه واتساب وانتشار أسلحة بيولوجية عالية التأثير، وتقر الشركة بأن قائمة الكوارث المحتملة في الوثيقة ليست شاملة ولكنها الأكثر احتمالا في حال إطلاق نظام ذكاء اصطناعي قوي.
ومن الجدير بالذكر أن ميتا لا تُصنف مخاطر الأنظمة استنادا إلى اختبار تجريبي واحد فقط، بل تعتمد على مدخلات عديدة أجراها باحثون داخل الشركة وخارجها والذين يخضعون لمراجعة من قبل صناع قرار رفيعي المستوى.
وفي حال قررت ميتا أن نظاما ما يُعتبر "عالي الخطورة" فإنها ستقيد الوصول إلى هذا النظام داخليا ولن تطلقه حتى تتخذ تدابير مناسبة لتقليل المخاطر إلى مستويات معتدلة، ولكن إذا صُنف النظام على أنه "فائق الخطورة"، فستقوم الشركة بتنفيذ تدابير أمنية غير محددة لمنع تسريب النظام وإيقاف تطويره حتى يمكن جعله أقل خطورة.
وتدّعي ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور مع تغير مشهد الذكاء الاصطناعي، وذلك ردا على الانتقادات الموجهة لنهج الشركة "المفتوح" في تطوير أنظمتها، إذ تبنت ميتا إستراتيجية تتمثل في جعل تقنية الذكاء الاصطناعي الخاصة بها متاحة للجميع وإن لم تكن مفتوحة المصدر بالمعنى الحرفي، على عكس شركات مثل "أوبن إيه آي" التي تحمي أنظمتها خلف واجهة برمجة التطبيقات "إيه بي آي" (API).
وبالنسبة لشركة ميتا فقد أثبت نهج الإصدار المفتوح أنه نعمة ونقمة في آن واحد، حيث حققت مجموعة نماذج الذكاء الاصطناعي الخاصة بالشركة والتي تُعرف باسم "لاما" (Llama) مئات الملايين من التنزيلات، ولكن يُشاع أن نماذج "لاما" استخدمها خصم واحد على الأقل من خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي وهو روبوت مصمم خصيصا لمساعدة المؤسسات في تعزيز دفاعاتها الإلكترونية.
إعلانومن جهة أخرى فإن نشر ميتا لإطار عمل الذكاء الاصطناعي المتقدم يهدف أيضا إلى مقارنة إستراتيجيتها للذكاء الاصطناعي المفتوح مع إستراتيجية شركة الذكاء الاصطناعي الصينية "ديب سيك" والتي تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك ضمانات حماية كافية ويمكن توجيهها لتوليد مخرجات ضارة وخطيرة.
وكتبت ميتا في الوثيقة: "نعتقد أنه من خلال النظر في الفوائد والمخاطر الناتجة عن تطوير ونشر الذكاء الاصطناعي المتقدم، فمن الممكن تقديم هذه التكنولوجيا للمجتمع بطريقة تجمع أكبر فائدة بأقل ضرر".