قامت شركة Meta بإزالة شبكة من الحسابات المزيفة التي تتظاهر بأنها عائلات عسكرية أمريكية ونشطاء مناهضين للحرب. نشأت الحسابات المزيفة على فيسبوك وإنستجرام في الصين واستهدفت الجماهير الأمريكية، وفقًا للباحثين الأمنيين في الشركة.

قامت Meta بتفصيل عمليات الإزالة في تقريرها الأخير حول السلوك المنسق غير الأصيل (CIB).

كانت مجموعة الحسابات المزيفة صغيرة نسبيًا – 33 حسابًا على فيسبوك، وأربعة ملفات شخصية على إنستغرام، وست صفحات وست مجموعات على فيسبوك. وكتبت ميتا في تقريرها أن الحسابات المنشورة تتعلق بحاملات الطائرات الأمريكية و"مواضيع عسكرية" أخرى، فضلا عن "انتقاد السياسة الخارجية الأمريكية تجاه تايوان وإسرائيل ودعمها لأوكرانيا".

أدارت المجموعة أيضًا حسابات على YouTube وMedium وشاركت عريضة عبر الإنترنت "تدعي أنها كتبها أمريكيون لانتقاد الدعم الأمريكي لتايوان". وقال باحثو الشركة إن الحسابات المزيفة نشأت في الصين، لكنهم لم يعزووا الجهود إلى كيان أو مجموعة محددة. خلال مكالمة مع الصحفيين، قال بن نيمو، رئيس استخبارات التهديدات العالمية في شركة ميتا، إن هناك ارتفاعًا في عمليات التأثير في الصين خلال العام الماضي.

وقال نيمو: "إن التغيير الأكبر في مشهد التهديد كان ظهور عمليات التأثير الصينية". قال نيمو. وأشار إلى أن شركة ميتا قامت بتفكيك 10 شبكات CIB منشؤها الصين منذ عام 2017، لكن ستة من عمليات الإزالة هذه جاءت في العام الماضي. وفي الصيف الماضي، اكتشفت ميتا وأزالت شبكة كبيرة بشكل خاص من آلاف الحسابات المزيفة التي حاولت نشر رسائل دعائية مؤيدة للصين على المنصة.

وفي كلتا الحالتين، يبدو أن الحسابات المزيفة لم تنجح في نشر رسالتها. وتمكنت أحدث شبكة من الوصول إلى حوالي 3000 حساب على فيسبوك فقط، وفقًا لميتا، ولم يكن لصفحتي Instagram أي متابعون في وقت اكتشافهما.

ومع ذلك، يشير باحثو ميتا إلى أن مثل هذه المحاولات ستستمر على الأرجح قبل انتخابات عام 2024، وأن الأشخاص الذين لديهم جماهير كبيرة يجب أن يكونوا حذرين من إعادة مشاركة المعلومات التي لم يتم التحقق منها. يقول التقرير: "تُظهر أبحاث التهديدات التي أجريناها، تاريخيًا، أن الطريقة الرئيسية التي تصل بها شبكات CIB إلى المجتمعات الحقيقية هي عندما تتمكن من اختيار أشخاص حقيقيين - سياسيين أو صحفيين أو أصحاب نفوذ - والاستفادة من جماهيرهم". "يمثل صناع الرأي ذوي السمعة الطيبة هدفًا جذابًا ويجب عليهم توخي الحذر قبل تضخيم المعلومات من مصادر لم يتم التحقق منها، خاصة قبل الانتخابات الكبرى."

المصدر: بوابة الوفد

كلمات دلالية: الحسابات المزیفة على فیسبوک

إقرأ أيضاً:

ميتا قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية

تعهد الرئيس التنفيذي لشركة "ميتا" مارك زوكربيرغ بجعل الذكاء الاصطناعي العام "إيه جي آي" (AGI) متاحا للعامة يوما ما، ولكن في وثيقة جديدة اقترحت ميتا أنها لن تُصدر نظام ذكاء اصطناعي متقدما للعلن في حال وجود سيناريوهات معينة قد تُشكل خطرا أو ضررا ما. بحسب تقرير نشره موقع "تيك كرانش".

ويُشاع أن الذكاء الاصطناعي العام قادر على التعلم الذاتي ويمكنه إنجاز كل المهمات التي يمكن للبشر القيام بها، على عكس الذكاء الاصطناعي التقليدي الذي يفعل ما دُرب عليه فقط، ولهذا فإن ميتا قلقة من وقوع هذه التقنية المتقدمة في أيدٍ خاطئة وعدم قدرتها على السيطرة عليها.

وكانت الوثيقة بعنوان إطار عمل الذكاء الاصطناعي المتقدم (Frontier AI Framework) حيث حددت ميتا نوعين من الأنظمة التي تعتبرها عالية الخطورة في حال طرحها وهما "أنظمة عالية الخطورة" و"أنظمة فائقة الخطورة".

وبحسب تعريف ميتا فإن كلا من الأنظمة "عالية الخطورة" و"فائقة الخطورة" تساعد على تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، ولكن الفارق هو أن الأنظمة "فائقة الخطورة" قد تؤدي إلى نتائج كارثية لا يمكن السيطرة عليها، في المقابل قد تساعد الأنظمة "عالية الخطورة" في تنفيذ هجوم، ولكن يمكن السيطرة عليه نسبيا لأنه ليس بمستوى الفاعلية مثل الأنظمة فائقة الخطورة.

إعلان

وذكرت ميتا بعض الأمثلة عن هذه الهجمات مثل اختراق نظام التشفير التام بين الطرفين كالذي تستخدمه واتساب وانتشار أسلحة بيولوجية عالية التأثير، وتقر الشركة بأن قائمة الكوارث المحتملة في الوثيقة ليست شاملة ولكنها الأكثر احتمالا في حال إطلاق نظام ذكاء اصطناعي قوي.

ومن الجدير بالذكر أن ميتا لا تُصنف مخاطر الأنظمة استنادا إلى اختبار تجريبي واحد فقط، بل تعتمد على مدخلات عديدة أجراها باحثون داخل الشركة وخارجها والذين يخضعون لمراجعة من قبل صناع قرار رفيعي المستوى.

وفي حال قررت ميتا أن نظاما ما يُعتبر "عالي الخطورة" فإنها ستقيد الوصول إلى هذا النظام داخليا ولن تطلقه حتى تتخذ تدابير مناسبة لتقليل المخاطر إلى مستويات معتدلة، ولكن إذا صُنف النظام على أنه "فائق الخطورة"، فستقوم الشركة بتنفيذ تدابير أمنية غير محددة لمنع تسريب النظام وإيقاف تطويره حتى يمكن جعله أقل خطورة.

وتدّعي ميتا أن إطار عمل الذكاء الاصطناعي المتقدم سيتطور مع تغير مشهد الذكاء الاصطناعي، وذلك ردا على الانتقادات الموجهة لنهج الشركة "المفتوح" في تطوير أنظمتها، إذ تبنت ميتا إستراتيجية تتمثل في جعل تقنية الذكاء الاصطناعي الخاصة بها متاحة للجميع وإن لم تكن مفتوحة المصدر بالمعنى الحرفي، على عكس شركات مثل "أوبن إيه آي" التي تحمي أنظمتها خلف واجهة برمجة التطبيقات "إيه بي آي" (API).

وبالنسبة لشركة ميتا فقد أثبت نهج الإصدار المفتوح أنه نعمة ونقمة في آن واحد، حيث حققت مجموعة نماذج الذكاء الاصطناعي الخاصة بالشركة والتي تُعرف باسم "لاما" (Llama) مئات الملايين من التنزيلات، ولكن يُشاع أن نماذج "لاما" استخدمها خصم واحد على الأقل من خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي وهو روبوت مصمم خصيصا لمساعدة المؤسسات في تعزيز دفاعاتها الإلكترونية.

إعلان

ومن جهة أخرى فإن نشر ميتا لإطار عمل الذكاء الاصطناعي المتقدم يهدف أيضا إلى مقارنة إستراتيجيتها للذكاء الاصطناعي المفتوح مع إستراتيجية شركة الذكاء الاصطناعي الصينية "ديب سيك" والتي تُعرف بأنها مفتوحة المصدر، ولكنها لا تملك ضمانات حماية كافية ويمكن توجيهها لتوليد مخرجات ضارة وخطيرة.

وكتبت ميتا في الوثيقة: "نعتقد أنه من خلال النظر في الفوائد والمخاطر الناتجة عن تطوير ونشر الذكاء الاصطناعي المتقدم، فمن الممكن تقديم هذه التكنولوجيا للمجتمع بطريقة تجمع أكبر فائدة بأقل ضرر".

مقالات مشابهة

  • مجسّد شخصية زوكربيرغ: رئيس “ميتا” بات مهووساً بالسلطة
  • قيادات عسكرية أمريكية تجري جولة في قواعد التحالف شمال سوريا
  • جوجل تحذف تعهدها بعدم تطوير تقنيات الذكاء الاصطناعي للأسلحة
  • الصين تحتج رسميا على تصريحات وزير الخارجية الأمريكي
  • ميتا قد تتوقف عن تطوير أنظمة الذكاء الاصطناعي بسبب مخاطرها الكارثية
  • تفاصيل إنقاذ طاقم سفينة بعد 12 ساعة من الكفاح ضد الأمواج برأس غارب.. صور
  • بنما تلغي اتفاقية “طريق الحرير” مع الصين تحت ضغوط أمريكية
  • الصحافة الأمريكية تكشف عن عدم وجود خطط عسكرية أمريكية بشأن دخول غزة
  • هبوط طائرة عسكرية أمريكية في الهند تقل مهاجرين
  • طائرة عسكرية أمريكية تحمل مهاجرين تصل إلى الهند