جيش النيجر يفشل عملية عسكرية فرنسية استهدفت القصر الرئاسي
تاريخ النشر: 29th, August 2023 GMT
أفاد مراسل وكالة اإعلام الروسية "روسيا اليوم"، اليوم الثلاثاء، بأن جيش النيجر تمكن من إفشال عملية عسكرية فرنسية استهدفت القصر الرئاسي ليل أمس الاثنين.
وذكر المراسل أن "الجيش النيجري أفشل محاولة فرنسية لاختراق القوات المسلحة والقيام بعملية عسكرية تستهدف القصر الرئاسي عن طريق طائرات مروحية ليلة البارحة".
يأتي ذلك، غداة تأكيد الرئيس الفرنسي إيمانويل ماكرون أن بلاده ستواصل "سياستها الحازمة" بعدم الاعتراف بالانقلابيين في النيجر ودعم الرئيس المحتجز محمد بازوم.
وأعلن ماكرون أن السفير الفرنسي سيلفان إيتي، عقب منحه مهلة 48 ساعة لمغادرة البلاد يوم الجمعة الماضي، باق في نيامي رغم ضغوط قادة الانقلاب".
وأضاف: "لو لم نتدخل عسكريا في إفريقيا لما كانت النيجر ومالي وبوركينا فاسو موجودة اليوم بحدودها المعروفة"، معتبرا أن "المشكلة في النيجر الآن هي الانقلابيون، ونحن سنواصل سياستنا الحازمة بشأن النيجر وهي عدم الاعتراف بالانقلابيين ودعم بازوم".
وتعتبر فرنسا أن السلطة الشرعية الوحيدة في النيجر تظل سلطة الرئيس المنتخب ديموقراطيا محمد بازوم المحتجز حاليا في القصر الرئاسي.
واستولى المجلس العسكري في النيجر على السلطة في الـ26 من الشهر الماضي، وبرر القائد السابق للحرس الرئاسي الجنرال عمر عبد الرحمن تياني الإطاحة بالرئيس محمد بازوم بإخفاقه أمنيا واقتصاديا واجتماعيا، في بلد يتوسط أفقر دول العالم ويعاني من نشاط المجموعات المسلحة.
المصدر: البوابة نيوز
كلمات دلالية: جيش النيجر النيجر القصر الرئاسي طائرات القصر الرئاسی فی النیجر
إقرأ أيضاً:
بمعدل نجاح هجوم 100%.. ديب سيك يفشل في اختبارات الأمان والسلامة
كشف اختبار أمني مشترك أجراه فريق بحثي تابع لشركة "سيسكو" بالتعاون مع باحثين من جامعة بنسلفانيا عن فشل ذريع لنموذج "آر 1" من شركة "ديب سيك" الصينية في التصدي للمحتوى الضار، إذ حقق النموذج معدل نجاح هجمات بنسبة 100%، مما يعني أنه فشل في منع أي مطالبات ضارة، بحسب تقرير نشره موقع "إنترستنغ إنجنيرينغ".
وقد حظي روبوت الدردشة الجديد من "ديب سيك" باهتمام واسع بسبب أدائه المذهل وتكلفته المنخفضة مقارنة بالمنافسين، وبحسب التقارير فإن تكلفة تطوير نموذج "آر 1" بلغت 6 ملايين دولار، في حين تصل تكلفة الاستثمارات في نماذج الشركات الكبرى مثل "أوبن إيه آي" و"ميتا" و"غوغل" إلى مليارات.
وأوضح فريق البحث أن "ديب سيك" دمجت تقنيات عدة في نموذجها، مثل مطالبة سلسلة الأفكار ونمذجة المكافآت وأخيرا تقنية التقطير، وذلك بهدف إنشاء نموذج يتفوق على نماذج اللغة الكبيرة التقليدية في مهام الاستدلال مع الحفاظ على الأداء العالي، ورغم دمج جميع هذه التقنيات فإن تقرير "سيسكو" كشف عن عيوب في النموذج تجعله عرضة للاستخدامات الخبيثة والاحتيالية.
وجاء في التقرير "تشير نتائجنا إلى أن أساليب التدريب الرخيصة والتي تدّعيها "ديب سيك" -بما في ذلك التعلم المعزز ومطالبة سلسلة الأفكار وتقنية التقطير- ربما أدت إلى إضعاف آليات الأمان الخاصة بها".
تحليلات الفريق البحثي تشير إلى وجود تناقض بين الكفاءة والسلامة في نهج "ديب سيك" (رويترز) الاختبارات التي أجراها فريق البحثاستخدم فريق البحث تقنية كسر حماية الخوارزمية التي تعرف باسم "الخوارزميك جلبريك"، وهي تقنية تُستخدم لتحديد الثغرات في نماذج الذكاء الاصطناعي عن طريق إنشاء مطالبات مصممة لتجاوز بروتوكولات الأمان.
إعلانوقد اختبر الفريق نموذج "ديب سيك" ضد 50 مطالبة وفق معيار "هارمبينش"، وهو مجموعة بيانات مرجعية مخصصة لتقييم نماذج اللغة الكبيرة من حيث قدرتها على توليد محتوى ضار.
وذكر الفريق أن معيار "هارمبينش" يحتوي على إجمالي 400 سلوك ضمن 7 فئات ضارة، بما في ذلك الجرائم السيبرانية والمعلومات المضللة والأنشطة غير القانونية والأضرار العامة.
وقد تبين أن تقييم نموذج "ديب سيك" مثير للقلق، لأنه أظهر معدل نجاح الهجوم بنسبة 100%، وهذا يعني أنه في كل مرة تُكتب له مطالبة ضارة فإنه يفشل في التعرف على مخاطرها ويقدم إجابات متجاوزا جميع إجراءات الأمان الداخلية الخاصة به، على خلاف النماذج الرائدة الأخرى، والتي أظهرت مقاومة جزئية على الأقل، بحسب الفريق.
بالمقابل، اختبر فريق البحث نماذج ذكاء اصطناعي رائدة لمعرفة مدى ضعفها أمام "الخوارزميك جلبريك"، وكانت النتائج أن معدل نجاح الهجوم في نموذج "لاما 3.1-405 بي" كان 96%، و"جي بي تي 4 أو" بنسبة 86%، و"جيميناي 1.5 برو" 64%، و"كلود 3.5″ 36%، وفي النهاية نموذج "أو 1" بنسبة 26%.
ورغم أن هذه النماذج ليست محصنة ضد الاختراق فإنها تمتلك نوعا من الحماية الداخلية لمنع استغلالها في إنشاء محتوى ضار، ويبدو أن نموذج "ديب سيك" يفتقر إلى هذه الحماية.
وتشير تحليلات الفريق البحثي إلى وجود تناقض بين الكفاءة والسلامة في نهج "ديب سيك"، فبينما نجحت الشركة في تطوير نموذج عالي الأداء بتكلفة أقل بكثير من المعتاد لكن يبدو أنها فعلت ذلك على حساب آليات السلامة القوية.
يذكر أن نموذج الذكاء الاصطناعي الصيني واجه جدلا كبيرا منذ إطلاقه، إذ تدّعي شركة الأبحاث المستقلة "سيمي أنلايزس" أن تكلفة تدريب هذا النموذج قد تصل إلى 1.3 مليار دولار، وهو ما يتناقض بشدة مع تقدير الشركة الذي لا يتجاوز 6 ملايين دولار.
إعلان