دول أوروبية تعد خطة سرية لإعادة التسلح
تاريخ النشر: 6th, April 2025 GMT
البلاد – بروكسل
تعمل بريطانيا وعدد من دول الاتحاد الأوروبي على إعداد خطة سرية تمكنها من تجاوز المفوضية الأوروبية في تخصيص الأموال لقطاع الدفاع. وتركز هذه المبادرة على إنشاء “بنك أسلحة” مستقل يجمع الموارد المالية للدول المشاركة دون اللجوء إلى الميزانيات الوطنية أو قيود بروكسل، مما يوفّر مرونة أكبر في إدارة النفقات وتوجيهها مباشرةً نحو تعزيز القدرات العسكرية.
وتأتي هذه الخطوة في ظل ضغوط متزايدة على بعض الدول لتعزيز تسليحها الذاتي، لا سيما في ضوء غموض السياسات الأمريكية المستقبلية. ويُتوقع أن يموّل “بنك الأسلحة” مشاريع مشتركة تشمل شراء المعدات العسكرية وتطوير الصناعات الدفاعية، عبر مساهمات مباشرة من الدول الأعضاء.
وكانت المفوضية الأوروبية قد طرحت في 19 مارس استراتيجية الدفاع الجديدة باسم «إعادة تسليح أوروبا»، قبل تغييرها لاحقًا إلى «الاستعداد 2030»، التي تُقدّر حجم الإنفاق بحوالي 800 مليار يورو خلال أربع سنوات لتعزيز دفاعات الاتحاد وتزويد أوكرانيا بالسلاح.
وترى عواصم أوروبية أن مبادرة «بنك الأسلحة» قد تشكّل ردّ فعل على بطء وتيرة الإصلاحات الدفاعية الأوروبية ورغبة في تقاسم المخاطر بعيدًا عن الاحتكار المالي لبروكسل.
المصدر: صحيفة البلاد
إقرأ أيضاً:
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
تابع أحدث الأخبار عبر تطبيق
دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات "التكنولوجيا الكبرى" إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة.
وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح (UNIDIR): "إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية - بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي"، بحسب الموقع الرسمي للأمم المتحدة.
وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى "لحظة أوبنهايمر" للذكاء الاصطناعي – في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية.
وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة.
ولفتت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش حول العالم.
وحسب تحذير أرنو فالّي، رئيس الشؤون العامة في شركة كوماند للذكاء الاصطناعي، أدى الطابع المزدوج لتقنيات الذكاء الاصطناعي – حيث يمكن استخدامها في بيئات مدنية وعسكرية على حد سواء – إلى تحذير المطورين من أنهم قد يفقدون الاتصال بواقعية الظروف في ساحة المعركة، حيث قد تتسبب برمجياتهم في فقدان الأرواح.
وأضاف أن الأدوات لا تزال في مراحلها الأولى لكنها أثارت مخاوف طويلة الأمد من إمكانية استخدامها في اتخاذ قرارات حياة أو موت في بيئة حرب، مما يلغي الحاجة إلى اتخاذ قرارات بشرية وتحمل المسؤولية.. ومن هنا تأتي الدعوات المتزايدة لتنظيم هذه التكنولوجيا، لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية.
وقال ديفيد سالي، الرئيس التنفيذي لشركة "أدفاي" في لندن: "نرى هذه الأنظمة تفشل طوال الوقت، وهذه التقنيات لا تزال غير موثوقة". وأضاف: "لذلك، جعلها تخطئ ليس بالأمر الصعب كما يعتقد البعض أحيانا".
في مايكروسوفت، تركز الفرق على المبادئ الأساسية للسلامة والأمن والشمولية والعدالة والمساءلة، وفقا لما قاله مايكل كريمين، مدير الدبلوماسية الرقمية.
وأوضح كريمين أن عملاق التكنولوجيا الأمريكي الذي أسسه بيل جيتس يضع قيودا على تكنولوجيا التعرف على الوجوه في الوقت الفعلي التي تستخدمها قوات إنفاذ القانون والتي قد تسبب ضررا نفسيا أو جسديا.
وأضاف أنه يجب وضع ضوابط واضحة ويجب على الشركات التعاون لكسر الحواجز، مشيرا إلى أن الابتكار ليس شيئا يحدث داخل منظمة واحدة فقط، بل هناك مسؤولية في المشاركة.
وقالت سولينا نور عبدالله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام في الاتحاد الدولي للاتصالات:"إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة". وأضافت: "يجب أن نعالج مفارقة حوكمة الذكاء الاصطناعي، مع الاعتراف بأن التنظيمات في بعض الأحيان تتأخر عن التكنولوجيا، مما يجعل من الضروري إجراء حوار مستمر بين الخبراء السياسيين والتقنيين لتطوير أدوات للحوكمة الفعالة".