الصفقة الأكبر منذ 7 أكتوبر.. إدارة بايدن تدرس بيع أسلحة جديدة لإسرائيل
تاريخ النشر: 2nd, April 2024 GMT
تدرس الحكومة الأميركية صفقة جديدة لبيع أسلحة لإسرائيل، تشمل طائرات مقاتلة وصواريخ جو-جو ومعدات توجيه، وفق وسائل إعلام.
وقالت وكالة أسوشيتد برس إن من المتوقع أن تبلغ قيمة الصفقة أكثر من 18 مليار دولار، وفقا لثلاثة أشخاص مطلعين على الأمر.
مجلة "بوليتيكو" من جانبها، كشفت في عددها، الاثنين، أن إدارة الرئيس الأميركي، جو بايدن، تدرس بيع ما يصل إلى 50 طائرة مقاتلة جديدة من طراز F-15 لإسرائيل، و30 صاروخ جو-جو متقدم متوسط المدى من طراز AIM-120، وعددا من مجموعات ذخائر الهجوم المباشر المشتركة، التي تحول القنابل الغبية إلى قنابل موجهة بدقة، وفقا لأحد مساعدي الكونغرس وشخص آخر مطلع على المناقشات بين واشنطن وإسرائيل.
وهذه الصفقة، التي ستكون بمثابة أكبر مبيعات عسكرية أميركية لإسرائيل منذ بدء الحرب في غزة في 7 أكتوبر، تأتي في الوقت الذي من المتوقع أن تخطر فيه الإدارة الكونغرس قريبا ببيع جديد كبير من مجموعات الذخائر الموجهة بدقة لإسرائيل، وفق ذات الوكالة .
تأتي هذه الأنباء، في غمرة تزايد الدعوات لواشنطن لإيقاف توفير الأسلحة لإسرائيل "إذا لم تفعل شيئا للحد من الخسائر في صفوف المدنيين في غزة".
أسوشيتد برس قالت في هذا الشأن إن هذه المبيعات الجديدة لبعض الأسلحة الأميركية الأكثر تطورا، تؤكد مدى استمرار الولايات المتحدة في دعم إسرائيل عسكريا، حتى في الوقت الذي ينتقد فيه مسؤولو إدارة بايدن العمليات الإسرائيلية في غزة، والتي أسفرت عن مقتل أكثر من 32 ألف فلسطيني منذ أكتوبر، وفقا لوزارة الصحة في القطاع.
وفي حين أن عملية البيع لا تزال في انتظار موافقة الحكومة الأميركية – وستمر سنوات قبل أن تصل الأسلحة إلى إسرائيل– فقد قامت الإدارة بالفعل بإخطار لجان الكونغرس ذات الصلة بشكل غير رسمي، وفقا لما ذكره مساعد الكونغرس لـ"بوليتيكو".
وتعني هذه الخطوة عادة أن الإدارة مستعدة للمضي قدما في عملية البيع.
ونقلت المجلة عن متحدث باسم وزارة الخارجية قوله إن الوزارة لا تعلق على المبيعات المستقبلية المحتملة.
وتأتي أخبار الاتفاقيات المعلقة المحتملة في الوقت الذي يقول فيه منتقدون داخل وخارج الحكومة الأميركية إن الرئيس بايدن يتحمل مسؤولية الحد من مبيعات الأسلحة لإسرائيل مع ارتفاع عدد القتلى المدنيين في غزة.
وحتى أعضاء في حزب بايدن انتقدوا إسرائيل بشدة مؤخرا بسبب عملياتها في القطاع.
ودعا زعيم الأغلبية في مجلس الشيوخ تشاك شومر، وهو أعلى مسؤول يهودي في الحكومة الأميركية وحليف قوي تاريخيا لإسرائيل، الشهر الماضي إلى إجراء انتخابات إسرائيلية جديدة، ما أثار غضب حكومة رئيس الوزراء بنيامين نتانياهو.
ومن المرجح أن تكون عملية البيع محل نقاش ساخن في الكونغرس، وفق أسوشيتد برس، "خاصة من جانب أعضاء حزب الرئيس نفسه".
وتعرضت مبيعات الأسلحة الأميركية لإسرائيل لتدقيق مكثف في الأشهر الأخيرة، ودعا المشرعون الديمقراطيون إلى تقييد المساعدات العسكرية لإسرائيل حتى تسمح بدخول مزيد من المساعدات الإنسانية إلى غزة وتفعل مزيد لحماية المدنيين هناك.
وكانت صحيفة واشنطن بوست، ذكرت، الجمعة الماضي، أن الولايات المتحدة أعطت في الأيام القليلة الماضية الضوء الأخضر لإرسال قنابل ومقاتلات بمليارات الدولارات إلى إسرائيل، حتى مع إبدائها علنا مخاوفه حيال هجوم عسكري متوقع في رفح.
ونقلت الصحيفة عن مسؤولين مطلعين في البنتاغون ووزارة الخارجية القول إن مجموعات الأسلحة الجديدة تشمل أكثر من 1800 قنبلة أم.كيه84 ألفي رطل و500 قنبلة أم.كيه82 خمسمئة رطل.
تقدم واشنطن مساعدات عسكرية سنوية بقيمة 3.8 مليار دولار لإسرائيل.
وتغدق الولايات المتحدة على إسرائيل بدفاعات جوية وذخائر، لكن بعض الديمقراطيين والجماعات الأميركية العربية تنتقد دعم إدارة بايدن الكبير لإسرائيل، والذي يقولون إنه يمنحها شعورا بالطمأنينة بالإفلات من العقاب.
المصدر: الحرة
كلمات دلالية: الحکومة الأمیرکیة فی غزة
إقرأ أيضاً:
أسلحة الذكاء الاصطناعي ووهم سيطرة البشر
ترجمة - نهى مصطفى -
في عام 1984، وعد أرنولد شوارزنيجر في فيلم الخيال العلمي الشهير «المدمرThe Terminator»، الذي لعب فيه دور قاتل آلي من المستقبل، بـأنه «سيعود». ولم يكن يمزح. في مقابلة أجريت معه عام 2023، أشار الممثل الذي أصبح حاكمًا لولاية كاليفورنيا إلى أن رؤية الفيلم للأسلحة الآلية أصبحت الآن حقيقة واقعة، أو كما قال مخرج الفيلم جيمس كاميرون: «لقد حذرتكم في عام 1984، ولم تستمعوا إلي».
في المستقبل البائس الذي يصوره الفيلم، يصمم البشر نظامًا عسكريًا مدعومًا بالذكاء الاصطناعي يخرج عن السيطرة ويدمر البشرية، وهو ما لم يحدث بالمعنى الدقيق للكلمة، لكن في الوقت نفسه، تغيرت الحرب بلا شك في الأربعين عامًا الماضية منذ عرض فيلم «المدمر» في دور السينما، وأصبح يتم نشر الأسلحة المدعومة بالذكاء الاصطناعي بنشاط في ساحات القتال من أوكرانيا إلى غزة، ومن المرجح أن تلعب دورًا حاسمًا في أي صراع بين الولايات المتحدة والصين.
لا تزال تحذيرات فيلم «المدمر» من أن الآلات لا يمكن الوثوق بها في اتخاذ القرارات المهمة، مثل متى ومن يجب إطلاق النار عليه، قائمة في النفس البشرية الجماعية. ومع ذلك، الخطر الحقيقي قد لا يكمن في ضعف السيطرة البشرية على هذه الأنظمة، بل في الاعتقاد الواهم بأنه يمكن السيطرة على هذه الأسلحة على الإطلاق. يوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في أنها يمكن تصميم أنظمة أفضل -أو أكثر أمانًا- بوجود البشر في حلقة اتخاذ القرار، أنظمة يمكن أن تتفوق على أنظمة الخصوم الاستبداديين الذين لديهم تحفظات أقل بشأن جعل كل شيء أوتوماتيكيًا.
ومع ذلك، عندما يتعلق الأمر بالسيطرة البشرية على أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، فإن الرأي السائد يظل أن المزيد أفضل. على سبيل المثال، تتطلب سياسة الحكومة الأمريكية صراحة أن يتم تصميم الأسلحة القاتلة المستقلة مع القدرة على التدخل البشري المناسب، ويؤكد كبار المسؤولين بانتظام على هذه الحقيقة. في أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة Replicator، وهي محاولة لنشر آلاف الأنظمة المستقلة في جميع الخدمات العسكرية بحلول أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس: «هناك دائمًا إنسان مسؤول عن استخدام القوة، نقطة». تسعى الأمم المتحدة إلى حظر الأسلحة المستقلة بالكامل واقترحت قواعد ملزمة دوليًا تتطلب من مثل هذه الأنظمة أن يكون هناك إنسان في حلقة إتخاذ القرار. تبنت العديد من المنظمات غير الحكومية، بما في ذلك Stop Killer Robots، ومعهد مستقبل الحياة Future of Life Institute، ومنظمة العفو الدولية، قضية السيطرة البشرية على الأسلحة المستقلة.
من غير الواقعي الاعتقاد بأن البشر يمكنهم التحكم في الخوارزميات المتطورة للأسلحة المستقلة أثناء القتال. فأنظمة الذكاء الاصطناعي المعاصرة غالبًا ما تكون معقدة لدرجة تجعل الإشراف البشري مستحيلًا، خاصة في ظروف الحرب التي تتسم بالتوتر والسرعة والانقطاع في التواصل. لذا، يجب على الجيوش استثمار الوقت والجهد خلال فترات السلم لبناء الثقة في نماذج الأسلحة المستقلة، وضمان جاهزيتها للعمل بفعالية ودون تدخل بشري مفرط عند اندلاع النزاعات.
تجعل المنافسة العسكرية بين الولايات المتحدة والصين تطوير ونشر أنظمة الأسلحة المستقلة أمرًا لا مفر منه، حيث تقدم الحرب في أوكرانيا دليلًا مبكرًا على هذا التحول في النموذج. وفي الوقت نفسه، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وعلى الفور لمجموعة متنوعة من الأغراض الأمنية - تحليل الاستخبارات، والسلامة البيولوجية، والأمن السيبراني، وغيرها.
لسنوات، استثمرت بكين بكثافة في القدرات التي تهدف إلى تحييد إسقاط القوة الأمريكية في شرق آسيا، مما قد يسمح للصين بفرض أمر واقع على تايوان. وحتى وقت قريب، أعطى الجيش الأمريكي الأولوية للحفاظ على عدد صغير من منصات الأسلحة الكبيرة، مثل حاملات الطائرات والطائرات المقاتلة والقاذفات المتطورة. لكن هذا النهج لم يعد مستدامًا. فقد بنت الصين ووزعت عددًا كبيرًا من أنظمة الأسلحة الرخيصة نسبيًا، مثل: الصواريخ الباليستية المضادة للسفن والغواصات التي تعمل بالديزل والكهرباء، والتي قد تدمر بسهولة المنصات الرائعة للجيش الأمريكي ــ وهي استراتيجية تسمى «الإنكار»، التي تمنع الخصم من اتخاذ إجراء غير مرغوب فيه، ولكنها لا تسعى إلى تغيير رأي الخصم. ومن أجل استعادة ميزة الولايات المتحدة في شرق آسيا، شرع كل فرع من فروع القوات المسلحة في نشر ما يكفي من الأنظمة التي تعمل بدون تدخل بشري مباشر للتغلب على قدرات الإنكار الصينية.
الواقع أن الأسلحة الأوتوماتيكية والذكاء الاصطناعي والطائرات بدون طيار بدرجات متفاوتة من الاستقلالية تشكل مكونات أساسية في أحدث مفاهيم العمليات التي تتبناها الخدمات العسكرية الأمريكية: تصميم قوة مشاة البحرية لعام 2030، والعمليات البحرية الموزعة للبحرية، وعمليات القتال واسعة النطاق للجيش، ومفهوم التشغيل المستقبلي للقوات الجوية، كل هذه المفاهيم تعتمد بدورها على مبادرة مستمرة أطلقت في عام 2022 والمعروفة باسم القيادة والسيطرة المشتركة لجميع المجالات، والتي بلغت تكلفتها 1.4 مليار دولار في عام 2024 وحده. ووفقًا لوزارة الدفاع، يهدف البرنامج إلى ربط «كل جهاز استشعار وكل مطلق نار» من أجل «اكتشاف وجمع وربط وتجميع ومعالجة واستغلال البيانات من جميع المجالات والمصادر» وبالتالي إنشاء «نسيج بيانات» موحد. وببساطة، ينبغي أن يكون كل شيء قادر على جمع البيانات، من الأقمار الصناعية إلى الطائرات بدون طيار البحرية إلى الجندي في الميدان، قادرًا على مشاركتها واستخدامها.
الأنظمة التي تعمل بدون تدخل بشري تشكل ركيزة لا غنى عنها في هذا النسيج من البيانات. فعلى الأرض، سوف تعمل هذه الأنظمة على تعزيز القدرة على القتل والحد من الخسائر بين الأصدقاء والمدنيين من خلال توفير قدر أعظم من الدقة. وفي الجو، سوف تتمتع الطائرات بدون طيار بقدرة أكبر على التحمل والقدرة على المناورة، وسوف تنتشر بأعداد أكبر، وتتعاون لتغطية مناطق أكبر، وتعقّد عملية الاستهداف المضاد للعدوان. وفي البحر، سوف تخترق السفن التي تعمل بدون تدخل بشري مناطق كانت من قبل يصعب الوصول إليها.
بطبيعة الحال، ليست التكتيكات والعمليات هي الاعتبارات الوحيدة في الحرب. ومن منظور أخلاقي، يخشى العديد من المراقبين أنه في غياب الرقابة، قد تنطلق الآلات غير المفكرة في فوضى، وتنتهك المبادئ العريقة مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين). ويخشى آخرون أن تستغل الأنظمة المستقلة السكان الضعفاء بسبب التحيزات في بيانات التدريب الخاصة بها أو أن تقوم جهات غير حكومية باختراق أو سرقة الأسلحة المستقلة واستخدامها لأغراض خبيثة.
يرى منتقدو الأسلحة المستقلة أن التركيز على الفعالية التكتيكية أو التشغيلية يمكن أن يؤدي إلى نتائج استراتيجية كارثية، مثل التصعيد غير المقصود. فهم يجادلون بأن البشر يمتلكون قدرة على دمج سياق أوسع في قراراتهم، مما يجعلهم أكثر مرونة في التعامل مع الفوضى أو الظروف غير المتوقعة مقارنة بالآلات التي تلتزم بالنص المبرمج. ومع ذلك، لا يزال الشك يحيط بفكرة السماح للآلات باتخاذ قرارات خطيرة مثل القتل أو تصعيد النزاعات العسكرية. تستند هذه الشكوك إلى أمثلة ملموسة لأخطاء الذكاء الاصطناعي، مثل حوادث السيارات ذاتية القيادة أو «هلوسات» أنظمة الدردشة. ويظل الاعتقاد السائد أن البشر أقل ميلًا لسفك الدماء دون داعٍ أو تصعيد الصراعات بشكل غير محسوب.
تدعم هذه الحجج الأخلاقية والعملية الحقيقة الأساسية المتمثلة في أن حتى أكثر الأنظمة المستقلة تقدمًا مع الذكاء الاصطناعي سوف ترتكب أخطاء. ومع ذلك، فقد تقدم الذكاء الاصطناعي إلى النقطة التي أصبح فيها التحكم البشري في كثير من الأحيان اسميًا أكثر من كونه حقيقيًا. والواقع أن الشعور المتضخم بقدرة البشر على التحكم في الذكاء الاصطناعي من شأنه أن يؤدي إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون. والوهم بأن البشر سوف يكونون قادرين على التدخل في سيناريوهات قتالية مستقبلية تعد بالتوتر الشديد والسرعة العالية -وخلالها سوف تتدهور الاتصالات أو تتقطع- يمنع صناع السياسات والعسكريين ومصممو الأنظمة من اتخاذ الخطوات اللازمة لابتكار واختبار وتقييم أنظمة مستقلة آمنة.
سوف تكون الحروب المستقبلية التي تعتمد على الذكاء الاصطناعي أسرع وأكثر اعتمادًا على البيانات، حيث يمكن نشر أنظمة الأسلحة التي تعتمد على الذكاء الاصطناعي (على سبيل المثال، أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع. ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة. على سبيل المثال، استخدمت إسرائيل نظام توليد أهداف مدعوم بالذكاء الاصطناعي أثناء الحرب في غزة، وهذا النظام، الذي يستخدم مئات الآلاف من التفاصيل لتصنيف الأهداف على أنها معادية، متطور بحيث لا يمكنه التكهن عندما يتعين اتخاذ القرارات في دقائق أو ثوانٍ.
البشر لا يستطيعون تفسير الكميات الهائلة من البيانات التي تجمعها مثل هذه المجموعة من الأنظمة وتحليلها لاتخاذ قرارات سليمة. من الممكن توسيع نطاق الأنظمة المستقلة لاستيعاب عدد أكبر من المهام التفاعلية والمعقدة، لكن القدرات البشرية ثابتة. وسوف يؤدي الضغط لتسريع التفسير والتحليل البشري إلى اتخاذ قرارات أقل تفكيرًا وأكثر عرضة للخطأ. وفي الوقت نفسه، وبدون تسريع عملية اتخاذ القرار، فإن اختيار الإجراءات سوف يصبح عتيقًا في بيئة سريعة الحركة.
في الصراعات المستقبلية، وخاصة بين الولايات المتحدة والصين، قد يؤدي استهداف الأقمار الصناعية والتشويش على الاتصالات إلى عزل القادة والأفراد عن الإشراف والدعم، مثال على ذلك، قوات مشاة البحرية «القوات الاحتياطية» المصممة كوحدات قتالية صغيرة موزعة تعمل ضمن نطاق الأسلحة الصينية. لضمان البقاء، ستقلل هذه القوات توقيعاتها الكهرومغناطيسية بالحد من استخدام أجهزة الاتصالات والرادارات، ما يفرض عليها اتخاذ قرارات مستقلة اعتمادًا على البيانات التي تجمعها فقط، دون سياق خارجي أو دعم إضافي.
اقترح صناع السياسات والقادة العسكريون تقليل استخدام الأنظمة المستقلة لتناسب السرعة البشرية، سيؤدي فقط إلى استجابات أبطأ، كما أن تحسين تدريب المشغلين يحقق مكاسب محدودة نظرًا لتفوق الذكاء الاصطناعي في القوة المعرفية وزيادة حجم البيانات.
رغم تصريحات المسؤولين الأمريكيين بأن أنظمة الذكاء الاصطناعي العسكرية يجب أن تقتصر على تقديم اقتراحات، فإن الحرب المدعومة بالذكاء الاصطناعي تُظهر استقلالية أكبر في العمليات. مثال ذلك الطائرات بدون طيار في أوكرانيا، التي تعمل بشكل مستقل بسبب التشويش على اتصالاتها. ولا يمكن بسهولة فصل الاستخدامات الدفاعية عن الهجومية للأسلحة ذاتية التشغيل، حيث يمكن أن يدعم الدفاع التكتيكي الهجوم العملياتي والعكس، وفقاً للاستراتيجيات العسكرية الكلاسيكية.
توصيات السيطرة البشرية على الأسلحة المستقلة ليست سوى مسكنات، تمنح شعورًا زائفًا بالأمان بينما تعرقل قدرة القوات على تحقيق النصر وتضع عبء القرارات الأخلاقية والعملية على الجنود في ظروف حرجة. بدلاً من ذلك، يجب على صناع السياسات تبني نهج واقعي وأكثر أخلاقية لأنظمة الأسلحة المستقلة. يتطلب هذا النهج أن تُتخذ القرارات الحاسمة، مثل تلك المتعلقة بالتناسب والتمييز، في أوقات السلم، حيث يمكن الاعتماد على المدخلات المتخصصة والنقاش الديمقراطي والإشراف الفعّال. الهدف هو ضمان السيطرة البشرية والمساءلة في ظروف مناسبة، بعيدًا عن ضغوط الحرب حيث يمكن أن تؤدي القرارات المتسرعة إلى خسائر جسيمة.
في العقود القادمة، ستعتمد الولايات المتحدة بشكل متزايد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي. التمسك بفكرة السيطرة البشرية أثناء الحرب سيضع الدول الديمقراطية في موقف ضعف أمام خصوم لا يلتزمون بهذه القيود. كما أن اتخاذ القرارات الحاسمة أثناء الحرب، في ظل الضغوط الشديدة، قد يؤدي إلى نتائج أقل أخلاقية. لذلك، ينبغي للحكومات برمجة المدخلات البشرية في الأنظمة مسبقًا، مع مراقبتها وتحسينها باستمرار، وبناء الثقة بها. الفشل في تحقيق ذلك قد يجعل السيطرة البشرية على الذكاء الاصطناعي العسكري أكثر تكلفة في الأرواح بدلاً من إنقاذها.
سيباستيان إلباوم عالم كمبيوتر أمريكي من أصل أرجنتيني، وأستاذ في جامعة فرجينيا.
جوناثان بانتر زميل ستانتون للأمن النووي في مجلس العلاقات الخارجية (CFR).
المقال نشر في Foreign Affairs