قالت منظمة العفو الدولية، في تحقيق جديد، إن التكنولوجيا العسكرية فرنسية الصنع والمدمجة على ناقلات الجنود المدرعة التي تصنعها الإمارات العربية المتحدة، تُستخدم في ساحة المعركة في السودان، فيما يشكل، على الأرجح، انتهاكًا لحظر الأسلحة الذي تفرضه الأمم المتحدة على دارفور.

يمكن رؤية نظام غاليكس (Galix System) على ناقلات الجنود المدرعة التي تستخدمها قوات الدعم السريع، النظام من صنع شركتي لاكروا ديفانس (Lacroix Defense) وكا إن دي أس فرانس (KNDS France)، الحظر الحالي الذي يفرضه الاتحاد الأوروبي يحظر نقل الأسلحة إلى السودان،

في تقرير موجز نشر في وقت سابق من هذا العام، تعرفت منظمة العفو الدولية على ناقلات جنود مدرعة في أجزاء مختلفة من السودان صُنعت في الإمارات العربية المتحدة.

وقد أظهر بحث جديد أن ناقلات الجنود المدرعة هذه، التي تستخدمها قوات الدعم السريع، تشمل أنظمة دفاع تفاعلية متطورة مصممة ومصنعة في فرنسا.

تتولى شركة إيدج غروب (Edge Group) صناعة ناقلات الجنود المدرعة نمر عجبان في الإمارات، وهي مجهزة بنظام غاليكس (Galix) الفرنسي. وفي الصور التي تم تداولها على وسائل التواصل الاجتماعي، والتي تحققت منها منظمة العفو الدولية، يظهر نظام غاليكس على العديد من ناقلات الجنود المدرعة من طراز نمر عجبان، التي دمرتها أو استولت عليها القوات المسلحة السودانية.

نظام غاليكس -المصنع من قبل شركة لاكروا ديفانس (Lacroix Defense) والمصمم بالاشتراك مع شركة نيكستر (Nexter) (الآن كا إن دي إس فرانس KNDS France)- هو نظام دفاعي للقوات البرية يطلق الأفخاخ والدخان والقذائف لمواجهة التهديدات قريبة المدى. وتروّج شركة لاكروا ديفانس لنظام غاليكس على أنه “يخفي المركبات القتالية من تهديد وشيك ويحمي المركبات والدبابات القتالية الرئيسية وناقلات الجنود المدرعة”.

يجب على جميع البلدان أن توقف فورًا الإمدادات المباشرة وغير المباشرة لجميع الأسلحة والذخائر إلى الأطراف المتحاربة في السودان.

وقالت أنياس كالامار، الأمينة العامة لمنظمة العفو الدولية: “يظهر بحثنا أن الأسلحة المصممة والمصنعة في فرنسا تُستخدم فعليًا في ساحة المعركة في السودان”.

“تستخدم قوات الدعم السريع نظام غاليكس في هذا الصراع؛ وأي استخدام له في دارفور سيشكل انتهاكًا واضحًا لحظر الأسلحة الذي تفرضه الأمم المتحدة. يجب على الحكومة الفرنسية ضمان أن توقف شركتا لاكروا ديفانس وكا إن دي إس فرانس توريد هذا النظام فورًا إلى الإمارات.

“لقد أثبتت منظمة العفو الدولية بالفعل كيف يتسبب التدفق المستمر للأسلحة إلى السودان في معاناة إنسانية هائلة. لذا يجب على جميع البلدان أن توقف فورًا الإمدادات المباشرة وغير المباشرة لجميع الأسلحة والذخائر إلى الأطراف المتحاربة في السودان. كما يتعيّن عليها احترام وإنفاذ نظام حظر الأسلحة الذي فرضه مجلس الأمن التابع للأمم المتحدة على دارفور قبل إزهاق المزيد من أرواح المدنيين“.

في 15 أكتوبر/تشرين الأول 2024، اتصلت منظمة العفو الدولية بشركتي لاكروا ديفانس وكا إن دي أس فرانس وبالأمانة العامة للدفاع والأمن الوطني في فرنسا، لتسليط الضوء على التعرف على نظام غاليكس في السودان. وحتى وقت نشر هذا البيان، لم تتلقَّ المنظمة أي رد.

تعاملات الإمارات وفرنسا في قطاع الدفاع

لدى الإمارات العربية المتحدة وفرنسا شراكة طويلة الأمد في قطاع الدفاع؛ إذ يشير تقرير البرلمان الفرنسي لعام 2024 حول تصدير الأسلحة إلى أن الشركات الفرنسية كانت مسؤولة عن تسليم ما يقدر بنحو 2.6 مليار دولار أمريكي من العتاد العسكري إلى الإمارات بين عامي 2014 و2023.

لدى شركة لاكروا ديفانس حضور راسخ في الإمارات، حيث أنشأت مشروعًا مشتركًا مع شركة الإمارات للتكنولوجيا الدفاعية منذ عدة سنوات، في عام 2015، لتكون “إحدى أوائل الشركات الفرنسية متوسطة الحجم التي تتوطن في الإمارات العربية المتحدة”. تم تجهيز ناقلات الجنود المدرعة نمر عجبان بنظام غاليكس منذ عام 2017 على الأقل.

يفرض الاتحاد الأوروبي حظرًا على الأسلحة على كامل السودان منذ عام 1994. ويمنع الحظر بيع أو توريد أو نقل أو تصدير الأسلحة والأعتدة ذات الصلة بجميع أنواعها، بما فيها الأسلحة والذخائر والمركبات والمعدات العسكرية والمعدات شبه العسكرية وقطع الغيار إلى السودان.

مقاطع فيديو منشورة على مواقع التواصل الاجتماعي تظهر نظام غاليكس على ناقلات جنود مدرعة في السودان.
وفرنسا ملزمة بموجب القوانين الدولية والإقليمية والوطنية بحظر تصدير الأسلحة، عندما يكون هناك خطر كبير من إمكانية استخدامها لارتكاب أو تسهيل انتهاك خطير للقانون الدولي لحقوق الإنسان أو القانون الدولي الإنساني. وإذا لم تتمكن فرنسا من ضمان عدم إعادة تصدير الأسلحة إلى السودان، من خلال ضوابط التصدير، بما في ذلك شهادات المستخدم النهائي، فلا ينبغي لها السماح بعمليات النقل هذه. ولدى الإمارات سجل حافل في خرق حظر الأسلحة الذي يفرضه مجلس الأمن التابع للأمم المتحدة، بما في ذلك ما يتعلق بليبيا والسودان.

تقع على عاتق كل الشركات، بما فيهما لاكروا ديفانس وكا إن دي أس فرانس، مسؤولية احترام حقوق الإنسان. وتستوجب هذه المسؤولية من الشركات بذل العناية الواجبة إزاء حقوق الإنسان على امتداد سلاسل القيمة -من المصدر إلى المستخدم النهائي- من أجل تحديد ومنع وكبح أي تورط حقيقي أو محتمل في انتهاكات حقوق الإنسان. ويعد الالتزام بمعيار العناية الواجبة المطلوب إزاء حقوق الإنسان أشد صرامة فيما يتعلق بالنشاط التجاري الذي يؤثر على المناطق المتضررة من النزاع.

كما تدعو منظمة العفو الدولية مجلس الأمن إلى توسيع نطاق حظر الأسلحة الذي يفرضه على دارفور ليشمل بقية أنحاء السودان، وتعزيز آليات التنفيذ والرصد والتحقق.

 

خلفية
اندلع القتال في السودان في أبريل/نيسان 2023 بين القوات المسلحة السودانية والقوات شبه العسكرية المعروفة باسم قوات الدعم السريع. ومنذ ذلك الحين، قُتل أكثر من 23,000 شخص وأصيب33,000 شخص، منهم عدد كبير من المدنيين الذين تضرروا بالهجمات العشوائية والمتعمدة. ويواجه السودان حاليًا أكبر أزمة نزوح في العالم، حيث أدى التصعيد الأخير في النزاع إلى نزوح أكثر من 11 مليون شخص.

وفي 15 أبريل/نيسان 2024، الذي يصادف الذكرى السنوية الأولى لاندلاع النزاع السوداني، أطلقت منظمة العفو الدولية عريضة عالمية حثّت فيها مجلس الأمن التابع للأمم المتحدة على توسيع نطاق حظر الأسلحة القائم على دارفور ليشمل سائر أنحاء السودان. ويشكل ذلك جزءًا من حملة أوسع لمنظمة العفو الدولية تدعو إلى حماية المدنيين في السودان، وتطالب بتحقيق العدالة وإجراء المساءلة فيما يتعلق بمرتكبي الفظائع ضد المدنيين.  

المصدر: سودانايل

كلمات دلالية: الإمارات العربیة المتحدة منظمة العفو الدولیة قوات الدعم السریع حظر الأسلحة الذی تصدیر الأسلحة حقوق الإنسان إلى السودان فی الإمارات مجلس الأمن على ناقلات فی السودان على دارفور بما فی

إقرأ أيضاً:

أسلحة الذكاء الاصطناعي ووهم سيطرة البشر

ترجمة - نهى مصطفى -

في عام 1984، وعد أرنولد شوارزنيجر في فيلم الخيال العلمي الشهير «المدمرThe Terminator»، الذي لعب فيه دور قاتل آلي من المستقبل، بـأنه «سيعود». ولم يكن يمزح. في مقابلة أجريت معه عام 2023، أشار الممثل الذي أصبح حاكمًا لولاية كاليفورنيا إلى أن رؤية الفيلم للأسلحة الآلية أصبحت الآن حقيقة واقعة، أو كما قال مخرج الفيلم جيمس كاميرون: «لقد حذرتكم في عام 1984، ولم تستمعوا إلي».

في المستقبل البائس الذي يصوره الفيلم، يصمم البشر نظامًا عسكريًا مدعومًا بالذكاء الاصطناعي يخرج عن السيطرة ويدمر البشرية، وهو ما لم يحدث بالمعنى الدقيق للكلمة، لكن في الوقت نفسه، تغيرت الحرب بلا شك في الأربعين عامًا الماضية منذ عرض فيلم «المدمر» في دور السينما، وأصبح يتم نشر الأسلحة المدعومة بالذكاء الاصطناعي بنشاط في ساحات القتال من أوكرانيا إلى غزة، ومن المرجح أن تلعب دورًا حاسمًا في أي صراع بين الولايات المتحدة والصين.

لا تزال تحذيرات فيلم «المدمر» من أن الآلات لا يمكن الوثوق بها في اتخاذ القرارات المهمة، مثل متى ومن يجب إطلاق النار عليه، قائمة في النفس البشرية الجماعية. ومع ذلك، الخطر الحقيقي قد لا يكمن في ضعف السيطرة البشرية على هذه الأنظمة، بل في الاعتقاد الواهم بأنه يمكن السيطرة على هذه الأسلحة على الإطلاق. يوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في أنها يمكن تصميم أنظمة أفضل -أو أكثر أمانًا- بوجود البشر في حلقة اتخاذ القرار، أنظمة يمكن أن تتفوق على أنظمة الخصوم الاستبداديين الذين لديهم تحفظات أقل بشأن جعل كل شيء أوتوماتيكيًا.

ومع ذلك، عندما يتعلق الأمر بالسيطرة البشرية على أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، فإن الرأي السائد يظل أن المزيد أفضل. على سبيل المثال، تتطلب سياسة الحكومة الأمريكية صراحة أن يتم تصميم الأسلحة القاتلة المستقلة مع القدرة على التدخل البشري المناسب، ويؤكد كبار المسؤولين بانتظام على هذه الحقيقة. في أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة Replicator، وهي محاولة لنشر آلاف الأنظمة المستقلة في جميع الخدمات العسكرية بحلول أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس: «هناك دائمًا إنسان مسؤول عن استخدام القوة، نقطة». تسعى الأمم المتحدة إلى حظر الأسلحة المستقلة بالكامل واقترحت قواعد ملزمة دوليًا تتطلب من مثل هذه الأنظمة أن يكون هناك إنسان في حلقة إتخاذ القرار. تبنت العديد من المنظمات غير الحكومية، بما في ذلك Stop Killer Robots، ومعهد مستقبل الحياة Future of Life Institute، ومنظمة العفو الدولية، قضية السيطرة البشرية على الأسلحة المستقلة.

من غير الواقعي الاعتقاد بأن البشر يمكنهم التحكم في الخوارزميات المتطورة للأسلحة المستقلة أثناء القتال. فأنظمة الذكاء الاصطناعي المعاصرة غالبًا ما تكون معقدة لدرجة تجعل الإشراف البشري مستحيلًا، خاصة في ظروف الحرب التي تتسم بالتوتر والسرعة والانقطاع في التواصل. لذا، يجب على الجيوش استثمار الوقت والجهد خلال فترات السلم لبناء الثقة في نماذج الأسلحة المستقلة، وضمان جاهزيتها للعمل بفعالية ودون تدخل بشري مفرط عند اندلاع النزاعات.

تجعل المنافسة العسكرية بين الولايات المتحدة والصين تطوير ونشر أنظمة الأسلحة المستقلة أمرًا لا مفر منه، حيث تقدم الحرب في أوكرانيا دليلًا مبكرًا على هذا التحول في النموذج. وفي الوقت نفسه، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وعلى الفور لمجموعة متنوعة من الأغراض الأمنية - تحليل الاستخبارات، والسلامة البيولوجية، والأمن السيبراني، وغيرها.

لسنوات، استثمرت بكين بكثافة في القدرات التي تهدف إلى تحييد إسقاط القوة الأمريكية في شرق آسيا، مما قد يسمح للصين بفرض أمر واقع على تايوان. وحتى وقت قريب، أعطى الجيش الأمريكي الأولوية للحفاظ على عدد صغير من منصات الأسلحة الكبيرة، مثل حاملات الطائرات والطائرات المقاتلة والقاذفات المتطورة. لكن هذا النهج لم يعد مستدامًا. فقد بنت الصين ووزعت عددًا كبيرًا من أنظمة الأسلحة الرخيصة نسبيًا، مثل: الصواريخ الباليستية المضادة للسفن والغواصات التي تعمل بالديزل والكهرباء، والتي قد تدمر بسهولة المنصات الرائعة للجيش الأمريكي ــ وهي استراتيجية تسمى «الإنكار»، التي تمنع الخصم من اتخاذ إجراء غير مرغوب فيه، ولكنها لا تسعى إلى تغيير رأي الخصم. ومن أجل استعادة ميزة الولايات المتحدة في شرق آسيا، شرع كل فرع من فروع القوات المسلحة في نشر ما يكفي من الأنظمة التي تعمل بدون تدخل بشري مباشر للتغلب على قدرات الإنكار الصينية.

الواقع أن الأسلحة الأوتوماتيكية والذكاء الاصطناعي والطائرات بدون طيار بدرجات متفاوتة من الاستقلالية تشكل مكونات أساسية في أحدث مفاهيم العمليات التي تتبناها الخدمات العسكرية الأمريكية: تصميم قوة مشاة البحرية لعام 2030، والعمليات البحرية الموزعة للبحرية، وعمليات القتال واسعة النطاق للجيش، ومفهوم التشغيل المستقبلي للقوات الجوية، كل هذه المفاهيم تعتمد بدورها على مبادرة مستمرة أطلقت في عام 2022 والمعروفة باسم القيادة والسيطرة المشتركة لجميع المجالات، والتي بلغت تكلفتها 1.4 مليار دولار في عام 2024 وحده. ووفقًا لوزارة الدفاع، يهدف البرنامج إلى ربط «كل جهاز استشعار وكل مطلق نار» من أجل «اكتشاف وجمع وربط وتجميع ومعالجة واستغلال البيانات من جميع المجالات والمصادر» وبالتالي إنشاء «نسيج بيانات» موحد. وببساطة، ينبغي أن يكون كل شيء قادر على جمع البيانات، من الأقمار الصناعية إلى الطائرات بدون طيار البحرية إلى الجندي في الميدان، قادرًا على مشاركتها واستخدامها.

الأنظمة التي تعمل بدون تدخل بشري تشكل ركيزة لا غنى عنها في هذا النسيج من البيانات. فعلى الأرض، سوف تعمل هذه الأنظمة على تعزيز القدرة على القتل والحد من الخسائر بين الأصدقاء والمدنيين من خلال توفير قدر أعظم من الدقة. وفي الجو، سوف تتمتع الطائرات بدون طيار بقدرة أكبر على التحمل والقدرة على المناورة، وسوف تنتشر بأعداد أكبر، وتتعاون لتغطية مناطق أكبر، وتعقّد عملية الاستهداف المضاد للعدوان. وفي البحر، سوف تخترق السفن التي تعمل بدون تدخل بشري مناطق كانت من قبل يصعب الوصول إليها.

بطبيعة الحال، ليست التكتيكات والعمليات هي الاعتبارات الوحيدة في الحرب. ومن منظور أخلاقي، يخشى العديد من المراقبين أنه في غياب الرقابة، قد تنطلق الآلات غير المفكرة في فوضى، وتنتهك المبادئ العريقة مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين). ويخشى آخرون أن تستغل الأنظمة المستقلة السكان الضعفاء بسبب التحيزات في بيانات التدريب الخاصة بها أو أن تقوم جهات غير حكومية باختراق أو سرقة الأسلحة المستقلة واستخدامها لأغراض خبيثة.

يرى منتقدو الأسلحة المستقلة أن التركيز على الفعالية التكتيكية أو التشغيلية يمكن أن يؤدي إلى نتائج استراتيجية كارثية، مثل التصعيد غير المقصود. فهم يجادلون بأن البشر يمتلكون قدرة على دمج سياق أوسع في قراراتهم، مما يجعلهم أكثر مرونة في التعامل مع الفوضى أو الظروف غير المتوقعة مقارنة بالآلات التي تلتزم بالنص المبرمج. ومع ذلك، لا يزال الشك يحيط بفكرة السماح للآلات باتخاذ قرارات خطيرة مثل القتل أو تصعيد النزاعات العسكرية. تستند هذه الشكوك إلى أمثلة ملموسة لأخطاء الذكاء الاصطناعي، مثل حوادث السيارات ذاتية القيادة أو «هلوسات» أنظمة الدردشة. ويظل الاعتقاد السائد أن البشر أقل ميلًا لسفك الدماء دون داعٍ أو تصعيد الصراعات بشكل غير محسوب.

تدعم هذه الحجج الأخلاقية والعملية الحقيقة الأساسية المتمثلة في أن حتى أكثر الأنظمة المستقلة تقدمًا مع الذكاء الاصطناعي سوف ترتكب أخطاء. ومع ذلك، فقد تقدم الذكاء الاصطناعي إلى النقطة التي أصبح فيها التحكم البشري في كثير من الأحيان اسميًا أكثر من كونه حقيقيًا. والواقع أن الشعور المتضخم بقدرة البشر على التحكم في الذكاء الاصطناعي من شأنه أن يؤدي إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون. والوهم بأن البشر سوف يكونون قادرين على التدخل في سيناريوهات قتالية مستقبلية تعد بالتوتر الشديد والسرعة العالية -وخلالها سوف تتدهور الاتصالات أو تتقطع- يمنع صناع السياسات والعسكريين ومصممو الأنظمة من اتخاذ الخطوات اللازمة لابتكار واختبار وتقييم أنظمة مستقلة آمنة.

سوف تكون الحروب المستقبلية التي تعتمد على الذكاء الاصطناعي أسرع وأكثر اعتمادًا على البيانات، حيث يمكن نشر أنظمة الأسلحة التي تعتمد على الذكاء الاصطناعي (على سبيل المثال، أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع. ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة. على سبيل المثال، استخدمت إسرائيل نظام توليد أهداف مدعوم بالذكاء الاصطناعي أثناء الحرب في غزة، وهذا النظام، الذي يستخدم مئات الآلاف من التفاصيل لتصنيف الأهداف على أنها معادية، متطور بحيث لا يمكنه التكهن عندما يتعين اتخاذ القرارات في دقائق أو ثوانٍ.

البشر لا يستطيعون تفسير الكميات الهائلة من البيانات التي تجمعها مثل هذه المجموعة من الأنظمة وتحليلها لاتخاذ قرارات سليمة. من الممكن توسيع نطاق الأنظمة المستقلة لاستيعاب عدد أكبر من المهام التفاعلية والمعقدة، لكن القدرات البشرية ثابتة. وسوف يؤدي الضغط لتسريع التفسير والتحليل البشري إلى اتخاذ قرارات أقل تفكيرًا وأكثر عرضة للخطأ. وفي الوقت نفسه، وبدون تسريع عملية اتخاذ القرار، فإن اختيار الإجراءات سوف يصبح عتيقًا في بيئة سريعة الحركة.

في الصراعات المستقبلية، وخاصة بين الولايات المتحدة والصين، قد يؤدي استهداف الأقمار الصناعية والتشويش على الاتصالات إلى عزل القادة والأفراد عن الإشراف والدعم، مثال على ذلك، قوات مشاة البحرية «القوات الاحتياطية» المصممة كوحدات قتالية صغيرة موزعة تعمل ضمن نطاق الأسلحة الصينية. لضمان البقاء، ستقلل هذه القوات توقيعاتها الكهرومغناطيسية بالحد من استخدام أجهزة الاتصالات والرادارات، ما يفرض عليها اتخاذ قرارات مستقلة اعتمادًا على البيانات التي تجمعها فقط، دون سياق خارجي أو دعم إضافي.

اقترح صناع السياسات والقادة العسكريون تقليل استخدام الأنظمة المستقلة لتناسب السرعة البشرية، سيؤدي فقط إلى استجابات أبطأ، كما أن تحسين تدريب المشغلين يحقق مكاسب محدودة نظرًا لتفوق الذكاء الاصطناعي في القوة المعرفية وزيادة حجم البيانات.

رغم تصريحات المسؤولين الأمريكيين بأن أنظمة الذكاء الاصطناعي العسكرية يجب أن تقتصر على تقديم اقتراحات، فإن الحرب المدعومة بالذكاء الاصطناعي تُظهر استقلالية أكبر في العمليات. مثال ذلك الطائرات بدون طيار في أوكرانيا، التي تعمل بشكل مستقل بسبب التشويش على اتصالاتها. ولا يمكن بسهولة فصل الاستخدامات الدفاعية عن الهجومية للأسلحة ذاتية التشغيل، حيث يمكن أن يدعم الدفاع التكتيكي الهجوم العملياتي والعكس، وفقاً للاستراتيجيات العسكرية الكلاسيكية.

توصيات السيطرة البشرية على الأسلحة المستقلة ليست سوى مسكنات، تمنح شعورًا زائفًا بالأمان بينما تعرقل قدرة القوات على تحقيق النصر وتضع عبء القرارات الأخلاقية والعملية على الجنود في ظروف حرجة. بدلاً من ذلك، يجب على صناع السياسات تبني نهج واقعي وأكثر أخلاقية لأنظمة الأسلحة المستقلة. يتطلب هذا النهج أن تُتخذ القرارات الحاسمة، مثل تلك المتعلقة بالتناسب والتمييز، في أوقات السلم، حيث يمكن الاعتماد على المدخلات المتخصصة والنقاش الديمقراطي والإشراف الفعّال. الهدف هو ضمان السيطرة البشرية والمساءلة في ظروف مناسبة، بعيدًا عن ضغوط الحرب حيث يمكن أن تؤدي القرارات المتسرعة إلى خسائر جسيمة.

في العقود القادمة، ستعتمد الولايات المتحدة بشكل متزايد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي. التمسك بفكرة السيطرة البشرية أثناء الحرب سيضع الدول الديمقراطية في موقف ضعف أمام خصوم لا يلتزمون بهذه القيود. كما أن اتخاذ القرارات الحاسمة أثناء الحرب، في ظل الضغوط الشديدة، قد يؤدي إلى نتائج أقل أخلاقية. لذلك، ينبغي للحكومات برمجة المدخلات البشرية في الأنظمة مسبقًا، مع مراقبتها وتحسينها باستمرار، وبناء الثقة بها. الفشل في تحقيق ذلك قد يجعل السيطرة البشرية على الذكاء الاصطناعي العسكري أكثر تكلفة في الأرواح بدلاً من إنقاذها.

سيباستيان إلباوم عالم كمبيوتر أمريكي من أصل أرجنتيني، وأستاذ في جامعة فرجينيا.

جوناثان بانتر زميل ستانتون للأمن النووي في مجلس العلاقات الخارجية (CFR).

المقال نشر في Foreign Affairs

مقالات مشابهة

  • العفو الدولية: كيان الاحتلال يرتكب إبادة جماعية ضد الفلسطينيين في غزة بحجة الدفاع عن النفس
  • أسلحة الذكاء الاصطناعي ووهم سيطرة البشر
  • العفو الدولية: سلطات الاحتلال تشن هجوماً عسكرياً وحشياً لا هوادة فيه على غزة
  • العفو الدولية: الاحتلال الإسرائيلي يشن هجوماً عسكرياً وحشياً لا هوادة فيه على غزة
  • أردوغان: تركيا مستعدة للتوسط لحل الخلاف بين السودان والإمارات .. خلال اتصال أجراه الرئيس التركي مع رئيس مجلس السيادة السوداني عبد الفتاح البرهان..
  • وثائق تكشف عن رحلات إماراتية لنقل أسلحة إلى الدعم السريع في السودان
  • أردوغان يعرض الوساطة لحل الخلاف بين الإمارات والسودان
  • جرائم دارفور: محاكمة قائد ميليشيا الجنجويد علي كوشيب أمام الجنائية الدولية تدخل مرحلتها النهائية
  • رحلات إماراتية تتردد على مطار تقول الأمم المتحدة إنه نقل أسلحة إلى الدعم السريع بالسودان
  • رحلات إماراتية تتردد على مطار تقول الأمم المتحدة إنه نقل أسلحة إلى قوات