في 22 أكتوبر/تشرين الأول الماضي، نشر جيش الاحتلال الإسرائيلي لقطات فيديو لوحدة "ماجلان" وهي تستخدم قذيفة هاون جديدة عالية الدقة، أطلقت عليها "اللدغة الحديدية" (Iron Sting)، في قصفها للمدنيين داخل قطاع غزة. هذه القذائف أعلنت عنها شركة "أنظمة إلبيط" (Elbit Systems) الإسرائيلية منذ مارس/آذار عام 2021، لكنها استُخدمت للمرة الأولى في الحرب الدائرة حاليا على قطاع غزة، وفقا لما ذكرته صحيفة "يديعوت أحرنوت" الإسرائيلية (1).

تستخدم فرق المشاة قذائف الهاون عادة في مناطق القتال، كما تستخدمها كتائب القسام نفسها ضد جنود الاحتلال، لكن دقة قذائف الهاون العادية تظل منخفضة إلى حدٍّ ما، ما يتطلب استخدام أعداد كبيرة منها، وهنا تأتي قيمة هذه القذائف المتطورة التي تذكر الشركة أنها صُممت للاشتباك مع "أهداف ثابتة بدرجة عالية من الدقة، باستخدام التوجيه بالليزر أو بنظام تحديد المواقع العالمي (GPS)".

تلك القذيفة المتطورة هي فقط أحد الأسلحة الجديدة التي تستخدمها إسرائيل في حربها الطاحنة على غزة الآن، ولكنها ليست السلاح الجديد الوحيد الذي تجربه في الحرب الحالية، والواقع أن دولة الاحتلال طالما لجأت إلى تجريب الأسلحة الجديدة في حروبها على الأبرياء العُزّل في غزة وغيرها.

 

طائرات بالذكاء الاصطناعي (الجزيرة)

أشار تقرير في صحيفة "بوليتيكو" (2) إلى أنه بعد ساعات من هجوم "طوفان الأقصى"، سارع جيش الاحتلال الإسرائيلي إلى مراسلة شركة "سكايديو" (Skydio)، وهي شركة تقنية أميركية تعمل في إنتاج المسيرات، وطلب منها توريد طائرات استطلاع قصيرة المدى تعتمد في تحركها على الذكاء الاصطناعي دون الحاجة إلى توجيه بشري، وتُستخدم في إجراء مسح ثلاثي الأبعاد للهياكل الهندسية المعقدة مثل المباني بمختلف أنواعها.

في غضون الأسابيع الثلاثة بعد "طوفان الأقصى"، أرسلت الشركة الأميركية أكثر من 100 مسيرة جديدة من هذا النوع إلى جيش الاحتلال، مع وعد بإرسال المزيد في المستقبل وفقا لمارك فالنتين، المدير التنفيذي المسؤول عن التعاقدات الحكومية في الشركة. بيد أن "سكايديو" لم تكن الشركة الأميركية الوحيدة التي تتلقى طلبات من جيش الاحتلال لإرسال هذا النوع من الطائرات، فوفقا للصحيفة الأميركية، فإن حرب غزة خلقت طلبا على تلك التقنيات العسكرية المتطورة، التي تعتمد على الذكاء الاصطناعي، وتوفرها شركات تقنية صغيرة الحجم نسيبا.

كل ذلك يأتي في الحين الذي يستخدم فيه جيش الاحتلال بالفعل طائرات ذاتية القيادة من شركة "شيلد إيه آي" (ShieldAI) الأميركية، وهي طائرات "نوفا 2" (Nova2)، لكن هذا النوع من المسيرات يُستخدم داخل المباني فقط، إذ يعتمد على تخطيط المسارات وخوارزميات الرؤية الحاسوبية للتحرك ذاتيا داخل المباني بدون الحاجة إلى نظام "جي بي إس" (GPS) أو للتوجيه البشري (3).

كما أشارت تقارير أخرى إلى أن إسرائيل طلبت من الولايات المتحدة شراء 200 مسيّرة انتحارية من طراز "سويتش بليد 600" (Switchblade 600)، وهي طائرات تمتلك كاميرا متطورة ويمكنها حمل كمية من المواد المتفجرة، ولديها القدرة على استقبال المعلومات من الطائرات بدون طيار القريبة منها (4). تُستخدم "سويتش بيلد 600" في الأساس لمهاجمة الأهداف القريبة، ويصل مدى هذا النموذج إلى 40 كيلومترا، وقدرة على الطيران لمدة 40 دقيقة، وهي الطائرات نفسها التي كان قد وفّرها الجيش الأميركي لأوكرانيا العام الماضي في حربها ضد روسيا.

 

قصف بالخوارزميات

لا يقتصر استخدام الجيش الإسرائيلي للذكاء الاصطناعي على هذه المسيرات الحديثة فحسب، بل يستفيد منه في تحديد الأهداف على الأرض عند القصف. بعد الحرب على غزة في مايو/أيار عام 2021، ذكر المسؤولون أن إسرائيل خاضت "حربها الأولى في مجال الذكاء الاصطناعي"، لكن الحرب الحالية أتاحت الفرصة لجيش الاحتلال لاستخدام هذه التقنيات في مسرح عمليات أوسع كثيرا من المرة السابقة، وخاصة فيما يتعلق بمنصة تحديد الأهداف بالذكاء الاصطناعي المعروفة باسم "جوسبل" (The Gospel).

يستخدم جيش الاحتلال "جوسبل" في تقدير عدد الضحايا المدنيين في القصف، واقتراح الأهداف الأكثر صلة بالهجوم داخل محيط معين، وحساب كمية الذخيرة اللازمة. وتُعَدُّ هذه الخوارزميات إحدى أكثر طرق القصف تدميرا وفتكا في القرن الحادي والعشرين، وفقا لتقرير صحيفة "ليبراسيون" الفرنسية (5).

نقلت الصحيفة عن وسائل إعلام إسرائيلية أن استخدام هذه الحلول التقنية يفسر كيف تمكن الجيش الإسرائيلي من قصف قطاع غزة بهذه الوتيرة المحمومة، فبحسب أرقام جيش الاحتلال، قُصِف 15 ألف موقع خلال الـ35 يوما الأولى من الحرب على القطاع، واعترف بأن خوارزمية "جوسبل" سمحت له تلقائيا بتحديد الأهداف بوتيرة سريعة. كما ذكرت أن جيش الاحتلال قال إن خوارزمية "جوسبل" تسجل 100 هدف يوميا للقصف، في حين كان الجيش يضع 50 هدفا سنويا في غزة لقصفهم، ووصف ضباط سابقون بالجيش الخوارزمية بأنها "مصنع اغتيالات جماعية".

يعتمد نظام "جوسبل" على معلومات وصور من الطائرات المسيّرة والمعلومات القادمة من اعتراض الاتصالات، كما يستخدم بيانات أبراج المراقبة لرصد تحركات الأفراد المستهدفين، ثم يعطي إرشادات لأهداف يجب مهاجمتها، مع بيان حول عدد الأشخاص المحتمل قتلهم في القصف.

وفي منتصف يونيو/حزيران الماضي، أوضح مسؤول إسرائيلي لوكالة "بلومبيرغ" الأميركية أنه يجري استخدام نموذجين لبناء مجموعة بيانات تعتمد على خوارزميات بشأن الأهداف المحددة، بهدف حساب كمية الذخيرة المحتملة وتحديد أولويات وتعيين آلاف الأهداف للطائرات، واقتراح جدول زمني للغارات (6). وبحسب المسؤول نفسه فإن تلك الأنظمة تخضع لمُشغِّل بشري يتولى فحص الأهداف وخطط الغارات الجوية والموافقة عليها، ومن اللافت أن البرنامج لا يأخذ القرار بنفسه، بل يتركه لقائد الوحدة الذي يضغط زر التدمير بعد أن تصله قائمة الأهداف.

 

أسلحة جديدة للتدمير الدمار الكبير الحادث في قطاع غزة نتيجة القصف المستمر والعنيف على القطاع منذ ما يقارب الشهرين. (الفرنسية)

ذكرت صحيفة "يديعوت أحرنوت" أيضا أن عدة أسلحة جديدة، تخص سلاح المشاة تحديدا، تُختبر في الاجتياح البري لقطاع غزة، وجزءا من دعم الإدارة الأميركية المستمر لإسرائيل، أرسل البنتاغون إلى الاحتلال صاروخين جديدين من الصواريخ المحمولة على الكتف وهما "ليو" (Leo) و"إم جي إم -1 ماتادور" (MGM-1 Matador). ستدخل تلك الصواريخ الجديدة ضمن الترسانة الحالية لكتائب المشاة المشاركة في الغزو البري لقطاع غزة، وهي أكبر بنسبة 50% من الصواريخ المتاحة حاليا لدى جيش الاحتلال، وتملك نطاقا أوسع للتدمير (7).

كما أشارت الصحيفة إلى أن قوات المشاة بدأت في استخدام النسخة الأحدث من المدفع الرشاش "آي دبليو آي نقب 7" (IWI Negev 7) في الحرب على قطاع غزة، وهو سلاح من إنتاج شركة صناعات السلاح الإسرائيلية (آي دبليو آي)، ويستخدم رصاصة بقُطر 7.62 ملم مما يمنحه قوة أكبر في اختراق الجدران.

وذكرت الصحيفة أيضا استخدام جيش الاحتلال تقنيات جديدة للرؤية الليلية لأول مرة في الحرب عبر استخدام جهاز الرؤية الليلية الجديد (IDO)، وهو جهاز يقدم صورة ثلاثية الأبعاد ويسهل استخدامه لفترات زمنية طويلة. يمكن تثبيت الجهاز بسهولة على الجزء الأمامي من الخوذة، ويساعد على الرؤية الليلية بعين واحدة أو بكلتا العينين.

إيتان هي مركبة ذات 8 عجلات أخف بكثير من نمر، وهي بالتبعية أرخص منها في التكلفة بفارق كبير. (الصحافة الإسرائيلية)

في عام 2019، بدأ جيش الاحتلال باستخدام منظار ذكي على الأسلحة أطلق عليه اسم "الخنجر" (Dagger)، وخلال الحرب الحالية بدأ استخدام الجيل الثالث من هذا المنظار للمرة الأولى، ومن المفترض أنه يملك نظاما متطورا يستخدم أجهزة استشعار كهروضوئية ويعالج الصور بالذكاء الاصطناعي لتتبع الأهداف بدقة. كما استخدم الجيش الإسرائيلي لأول مرة حاملة الجند "إيتان" للعمل بصحبة المدرعات الإسرائيلية مثل "نمر"، وإيتان هي مركبة قتال مدرعة تعتمد على التقنيات المستخدمة في سلسلة دبابات "ميركافا" ومركبات المشاة القتالية المدرعة "نمر"، وهي نسخة مطورة حديثا (8).

تملك مركبة إيتان 8 عجلات، وهي أخف بكثير من المدرعة "نمر"، وأرخص منها في التكلفة بفارق كبير، وربما استُخدمت بسبب التكلفة المرتفعة لاستخدام "نمر" ونجاح قوات المقاومة في تدميرها بمعدلات مرتفعة غير مسبوقة أثناء الغزو البري، ما ضغط على تكلفة الحرب في غزة بالنسبة لإسرائيل.

تحاول إسرائيل إخراج كل ما بجعبتها في هذه المواجهة، وتستخدم أحدث ما في ترسانتها وترسانة حلفائها من أسلحة حديثة ومتطورة، لكن رغم كل هذه الأسلحة، وفي حرب إبادة ضد أطفال ونساء وشيوخ ورجال غزة، فإن جيش الاحتلال لم يتمكن حتى الآن من إنجاز أي أهداف حقيقية تُذكر من وراء تلك الحرب. والأهم أن المقاومة الفلسطينية تقف في وجه كل تلك التقنيات ببسالة وشجاعة منقطعة النظير، لتؤكد للجميع أن التطور والأسلحة لا تنتصر في الحروب وحدها، الأهم هو الإنسان الذي يستخدم تلك الأسلحة.

——————————————————————————-

المصادر:

1) IDF makes first operational use of Iron Sting precision mortar munition

2) Israel’s appetite for high-tech weapons highlights a Biden policy gap

3) Nova 2

4) إسرائيل تطلب شراء 200 مسيرة انتحارية من الولايات المتحدة

5) كيف يستخدم الجيش الإسرائيلي الذكاء الاصطناعي لقصف غزة؟

6) إسرائيل قصفت 15 ألف "هدف" خلال 35 يوما.. الذكاء الاصطناعي تحت مقصلة المغردين

7) New weaponry used by troops in Gaza

8) ما بعد محرقة الدبابات.. ماذا ستفعل إسرائيل في المرحلة الثانية؟

المصدر: الجزيرة

كلمات دلالية: بالذکاء الاصطناعی الذکاء الاصطناعی الجیش الإسرائیلی جیش الاحتلال قطاع غزة فی الحرب

إقرأ أيضاً:

أسلحة الذكاء الاصطناعي ووهم سيطرة البشر

ترجمة - نهى مصطفى -

في عام 1984، وعد أرنولد شوارزنيجر في فيلم الخيال العلمي الشهير «المدمرThe Terminator»، الذي لعب فيه دور قاتل آلي من المستقبل، بـأنه «سيعود». ولم يكن يمزح. في مقابلة أجريت معه عام 2023، أشار الممثل الذي أصبح حاكمًا لولاية كاليفورنيا إلى أن رؤية الفيلم للأسلحة الآلية أصبحت الآن حقيقة واقعة، أو كما قال مخرج الفيلم جيمس كاميرون: «لقد حذرتكم في عام 1984، ولم تستمعوا إلي».

في المستقبل البائس الذي يصوره الفيلم، يصمم البشر نظامًا عسكريًا مدعومًا بالذكاء الاصطناعي يخرج عن السيطرة ويدمر البشرية، وهو ما لم يحدث بالمعنى الدقيق للكلمة، لكن في الوقت نفسه، تغيرت الحرب بلا شك في الأربعين عامًا الماضية منذ عرض فيلم «المدمر» في دور السينما، وأصبح يتم نشر الأسلحة المدعومة بالذكاء الاصطناعي بنشاط في ساحات القتال من أوكرانيا إلى غزة، ومن المرجح أن تلعب دورًا حاسمًا في أي صراع بين الولايات المتحدة والصين.

لا تزال تحذيرات فيلم «المدمر» من أن الآلات لا يمكن الوثوق بها في اتخاذ القرارات المهمة، مثل متى ومن يجب إطلاق النار عليه، قائمة في النفس البشرية الجماعية. ومع ذلك، الخطر الحقيقي قد لا يكمن في ضعف السيطرة البشرية على هذه الأنظمة، بل في الاعتقاد الواهم بأنه يمكن السيطرة على هذه الأسلحة على الإطلاق. يوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في أنها يمكن تصميم أنظمة أفضل -أو أكثر أمانًا- بوجود البشر في حلقة اتخاذ القرار، أنظمة يمكن أن تتفوق على أنظمة الخصوم الاستبداديين الذين لديهم تحفظات أقل بشأن جعل كل شيء أوتوماتيكيًا.

ومع ذلك، عندما يتعلق الأمر بالسيطرة البشرية على أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، فإن الرأي السائد يظل أن المزيد أفضل. على سبيل المثال، تتطلب سياسة الحكومة الأمريكية صراحة أن يتم تصميم الأسلحة القاتلة المستقلة مع القدرة على التدخل البشري المناسب، ويؤكد كبار المسؤولين بانتظام على هذه الحقيقة. في أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة Replicator، وهي محاولة لنشر آلاف الأنظمة المستقلة في جميع الخدمات العسكرية بحلول أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس: «هناك دائمًا إنسان مسؤول عن استخدام القوة، نقطة». تسعى الأمم المتحدة إلى حظر الأسلحة المستقلة بالكامل واقترحت قواعد ملزمة دوليًا تتطلب من مثل هذه الأنظمة أن يكون هناك إنسان في حلقة إتخاذ القرار. تبنت العديد من المنظمات غير الحكومية، بما في ذلك Stop Killer Robots، ومعهد مستقبل الحياة Future of Life Institute، ومنظمة العفو الدولية، قضية السيطرة البشرية على الأسلحة المستقلة.

من غير الواقعي الاعتقاد بأن البشر يمكنهم التحكم في الخوارزميات المتطورة للأسلحة المستقلة أثناء القتال. فأنظمة الذكاء الاصطناعي المعاصرة غالبًا ما تكون معقدة لدرجة تجعل الإشراف البشري مستحيلًا، خاصة في ظروف الحرب التي تتسم بالتوتر والسرعة والانقطاع في التواصل. لذا، يجب على الجيوش استثمار الوقت والجهد خلال فترات السلم لبناء الثقة في نماذج الأسلحة المستقلة، وضمان جاهزيتها للعمل بفعالية ودون تدخل بشري مفرط عند اندلاع النزاعات.

تجعل المنافسة العسكرية بين الولايات المتحدة والصين تطوير ونشر أنظمة الأسلحة المستقلة أمرًا لا مفر منه، حيث تقدم الحرب في أوكرانيا دليلًا مبكرًا على هذا التحول في النموذج. وفي الوقت نفسه، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وعلى الفور لمجموعة متنوعة من الأغراض الأمنية - تحليل الاستخبارات، والسلامة البيولوجية، والأمن السيبراني، وغيرها.

لسنوات، استثمرت بكين بكثافة في القدرات التي تهدف إلى تحييد إسقاط القوة الأمريكية في شرق آسيا، مما قد يسمح للصين بفرض أمر واقع على تايوان. وحتى وقت قريب، أعطى الجيش الأمريكي الأولوية للحفاظ على عدد صغير من منصات الأسلحة الكبيرة، مثل حاملات الطائرات والطائرات المقاتلة والقاذفات المتطورة. لكن هذا النهج لم يعد مستدامًا. فقد بنت الصين ووزعت عددًا كبيرًا من أنظمة الأسلحة الرخيصة نسبيًا، مثل: الصواريخ الباليستية المضادة للسفن والغواصات التي تعمل بالديزل والكهرباء، والتي قد تدمر بسهولة المنصات الرائعة للجيش الأمريكي ــ وهي استراتيجية تسمى «الإنكار»، التي تمنع الخصم من اتخاذ إجراء غير مرغوب فيه، ولكنها لا تسعى إلى تغيير رأي الخصم. ومن أجل استعادة ميزة الولايات المتحدة في شرق آسيا، شرع كل فرع من فروع القوات المسلحة في نشر ما يكفي من الأنظمة التي تعمل بدون تدخل بشري مباشر للتغلب على قدرات الإنكار الصينية.

الواقع أن الأسلحة الأوتوماتيكية والذكاء الاصطناعي والطائرات بدون طيار بدرجات متفاوتة من الاستقلالية تشكل مكونات أساسية في أحدث مفاهيم العمليات التي تتبناها الخدمات العسكرية الأمريكية: تصميم قوة مشاة البحرية لعام 2030، والعمليات البحرية الموزعة للبحرية، وعمليات القتال واسعة النطاق للجيش، ومفهوم التشغيل المستقبلي للقوات الجوية، كل هذه المفاهيم تعتمد بدورها على مبادرة مستمرة أطلقت في عام 2022 والمعروفة باسم القيادة والسيطرة المشتركة لجميع المجالات، والتي بلغت تكلفتها 1.4 مليار دولار في عام 2024 وحده. ووفقًا لوزارة الدفاع، يهدف البرنامج إلى ربط «كل جهاز استشعار وكل مطلق نار» من أجل «اكتشاف وجمع وربط وتجميع ومعالجة واستغلال البيانات من جميع المجالات والمصادر» وبالتالي إنشاء «نسيج بيانات» موحد. وببساطة، ينبغي أن يكون كل شيء قادر على جمع البيانات، من الأقمار الصناعية إلى الطائرات بدون طيار البحرية إلى الجندي في الميدان، قادرًا على مشاركتها واستخدامها.

الأنظمة التي تعمل بدون تدخل بشري تشكل ركيزة لا غنى عنها في هذا النسيج من البيانات. فعلى الأرض، سوف تعمل هذه الأنظمة على تعزيز القدرة على القتل والحد من الخسائر بين الأصدقاء والمدنيين من خلال توفير قدر أعظم من الدقة. وفي الجو، سوف تتمتع الطائرات بدون طيار بقدرة أكبر على التحمل والقدرة على المناورة، وسوف تنتشر بأعداد أكبر، وتتعاون لتغطية مناطق أكبر، وتعقّد عملية الاستهداف المضاد للعدوان. وفي البحر، سوف تخترق السفن التي تعمل بدون تدخل بشري مناطق كانت من قبل يصعب الوصول إليها.

بطبيعة الحال، ليست التكتيكات والعمليات هي الاعتبارات الوحيدة في الحرب. ومن منظور أخلاقي، يخشى العديد من المراقبين أنه في غياب الرقابة، قد تنطلق الآلات غير المفكرة في فوضى، وتنتهك المبادئ العريقة مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين). ويخشى آخرون أن تستغل الأنظمة المستقلة السكان الضعفاء بسبب التحيزات في بيانات التدريب الخاصة بها أو أن تقوم جهات غير حكومية باختراق أو سرقة الأسلحة المستقلة واستخدامها لأغراض خبيثة.

يرى منتقدو الأسلحة المستقلة أن التركيز على الفعالية التكتيكية أو التشغيلية يمكن أن يؤدي إلى نتائج استراتيجية كارثية، مثل التصعيد غير المقصود. فهم يجادلون بأن البشر يمتلكون قدرة على دمج سياق أوسع في قراراتهم، مما يجعلهم أكثر مرونة في التعامل مع الفوضى أو الظروف غير المتوقعة مقارنة بالآلات التي تلتزم بالنص المبرمج. ومع ذلك، لا يزال الشك يحيط بفكرة السماح للآلات باتخاذ قرارات خطيرة مثل القتل أو تصعيد النزاعات العسكرية. تستند هذه الشكوك إلى أمثلة ملموسة لأخطاء الذكاء الاصطناعي، مثل حوادث السيارات ذاتية القيادة أو «هلوسات» أنظمة الدردشة. ويظل الاعتقاد السائد أن البشر أقل ميلًا لسفك الدماء دون داعٍ أو تصعيد الصراعات بشكل غير محسوب.

تدعم هذه الحجج الأخلاقية والعملية الحقيقة الأساسية المتمثلة في أن حتى أكثر الأنظمة المستقلة تقدمًا مع الذكاء الاصطناعي سوف ترتكب أخطاء. ومع ذلك، فقد تقدم الذكاء الاصطناعي إلى النقطة التي أصبح فيها التحكم البشري في كثير من الأحيان اسميًا أكثر من كونه حقيقيًا. والواقع أن الشعور المتضخم بقدرة البشر على التحكم في الذكاء الاصطناعي من شأنه أن يؤدي إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون. والوهم بأن البشر سوف يكونون قادرين على التدخل في سيناريوهات قتالية مستقبلية تعد بالتوتر الشديد والسرعة العالية -وخلالها سوف تتدهور الاتصالات أو تتقطع- يمنع صناع السياسات والعسكريين ومصممو الأنظمة من اتخاذ الخطوات اللازمة لابتكار واختبار وتقييم أنظمة مستقلة آمنة.

سوف تكون الحروب المستقبلية التي تعتمد على الذكاء الاصطناعي أسرع وأكثر اعتمادًا على البيانات، حيث يمكن نشر أنظمة الأسلحة التي تعتمد على الذكاء الاصطناعي (على سبيل المثال، أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع. ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة. على سبيل المثال، استخدمت إسرائيل نظام توليد أهداف مدعوم بالذكاء الاصطناعي أثناء الحرب في غزة، وهذا النظام، الذي يستخدم مئات الآلاف من التفاصيل لتصنيف الأهداف على أنها معادية، متطور بحيث لا يمكنه التكهن عندما يتعين اتخاذ القرارات في دقائق أو ثوانٍ.

البشر لا يستطيعون تفسير الكميات الهائلة من البيانات التي تجمعها مثل هذه المجموعة من الأنظمة وتحليلها لاتخاذ قرارات سليمة. من الممكن توسيع نطاق الأنظمة المستقلة لاستيعاب عدد أكبر من المهام التفاعلية والمعقدة، لكن القدرات البشرية ثابتة. وسوف يؤدي الضغط لتسريع التفسير والتحليل البشري إلى اتخاذ قرارات أقل تفكيرًا وأكثر عرضة للخطأ. وفي الوقت نفسه، وبدون تسريع عملية اتخاذ القرار، فإن اختيار الإجراءات سوف يصبح عتيقًا في بيئة سريعة الحركة.

في الصراعات المستقبلية، وخاصة بين الولايات المتحدة والصين، قد يؤدي استهداف الأقمار الصناعية والتشويش على الاتصالات إلى عزل القادة والأفراد عن الإشراف والدعم، مثال على ذلك، قوات مشاة البحرية «القوات الاحتياطية» المصممة كوحدات قتالية صغيرة موزعة تعمل ضمن نطاق الأسلحة الصينية. لضمان البقاء، ستقلل هذه القوات توقيعاتها الكهرومغناطيسية بالحد من استخدام أجهزة الاتصالات والرادارات، ما يفرض عليها اتخاذ قرارات مستقلة اعتمادًا على البيانات التي تجمعها فقط، دون سياق خارجي أو دعم إضافي.

اقترح صناع السياسات والقادة العسكريون تقليل استخدام الأنظمة المستقلة لتناسب السرعة البشرية، سيؤدي فقط إلى استجابات أبطأ، كما أن تحسين تدريب المشغلين يحقق مكاسب محدودة نظرًا لتفوق الذكاء الاصطناعي في القوة المعرفية وزيادة حجم البيانات.

رغم تصريحات المسؤولين الأمريكيين بأن أنظمة الذكاء الاصطناعي العسكرية يجب أن تقتصر على تقديم اقتراحات، فإن الحرب المدعومة بالذكاء الاصطناعي تُظهر استقلالية أكبر في العمليات. مثال ذلك الطائرات بدون طيار في أوكرانيا، التي تعمل بشكل مستقل بسبب التشويش على اتصالاتها. ولا يمكن بسهولة فصل الاستخدامات الدفاعية عن الهجومية للأسلحة ذاتية التشغيل، حيث يمكن أن يدعم الدفاع التكتيكي الهجوم العملياتي والعكس، وفقاً للاستراتيجيات العسكرية الكلاسيكية.

توصيات السيطرة البشرية على الأسلحة المستقلة ليست سوى مسكنات، تمنح شعورًا زائفًا بالأمان بينما تعرقل قدرة القوات على تحقيق النصر وتضع عبء القرارات الأخلاقية والعملية على الجنود في ظروف حرجة. بدلاً من ذلك، يجب على صناع السياسات تبني نهج واقعي وأكثر أخلاقية لأنظمة الأسلحة المستقلة. يتطلب هذا النهج أن تُتخذ القرارات الحاسمة، مثل تلك المتعلقة بالتناسب والتمييز، في أوقات السلم، حيث يمكن الاعتماد على المدخلات المتخصصة والنقاش الديمقراطي والإشراف الفعّال. الهدف هو ضمان السيطرة البشرية والمساءلة في ظروف مناسبة، بعيدًا عن ضغوط الحرب حيث يمكن أن تؤدي القرارات المتسرعة إلى خسائر جسيمة.

في العقود القادمة، ستعتمد الولايات المتحدة بشكل متزايد على أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي. التمسك بفكرة السيطرة البشرية أثناء الحرب سيضع الدول الديمقراطية في موقف ضعف أمام خصوم لا يلتزمون بهذه القيود. كما أن اتخاذ القرارات الحاسمة أثناء الحرب، في ظل الضغوط الشديدة، قد يؤدي إلى نتائج أقل أخلاقية. لذلك، ينبغي للحكومات برمجة المدخلات البشرية في الأنظمة مسبقًا، مع مراقبتها وتحسينها باستمرار، وبناء الثقة بها. الفشل في تحقيق ذلك قد يجعل السيطرة البشرية على الذكاء الاصطناعي العسكري أكثر تكلفة في الأرواح بدلاً من إنقاذها.

سيباستيان إلباوم عالم كمبيوتر أمريكي من أصل أرجنتيني، وأستاذ في جامعة فرجينيا.

جوناثان بانتر زميل ستانتون للأمن النووي في مجلس العلاقات الخارجية (CFR).

المقال نشر في Foreign Affairs

مقالات مشابهة

  • صور لمادونا مع البابا فرانسيس أنتجت بالذكاء الاصطناعي.. هل يجب أن تثير الاهتمام أو الغضب؟ أم لا؟
  • إستشهاد 12 ألف و799 طالب فلسطيني منذ بدء الحرب الإسرائيلية على القطاع
  • إستسهاد 12 ألف و799 طالب فلسطيني منذ بدء الحرب الإسرائيلية على القطاع
  • فصائل تعقب على مشاهد التي نشرتها قناة الجزيرة
  • أوبن إي آي تطرح محرك البحث المدعوم بالذكاء الاصطناعي لجميع المستخدمين
  • إسرائيل: سنواصل السيطرة الأمنية على غزة بعد الحرب
  • أول بنك مدعوم بالذكاء الاصطناعي.. "زاند" يقدم خدمات حفظ الأصول الرقمية بالإمارات
  • إيلون ماسك يطرح برنامجًا حديثًا للدردشة بالذكاء الاصطناعي
  • أسلحة الذكاء الاصطناعي ووهم سيطرة البشر
  • متحف مصر الكبير..آثار فرعونية تتحدث مع زائريها بالذكاء الاصطناعي