روبوتات قاتلة وأسلحة فتاكة ذاتية التشغيل... لمحة من حروب المستقبل
تاريخ النشر: 17th, September 2023 GMT
بالتأكيد سمعت عن الروبوتات القاتلة، أو الإنسان الآلي القاتل في الروايات أو الأفلام، أو ما يطلق عليه رسمياً «الأسلحة الفتاكة ذاتية التشغيل».
فكرة وجود سلاح ذكي للغاية ويقتل بعشوائية ما زالت في عداد الخيال العلمي، لكن الأسلحة التي تعتمد على الذكاء الاصطناعي أصبحت معقدة للغاية، وتتسبب في نمو الشعور بالقلق والخوف لدى البعض من عدم القدرة على محاسبة المخطئين، وإمكانية وقوع أخطاء تقنية.
لقد شاهدنا بالفعل الذكاء الاصطناعي، الذي كان من المفترض أن يكون حيادياً، ينتج خوارزميات متحيزة ضد جنس بعينه، أو ينتج أنظمة مراقبة محتوى قليلة الكفاءة، وذلك وفقاً لما نشره موقع «ذا كونفرزيشن»، بسبب أن صناع أنظمة الذكاء الاصطناعي تلك لم يفهموا جيداً التكنولوجيا التي بين أيديهم. لكن في وقت الحروب، هذه الأخطاء قد تتسبب في مقتل مدنيين أو إفساد المفاوضات بين الجانبين.
على سبيل المثال، لو تم تدريب خوارزميات التعرف على الأهداف عن طريق صور من الأقمار الاصطناعية تظهر دبابات وحولها جنود، قد يخطئ الذكاء الاصطناعي، ويعد سيارة مدنية تمر عبر حاجز عسكري هدفاً مثل دبابة وحولها جنود.
هل نحتاج لأسلحة ذاتية التشغيل
عانى العديد من المدنيين في عدة دول من الطريقة التي تبني بها القوى العظمى أسلحتها المتقدمة. والكثير يرون أن هذه الأسلحة سببت ضرراً أكثر مما جلبت نفعاً، وفي الآونة الأخيرة يشيرون إلى الغزو الروسي لأوكرانيا في بداية عام 2022.
ويرى الفريق المقابل أن على كل دولة أن تكون قادرة على حماية نفسها، أي أن تواكب التكنولوجيا العسكرية التي توصلت إليها الدول الأخرى. والذكاء الاصطناعي تغلب على الإنسان في لعبتي الشطرنج والبوكر، كما أنه يفوق أداء الإنسان في الواقع أيضاً.
تقول شركة «مايكروسوفت» أن برمجية التعرف على الكلمات التابعة لها تبلغ نسبة الخطأ بها 1 في المائة مقارنة بنسبة الخطأ لدى البشر التي تبلغ 6 في المائة، لذلك ليس من الغريب أن الجيوش تسلم، ببطء، زمام المبادرة إلى الخوارزميات.
ما هي الأسلحة الفتاكة الذاتية التشغيل؟
تعرف وزارة الدفاع الأميركية الأسلحة الفتاكة ذاتية التشغيل بأنها «نظم أسلحة بمجرد تشغيلها يمكنها تحديد الأهداف والاشتباك معها بدون تدخل إنسان أو مُشغل بشري».
وينطبق هذا التعريف على العديد من نظم القتال، فأنظمة الحاسب الآلي على متن الطائرات المسيرة، وبعض الصواريخ الحديثة لديها خوارزميات تمكنها من تحديد الأهداف وإطلاق النار عليها بدقة أكبر من مشغلها البشري.
ونظام القبة الحديدية الإسرائيلي هو واحد من تلك الأنظمة الذي يمكنه الاشتباك مع الأهداف دون إشراف بشري.
ورغم أنها مصممة للحماية من الصواريخ، فإن أنظمة القبة الحديدية يمكنها قتل أشخاص بالخطأ. لكن هذه المخاطرة مقبولة لدى المجتمع السياسي الدولي، لأن القبة الحديدية يعتمد عليها في إنقاذ أرواح المدنيين.
الأسلحة التي تعتمد على الذكاء الاصطناعي موجودة بالفعل، مثل روبوتات الحراسة، والمسيرات الانتحارية المستخدمة في حرب أوكرانيا. إذا كنا نسعى للسيطرة على استخدام الأسلحة الفتاكة ذاتية التشغيل فيجب أن نفهم تاريخ الأسلحة الحديثة.
قواعد الحرب
إبرام اتفاقات دولية، مثل معاهدة جنيف، لتنظيم التعامل مع أسرى الحرب أو المدنيين أثناء الصراع كان واحدة من الأدوات لمحاولة السيطرة على كيفية خوض الحروب.
لكن للأسف، استخدام الولايات المتحدة لأسلحة كيماوية في فيتنام، أو استخدام روسيا لها في أفغانستان، دليل على أن هذه الإجراءات غير كافية.
في عام 1997 تضمنت معاهدة أوتاوا منعاً لاستخدام الألغام الأرضية والقنابل العنقودية، ووقعت عليها 122 دولة، لكن الولايات المتحدة وروسيا والصين لم توقع.
وتتسبب الألغام الأرضية في جرح وقتل نحو 5 آلاف جندي ومدني سنوياً منذ عام 2015، وفي 2017 وصل العدد إلى 9440 شخصاً.
ويذكر تقرير الألغام الأرضية والقنابل العنقودية لعام 2022 أن «الخسائر في ارتفاع آخر 7 سنوات بعد عقد كامل من تراجع أعداد الضحايا، وهذا الارتفاع نتيجة زيادة الصراعات واستخدام الألغام المرتجلة منذ عام 2015، ويمثل المدنيون معظم الضحايا ونصفهم من الأطفال».
وهناك أدلة على أن روسيا وأوكرانيا (وهي موقعة على معاهدة أوتاوا) تستخدمان الألغام الأرضية، بالإضافة إلى أن أوكرانيا تعتمد على الطائرات المسيرة لتوجيه ضربات المدفعية وتستخدمها في الهجمات الانتحارية على البنية التحتية الروسية.
رغم الاعتراضات، يظل منع الأسلحة الفتاكة ذاتية التشغيل غير واقعي لسببين: الأول، أن هذه الأسلحة أصبحت واقعاً بالفعل مثل الألغام. الثاني أن الفرق بين الأسلحة الفتاكة ذاتية التشغيل والروبوتات القاتلة ضبابي ما يصعب عملية التفرقة بينهما. والقادة العسكريون سيجدون طرقاً للالتفاف حول المنع، وتصنيف الروبوتات القاتلة أسلحة دفاعية آلية وإدخالها إلى الخدمة.
في المستقبل سنرى استخدام المزيد من أنظمة الأسلحة المعتمدة على الذكاء الاصطناعي، لكن هذا لا يعني أننا يجب أن نغض الطرف عنها، فهناك قيود دقيقة ستساهم في محاسبة السياسيين وعلماء البيانات والمهندسين. على سبيل المثال يجب منع مفهوم الصندوق الأسود في الذكاء الاصطناعي، وهو يشير إلى نظام لا يستطيع المستخدم رؤية المدخلات والمخرجات فيه.
وأنظمة الذكاء الاصطناعي غير الموثوق بها، هي الأنظمة التي لم تختبر جيداً قبل تشغيلها.
المصدر: مأرب برس
إقرأ أيضاً:
كيف يشكل الذكاء الاصطناعي مستقبلنا الرقمي؟ وما جانبه المظلم؟
وتحتل البيتكوين اليوم مكانة كأصل إستراتيجي في احتياطيات بعض الدول مدفوعة بثورة صامتة قادها الذكاء الاصطناعي.
وحسب حلقة (2025/4/30) من برنامج "حياة ذكية"، فإن الذكاء الاصطناعي ساهم بشكل كبير في رفع كفاءة عمليات تعدين البيتكوين بنسبة تصل إلى 30%، وفقا لبيانات جامعة كامبردج، مما أدى إلى تقليل استهلاك الطاقة ومعالجة أحد أبرز الانتقادات الموجهة لهذه الصناعة والمتعلقة ببصمتها الكربونية.
كما لعبت خوارزميات التعلم العميق دورا حاسما في تعزيز أمان المحافظ الرقمية، إذ تمكنت شركات مثل "تشين أناليسيس" من تطوير أنظمة قادرة على تتبع المعاملات الاحتيالية واسترداد مليارات الدولارات من الأصول المسروقة.
ولم يتوقف تأثير الذكاء الاصطناعي عند هذا الحد، بل امتد ليشمل تسريع المعاملات عبر تطوير شبكات التحويل السريع مثل شبكة البرق، مما جعل البيتكوين منصة أكثر مرونة لمختلف التطبيقات.
ودفع هذا التطور التقني بعض الحكومات مثل الولايات المتحدة إلى تغيير موقفها، إذ أعلن الرئيس دونالد ترامب إنشاء احتياطي إستراتيجي للبيتكوين يقارب 200 ألف بيتكوين.
ورغم هذا التحول الإيجابي فإن الحلقة أشارت إلى أن المخاطر لا تزال قائمة، فاختراقات المنصات الكبرى وسرقة الأصول الرقمية بالإضافة إلى الاعتماد المتزايد على تقنيات الذكاء الاصطناعي المغلقة تطرح تساؤلات بشأن الشفافية والاستقلالية.
إعلانكما يبرز سباق جيوسياسي صامت بين القوى الكبرى بشأن الهيمنة على هذا الأصل الرقمي الجديد، مما يحول البيتكوين من مجرد عملة مشفرة إلى أداة محتملة لإعادة صياغة موازين القوى العالمية.
البيانات الضخمة
وفيما يتعلق بمفهوم "البيانات الضخمة"، أشارت الحلقة إلى الحجم الهائل للبيانات التي تنتجها البشرية يوميا، والذي تضاعف 60 مرة مقارنة بعام 2010.
وتتميز الخصائص الرئيسية للبيانات الضخمة المعروفة بـ5 مواصفات أساسية تسمى "5 في إس"، وهي الحجم، والتنوع، والسرعة، والموثوقية، والقيمة.
وأحدثت البيانات الضخمة ثورة هائلة في 10 مجالات رئيسية، بسبب القيمة الكبيرة التي يمكن استخلاصها من تحليل هذه البيانات، وشملت هذه المجالات:
الرعاية الصحية: تحليل السجلات الصحية لتخصيص العلاج وتحسين التشخيص. تطوير الأدوية: تسريع التجارب السريرية واكتشاف علاجات جديدة. التنبؤ بالكوارث: تحليل البيانات الجوية والبيئية لتحسين دقة التنبؤات وتقديم إنذارات مبكرة. المواصلات: تتبع حركة المرور وتوجيه السائقين لتحسين الكفاءة وتقليل التلوث. مكافحة الجريمة: تحليل البيانات الجنائية للتعرف على أنماط الجريمة وتوجيه التحقيقات. التعليم: تقييم أداء الطلاب وتوجيههم بشكل فعال. الزراعة الذكية: تحسين ممارسات الزراعة وزيادة الإنتاج ومراقبة المحاصيل. تجربة العملاء: تحليل تفضيلات العملاء لتقديم منتجات وخدمات مناسبة. تقليل الهدر الغذائي: تحسين سلسلة التوريد لتقليل هدر الطعام. توجيه الاستثمارات: دراسة الأسواق وتحديد الفرص الاستثمارية.
التزييف العميق
ولم تغفل الحلقة عن الجانب المظلم للذكاء الاصطناعي بسبب مخاطر تقنيات "التزييف العميق"، والتي أصبحت سلاحا خطيرا في يد المحتالين ومروجي الأخبار الكاذبة.
وكشف تقرير لوكالة الصحافة الفرنسية ظاهرة مقلقة تتمثل في استغلال وجوه أشخاص حقيقيين يتم التعاقد معهم لتصوير مقاطع فيديو قصيرة مقابل مبالغ زهيدة، ثم تستخدم تقنيات الذكاء الاصطناعي لتعديل هذه المقاطع وجعل الشخصيات تقول أو تفعل أشياء لم تقم بها في الواقع.
إعلانوعرضت الحلقة أمثلة واقعية لأشخاص فوجئوا بظهورهم في مقاطع فيديو تروج لمنتجات صحية مشبوهة أو تسرد نبوءات كاذبة أو تدعم شخصيات سياسية مثيرة للجدل من دون علمهم أو موافقتهم.
وتطرح سهولة الوصول إلى هذه التقنيات وقلة الرقابة تحديات جدية بشأن مصداقية المحتوى الرقمي.
ولفتت الحلقة إلى ضرورة التشكيك فيما نراه ونسمعه عبر الإنترنت، والتحقق من مصداقية المعلومات، خاصة في زمن تنتشر فيه مقاطع الفيديو المزيفة بسرعة البرق عبر المنصات الرقمية.
الصادق البديري30/4/2025