السباق العسكري في عصر الذكاء الاصطناعي
تاريخ النشر: 30th, September 2023 GMT
يتبادر إلى أذهاننا المفهوم السائد أن العلم يقود البشرية إلى الازدهار، ويسهم في تطوير حضارتها، ويجعل البعض هذا المفهوم مسلّمة لا تزرع الشك بوجود أي جانب مظلم للطفرات العلمية غير المحكومة بقواعد الأخلاق؛ كون التطور العلمي يسهم في حل مشكلات كثيرة في حياتنا، ويمنحنا الأمل في حل ما صَعُبَ حله في ماضينا، إلا أن هذا المفهوم لم يعد مقبولا عند البعض بشكل مطلق؛ إذ يرى البعض أن العلم بطفراته المتنامية والسريعة -في بعض حالاته- يتحرك بتهور دون قيود وقواعد أخلاقية واضحة؛ فنجد العلم يتحرك وفق مصالح تجارية وسياسية تتجاوز في كثير من حالاتها المعايير الأخلاقية لصالح الأرباح المالية والهيمنة السياسية؛ فتحدّ من استقلالية العلم والعلماء وصرامة النظام الأخلاقي في المنهج العلمي؛ فبمجرد أن يفقد العلماء سلطتهم الأخلاقية فإنَّهم لا يملكون قرارتهم العلمية الأخلاقية التي يمكن لها أن توجّه العلم لمشروعاته الصميمة التي ترعى مصلحة الإنسان وقيمه؛ فيفقد العلم مفهومه السائد، ويكون أداة دمار شاملة كما سنرى في هذا المقال الذي سيتناول استعمالات الذكاء الاصطناعي في القطاعات العسكرية بشتّى أنواعها، وآثاره السلبية التي ينبغي الالتفات إليها وإدراك مخاطرها الوجودية قبل فوات الأوان.
سبق التطرق إلى بعض مخاطر الذكاء الاصطناعي -في مقال نشرته الأسبوع المنصرم- التي أصبحت واقعًا مقلقًا، وهذا النوع من المخاطر الذي تناولته الأسبوع الماضي كان فيما يخص تهديدات الأنظمة الذكية للخصوصية الفردية والأسس الأخلاقية للمجتمعات بعد انتشار تطبيقات الذكاء الاصطناعي التي تعمل على تزييف المقاطع المرئية والصوتية، ونتائجها السلبية على الأفراد والمجتمعات، وما يمكن أن تسببه من آثار نفسية ومجتمعية سلبية، أما المخاطر الحالية والمتصاعدة بسبب وجود نماذج الذكاء الاصطناعي في القطاع العسكري وتوابعه؛ فهي تهديدات تتجاوز العامل النفسي والاضطراب السياسي والمجتمعي؛ لتمتد في تهديد حياة الإنسان ووجوده، ويمكن تقسيم هذه المخاطر إلى 3 مجموعات؛ فهناك تهديدات تتمثل في تطوير أسلحة حربية مباشرة -مثل الأسلحة النووية والصورايخ والدبابات والطائرات بأنواعها- تعمل بواسطة الذكاء الاصطناعي، وتهديدات تتعلق بتمكين الذكاء الاصطناعي في صناعة أسلحة بيولوجية -تُستعمل سلاحا في حالة الحرب المباشرة أو غير المباشرة- فتّاكة، وتهديدات تتعلق بالأمن السيبراني وأمن المعلومات، وما يترتب عليه من تأثيرات اقتصادية وسياسية.
بدأت مؤخرا تخرج للعلن العديد من المشروعات العسكرية التي تتبنى صناعة أسلحة حربية تعمل وفق خوارزميات الذكاء الاصطناعي -وما خفي أكثر مما أعلن عنه-، ودخل بعض هذه الأسلحة حيّز التطبيق العملي رغم أن وجود أنظمة الذكاء الاصطناعي في الأسلحة ليس حدثًا جديدا يتزامن مع صعود الذكاء الاصطناعي وانتشاره، بل سبق للولايات المتحدة الأميركية تطوير صواريخ حربية موجهة بواسطة الذكاء الاصطناعي، واستعملتها في هجومها على العراق فترة حرب الخليج الثانية -عملية عاصفة الصحراء- في بداية تسعينات القرن العشرين كما ذكر «ستيوارت راسِل» في كتابه «ذكاء اصطناعي متوافق مع البشر»؛ فحينها -مع بدء استعمال الذكاء الاصطناعي داخل المؤسسات العسكرية- لم تكن تطبيقات الذكاء الاصطناعي محصورة داخل مراكز الأبحاث سواء السرية أو العلنية، بل كانت المؤسسات العسكرية والأمنية -في الدول الكبرى- تسعى للبحث عن سبل التطبيق لهذه الأنظمة في مجالاتها العسكرية. نأتي إلى حاضرنا -الذي لم يعد من السهل إخفاء كل التطويرات العسكرية في ظل عالم تتسارع فيه وتيرة انتقال المعلومة- الذي يشهد تطويرات عسكرية مخيفة تعمل بواسطة الذكاء الاصطناعي مثل الطائرات بدون طيّار «الدرون» التي يمكن لبعضها أن يحلّق لمسافات وساعات طويلة، ويحمل صواريخ، ويشنّ هجوما على أهداف أرضية، وتعمل خوارزمية الذكاء الاصطناعي على توجيه الطائرة وتحديد الأهداف المطلوبة عبر تقنيات تحليل الصور أثناء المسح الجوي المباشر أو عبر البيانات التي يتلقاها من الأقمار الصناعية، وكذلك عبر القدرة العالية في تمييز الأهداف وانتقائها وفق معايير محددة مسبقا أثناء مرحلة التدرب على البيانات. تأتي كذلك الصورايخ الموجّهة -وأخطرها القادرة على حمل الروؤس النووية- بواسطة الذكاء الاصطناعي الأكثر تطورا من النسخ السابقة التي استعملت في نهايات القرن الماضي. أُعلنَ كذلك قبل فترة عن اقتراب تدشين دبابات ذاتية القيادة والهجوم تعمل عبر الذكاء الاصطناعي، وجنود آليين يعتمدون على أنظمة الذكاء الاصطناعي، ويعملون محاربين بديلا عن الجنود البشر؛ لتقليل الخسائر البشرية للجيوش التقليدية (البشرية) التي تتكبدها المؤسسات العسكرية، وكذلك وجود نوع آخر من الجنود الذي يُمثّل التوأمة بين الإنسان والذكاء الاصطناعي؛ حيث يكون الجندي -البشر- مزودا بأنظمة ذكية لمضاعفة قدراته في التحليل والمناورة العسكرية يشمل التحفيز الذهني والنفسي عبر ربط الدماغ بأنظمة ذكية توفر له هذه القدرات، وسبق الحديث في مقال سابق عن مشروع توأمة الإنسان والذكاء الاصطناعي. يشكّل هذا النوع من الأسلحة مخاطر تتجاوز حدود عملها العسكري؛ إذ من الممكن أن تتطور خوارزمياتها لتتجاوز المعايير الأخلاقية؛ فتكون الأهداف المدنية بجانب الأهداف العسكرية أهدافا أيضا لهذه الأسلحة الذكية التي تعمل على الإبادة البشرية -خصوصا الأنواع الفتّاكة مثل الأسلحة النووية- دون أيّ هوادة وخيارات بشرية تصل بأيّ مبادئ أخلاقية.
لا تقتصر الوسائل العسكرية والأسلحة في جانبها الآلي والناري بل تشمل الأسلحة البيولوجية التي استعملت من قبل بعض الجيوش والدول في حروب سابقة، وبوجود الذكاء الاصطناعي وقدراته الفائقة بوجود أنظمة حاسوبية ورقمية متقدمة مثل الحوسبة الكمومية التي تضاعف من قدرات الذكاء الاصطناعي التحليلية فإن القدرة والسرعة على ابتكار أسلحة بيولوجية خطيرة ستكون عالية مثل استحداث أوبئة فتّاكة سريعة الانتشار. ومن الوسائل العسكرية الأخرى التي يمكن للذكاء الاصطناعي أن يعمل فيها أنظمة الأمن السيبراني التي يمكن أن تعمل وفق استراتيجية الهجوم والدفاع معا؛ فيستطيع الذكاء الاصطناعي شنّ هجوم سيبراني على أنظمة حاسوبية ورقمية مهمة -حتى مع وجود أنظمة تشفير قوية-؛ مما يؤدي إلى تعطيل أنظمة عسكرية حساسة، وأنظمة مالية وبنكية تشلّ اقتصاد الدول ونظامها المالي، وفي المقابل يمكن استعمال الذكاء الاصطناعي في توفير الحماية السيبرانية العالية عبر أنظمة البحث المستمرة عن أي ثغرات مخفية، ورفع كفاءات التشفير وتحديثه المستمر. يحمل المستقبل بشأن الصناعات العسكرية مفاجآته المخيفة بتضاعف شراسة الأسلحة، ومع بلوغ الذكاء الاصطناعي مرحلته العامة «الخارقة»، وتوفّر الأنظمة الحاسوبية الحاضنة مثل الحوسبة الكوانتمية؛ فإن هذه الطفرات الرقمية إن لم تجد لها حوكمة صارمة؛ ستقود البشرية إلى دمار غير معهود، وهذا ما حذّر منه علماء وخبراء في مجال الذكاء الاصطناعي والأمين العام للأمم المتحدة قبل عدة أشهر.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: بواسطة الذکاء الاصطناعی الذکاء الاصطناعی فی التی یمکن
إقرأ أيضاً:
تحذيرات من تصاعد خطر الذكاء الاصطناعي في هجمات التصيد الاحتيالي
تابع أحدث الأخبار عبر تطبيق
حذّرت شركة كاسبرسكي من استخدام الذكاء الاصطناعي في تطوير وتخصيص هجمات التصيد الاحتيالي، مشيرة إلى تزايد تعقيد هذه الهجمات وصعوبة كشفها حتى من قبل موظفين ذوي خبرة عالية في الأمن السيبراني.
وكشفت دراسة أجرتها كاسبرسكي في منطقة الشرق الأوسط وتركيا وأفريقيا عن زيادة بنسبة 48% في الهجمات السيبرانية على المؤسسات خلال العام الماضي، حيث شكلت هجمات التصيد الاحتيالي التهديد الأوسع، إذ واجهها 51% من المشاركين في الدراسة.
ويتوقع 53% من المشاركين تزايدًا في تلك الهجمات مع استمرار المجرمين السيبرانيين في استغلال تقنيات الذكاء الاصطناعي.
الذكاء الاصطناعي يعزز تخصيص الهجماتبينما كانت هجمات التصيد سابقًا عامة وتُرسل بشكل عشوائي، بات بالإمكان الآن استخدام أدوات الذكاء الاصطناعي لاستهداف الأفراد برسائل دقيقة مخصصة تتوافق مع وظائفهم واهتماماتهم، اعتمادًا على معلومات منشورة عبر الإنترنت. ويُظهر ذلك كيف يمكن بسهولة انتحال صفة مسؤول تنفيذي لإقناع الموظفين باتخاذ إجراءات ضارة.
خطر التزييف العميق يتصاعدوأشارت كاسبرسكي إلى أن تقنيات التزييف العميق أصبحت أداة فعالة في يد المهاجمين لإنتاج محتوى صوتي ومرئي مقنع لانتحال شخصيات، ما يؤدي إلى حالات مثل تحويل ملايين الدولارات بناءً على مقاطع فيديو وهمية.
تستخدم هجمات التصيد المدعومة بالذكاء الاصطناعي خوارزميات لتجاوز أنظمة الحماية التقليدية وتحاكي أسلوب البريد الإلكتروني الشرعي، مما يتيح لها تفادي اكتشاف برامج الحماية.
الخبرة وحدها لا تكفيورغم الخبرة، يظل الموظفون عرضة لهذه الهجمات المتطورة نتيجة لقدرتها على استغلال العوامل النفسية، مثل الاستعجال والخوف والثقة في السلطة، مما يقلل من فرص التحقق المسبق.
استراتيجية دفاعية متعددة المستوياتأوصت كاسبرسكي باعتماد استراتيجية شاملة للتصدي لهذه الهجمات، تتضمن تدريب الموظفين على التهديدات الحديثة عبر منصات مثل Kaspersky Automated Security Awareness Platform،
واستخدام أدوات الحماية المتقدمة مثل Kaspersky Next وKaspersky Security for Mail Server، بالإضافة إلى تطبيق نموذج أمان انعدام الثقة الذي يضمن الحد من الوصول للأنظمة الحساسة.