تحذيرات من تنامي استخدام الذكاء الاصطناعي في العمليات الإرهابية
تاريخ النشر: 6th, October 2024 GMT
عبدالله أبوضيف (القاهرة)
وصف باحثون متخصصون في الشأن العسكري، استخدام الذكاء الاصطناعي بالأغراض العسكرية، بأنه سلاح ذو حدين، محذرين من تنامي استخدام التكنولوجيا المتقدمة في العمليات الإرهابية من قبل جماعات العنف والتطرف خلال الآونة الأخيرة وفي مقدمتهم «داعش» التي تحاول الاستفادة من تقنياته، خاصة في عمليات «الذئاب المنفردة».
وحسب دراسة لمركز «تريندز للبحوث والاستشارات» بعنوان «الذكاء الاصطناعي والإرهاب: الآليات وسبل المواجهة»، فإن الجماعات الإرهابية تُوظف تقنيات، مثل «هجمات حجب الخدمة»، و«البرامج الضارة»، و«فك التشفير»، و«الطائرات المسيّرة»، و«نشر الدعايات الكاذبة» لتحقيق أهدافها.
وأكدت الدراسة على أن الذكاء الاصطناعي رغم إمكاناته الهائلة في مكافحة الإرهاب، يُشكل خطراً ينبغي الحذر منه، مثل المخاوف من انتهاك حقوق الإنسان، مثل التجسس على الأفراد وتقييد حرية التعبير، حيث تتوقع الدراسة أن يشكل الذكاء الاصطناعي محوراً أساسياً في مستقبل المواجهة ضد الإرهاب والتطرف.
وفي حوار صحفي، حذر الجنرال العسكري جوزيف فوتيل رئيس الإدارة المركزية السابق للقوات الأميركية من تصاعد استخدام تقنيات الذكاء الاصطناعي من قبل الجماعات الإرهابية وتطوير تقنياته في عملياتهم على المدى الطويل.
وقال إن «هذه المنظمات تتمتع بذكاء شديد ولديها قدرات كبيرة وتبحث دائما عن الأحدث، وتبحث دائما عن فرص لاستغلال نقاط الضعف في أنظمتنا، حتى يتمكنوا من تنفيذ هجماتهم»، وتوقع أنهم سيستمرون في فعل الشيء نفسه مع المسيرات والذكاء الاصطناعي.
في السياق، قال نائب مساعد وزير الدفاع الأميركي السابق مايك مولروي لـ«الاتحاد» إن تنظيم «داعش» يستخدم تقنيات لتزييف الأخبار وبثها على وسائل الإعلام من خلال العمل على إنتاج قصص إعلامية مزيفة تبدو وكأنها من مصادر موثوقة، ومن ثم نشر هذه الفيديوهات عبر المواقع وحسابات التواصل الاجتماعي التابعة له.
وأشار مولروي إلى ضرورة أن تكون منصات التواصل الاجتماعي قادرة على تسخير تقنيات الذكاء الاصطناعي لاكتشاف الأخبار المزيفة وإزالتها بسرعة وفعالية، وإذا لم نستطع التحكم في هذا النوع من الدعاية الزائفة، فإن الوضع سيزداد سوءا، مما يهدد استقرار المجتمعات ويعقد جهود مكافحة الإرهاب، مشدداً على أهمية التعاون بين شركات التكنولوجيا والمجتمع الدولي لتطوير أنظمة فعالة لمكافحة الأخبار المزيفة، وحماية الجمهور من التأثيرات السلبية لهذه الدعاية الخبيثة.
بدوره، اعتبر الباحث التكنولوجي والخبير في الذكاء الاصطناعي، أحمد منصور، أن تطور عمل الجماعات الإرهابية أساسي لاستمرارهم، حيث بدأ مع استخدام الانترنت في بداية الألفية ثم مواقع مختلفة للتجنيد وصولاً إلى الذكاء الاصطناعي.
وأضاف أن «استخدامات الجماعات الإرهابية وخاصة داعش للذكاء الاصطناعي يتمثل في توليد الكلمات للهروب من الحظر على مواقع التواصل المختلفة إلى جانب الصور والفيديوهات والتي تمثل مصدر قوة كبير للجذب والتجنيد، وتبقى المواجهة ضرورية مع هذا النوع من الاستخدام بالذكاء الاصطناعي أيضاً». أخبار ذات صلة «رايتشل» خبيرة في السيارات في السينما: نمو داخلي للعقل والروح
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الاصطناعي الجماعات الإرهابية الجماعات الإرهابیة الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.