ريتا كاتز تتحدث عن خطورة استخدام الإرهابيين للذكاء الاصطناعي
تاريخ النشر: 25th, June 2024 GMT
تابع أحدث الأخبار عبر تطبيق
تحدثت الكاتبة "ريتا كاتز"، المديرة التنفيذية والمؤسسة لمجموعة SITE Intelligence Group، غير الحكومية والمتخصصة في مجال مكافحة الإرهاب وتتبع الجماعات المتطرفة، عن خطورة استخدام تلك الجماعات للذكاء الاصطناعي، وكيف تتطور تلك الجماعات بتطور تلك الخاصية.
وتقول كاتز، في مقالة لها على واشنطن بوست، إن تنقية الذكاء الاصطناعي كانت واضحة للغاية في هجوم داعش على روسيا، عندما أعلن عنه في فيديو مصور ذو جودة عالية للغاية، خاصة بعد ظهور صحفي يرتدي الزي العسكري وهو في كامل اتزانه، لكن بعد لحظة إدراك تبين أن هذا الصحفي هو شخصية تم إنشاؤها بواسطة الذكاء الاصطناعي.
والتطور يكمن في ما يقرأه حرفيا، في تقرير صدر في 23 مارس عن وكالة أنباء أعماق التابعة لتنظيم داعش، و تمت مشاركة الفيديو بشكل بارز لداعش مع الآلاف من الأعضاء في 27 مارس، بعد خمسة أيام من مذبحة Crocus City Hall.
فمنذ ذلك الحين، تم تداول خمسة مقاطع فيديو أخرى بعنوان "أخبار الحصاد"، وجميعها تم إنشائها بالذكاء الاصطناعي.
وتشير الباحثة، إلى أنه من الصعب أن نقلل من قيمة الذكاء الاصطناعي للإرهابيين والمجتمعات المتطرفة، والتي تعتبر وسائل الإعلام شريان الحياة بالنسبة لها، والآن يمكن إنشاء المنتجات التي كانت تستغرق أسابيع أو حتى أشهر لتشق طريقها من خلال فرق من الكتاب أو المحررين أو محرري الفيديو أو المترجمين أو مصممي الجرافيك أو الرواة، باستخدام أدوات الذكاء الاصطناعي بواسطة شخص واحد فقط في ساعات معدودة.
وتقول إن الأمر لا يقتصر فقط على داعش، بل تطور الأمر لتنظيم القاعدة، الذي قام خلال الأشهر الماضية في شبه الجزيرة العربية بأكثر من عملية مستخدم فيها تقنية الذكاء الاصطناعي.
وهذا يشمل الجماعات المتطرفة الأخرى، التي تستخدم الذكاء الاصطناعي، الذين ينشرون صورًا جهادية للذكاء الاصطناعي بدون علامات تجارية على الإنترنت.
ففي الذكرى السنوية الماضية لأحداث 11 سبتمبر الإرهابية التي نفذها تنظيم القاعدة، ساهم أحد المستخدمين المتحالفين مع القاعدة في حملات جهادية احتفالية بصور تم إنشاؤها بواسطة الذكاء الاصطناعي.
وفي 9 فبراير الماضي، أعلن تنظيم القاعدة عن تنظيم دورة تدريبية تقنية لعناصره، لكيفية استخدام الذكاء الاصطناعي في صناعة المحتوى، وغيره من المجالات.
وتؤكد كاتز، أن استخدام الإرهابيين للذكاء الاصطناعي قد يمتد إلى ما هو أبعد من مجرد رسائل بوت أو صناعة فيديوهات أو صور، لأنهم يختبرون الطرق التي يمكن من خلالها استخدام الذكاء الاصطناعي كمورد للعنف الجسدي، ويبحثون عن أوجه القصور في حواجز الحماية.
واستشهد الكاتبة بهذه الواقعة، التي حدثت في منتصف عام 2023، حين شاركت قناة على Telegram تابعة للمتطرفين لقطات شاشة لروبوت دردشة يعمل بالذكاء الاصطناعي على Telegram يتم خداعه لتقديم أدلة المتفجرات.
المصدر: البوابة نيوز
كلمات دلالية: داعش ذكاء اصطناعي تنظيم القاعدة ارهابيين الذکاء الاصطناعی للذکاء الاصطناعی
إقرأ أيضاً:
ميتا تطلق أداة لكشف فيديوهات الذكاء الاصطناعي
في ظل الانتشار الكبير للمحتوى المزيف عبر الإنترنت، أطلقت شركة "ميتا" أداة جديدة تُعرف باسم "فيديو سيل" (Video Seal) لتوقيع مقاطع الفيديو المنتجة بواسطة الذكاء الاصطناعي بعلامات مائية غير مرئية.
تهدف هذه الأداة إلى مكافحة انتشار تقنيات "التزييف العميق" (Deepfake) التي شهدت زيادة كبيرة بأربعة أضعاف بين عامي 2023 و2024، حيث أصبحت تمثل 7% من جميع عمليات الاحتيال على مستوى العالم وفقًا لمنصة التحقق من الهوية "Sumsub".
اقرأ أيضاً.. "ميتا" تكشف عن نظارات "أوريون": نافذة على المستقبل بتقنيات مبتكرة"
خصائص أداة Video Seal
تتميز أداة "فيديو سيل" بالقدرة على إضافة توقيع مائي غير مرئي إلى الفيديوهات، يمكن كشفه لاحقًا لتحديد مصدر الفيديو وأصله.
ووفقًا لـ "بيير فرنانديز"، الباحث في الذكاء الاصطناعي في "ميتا"، فإن الأداة مصممة لمقاومة التعديلات الشائعة مثل التشويش أو الاقتصاص، كما تتحمل تقنيات الضغط المستخدمة على منصات التواصل الاجتماعي.
بالإضافة إلى التوقيع المائي، يمكن للأداة تضمين رسائل مخفية داخل الفيديوهات تُستخدم لاحقًا لتأكيد أصالتها.
أخبار ذات صلة
تفوق الأداة مقارنةً بالحلول الأخرى
رغم وجود أدوات مشابهة من شركات مثل "ديب مايند" (DeepMind) التي طورت "SynthID" و"مايكروسوفت"، يرى فرنانديز أن معظم هذه الأدوات لا تقدم مقاومة كافية للضغط أو الكفاءة اللازمة للتشغيل على نطاق واسع، كما أن بعضها يعتمد على تقنيات مخصصة للصور، مما يجعلها غير فعّالة مع الفيديوهات.
التحديات وخطط المستقبل
تعترف "ميتا" بأن أداة "فيديو سيل" تواجه تحديات، منها التوازن بين وضوح العلامة المائية وقدرتها على مقاومة التعديلات المكثفة مثل الضغط الشديد أو التعديلات الكبيرة، مما قد يؤدي إلى فقدان العلامة أو صعوبة استرجاعها.
لمواجهة قلة تبني الأداة من قبل المطورين والشركات التي تعتمد حلولًا خاصة بها، أطلقت "ميتا" منصة تقييم علنية تُعرف بـ "ميتـا أومني سيل بنش" (Meta Omni Seal Bench) لمقارنة أداء مختلف تقنيات العلامات المائية. كما ستنظم الشركة ورشة عمل حول هذا الموضوع خلال مؤتمر ICLR، أحد أبرز المؤتمرات في مجال الذكاء الاصطناعي.
اقرأ أيضاً.. "ميتا" تعتمد تقنية التعرف على الوجه لمنع الاحتيال بصور المشاهير
تأمل "ميتا" أن تُشجع هذه المبادرات الباحثين والمطورين على دمج تقنيات العلامات المائية في مشاريعهم لتعزيز مصداقية المحتوى الرقمي ومكافحة المحتوى المزيف بشكل فعال.
المصدر: وكالات