تابع أحدث الأخبار عبر تطبيق

تحدثت الكاتبة "ريتا كاتز"، المديرة التنفيذية والمؤسسة لمجموعة SITE Intelligence Group، غير الحكومية والمتخصصة في مجال مكافحة الإرهاب وتتبع الجماعات المتطرفة، عن خطورة استخدام تلك الجماعات للذكاء الاصطناعي، وكيف تتطور تلك الجماعات بتطور تلك الخاصية.
وتقول كاتز، في مقالة لها على واشنطن بوست، إن تنقية الذكاء الاصطناعي كانت واضحة للغاية في هجوم داعش على روسيا، عندما أعلن عنه في فيديو مصور ذو جودة عالية للغاية، خاصة بعد ظهور صحفي يرتدي الزي العسكري وهو في كامل اتزانه، لكن بعد لحظة إدراك تبين  أن هذا الصحفي هو شخصية تم إنشاؤها بواسطة الذكاء الاصطناعي.

 
والتطور يكمن في ما يقرأه حرفيا،  في تقرير صدر في 23 مارس عن وكالة أنباء أعماق التابعة لتنظيم داعش، و تمت مشاركة الفيديو بشكل بارز لداعش مع الآلاف من الأعضاء في 27 مارس، بعد خمسة أيام من مذبحة Crocus City Hall. 
فمنذ ذلك الحين، تم تداول خمسة مقاطع فيديو أخرى بعنوان "أخبار الحصاد"، وجميعها تم إنشائها بالذكاء الاصطناعي.
وتشير الباحثة، إلى أنه من الصعب أن نقلل من قيمة  الذكاء الاصطناعي للإرهابيين والمجتمعات المتطرفة، والتي تعتبر وسائل الإعلام شريان الحياة بالنسبة لها، والآن يمكن إنشاء المنتجات التي كانت تستغرق أسابيع أو حتى أشهر لتشق طريقها من خلال فرق من الكتاب أو المحررين أو محرري الفيديو أو المترجمين أو مصممي الجرافيك أو الرواة، باستخدام أدوات الذكاء الاصطناعي بواسطة شخص واحد فقط  في ساعات معدودة.
وتقول إن الأمر لا يقتصر فقط على داعش، بل تطور الأمر لتنظيم القاعدة، الذي قام خلال الأشهر الماضية في شبه الجزيرة العربية بأكثر من عملية مستخدم فيها تقنية الذكاء الاصطناعي.
وهذا يشمل الجماعات المتطرفة الأخرى، التي تستخدم الذكاء الاصطناعي، الذين ينشرون صورًا جهادية للذكاء الاصطناعي بدون علامات تجارية على الإنترنت.

ففي الذكرى السنوية الماضية لأحداث 11 سبتمبر الإرهابية التي نفذها تنظيم القاعدة، ساهم أحد المستخدمين المتحالفين مع القاعدة في حملات جهادية احتفالية بصور تم إنشاؤها بواسطة الذكاء الاصطناعي.

وفي 9 فبراير الماضي، أعلن تنظيم القاعدة عن تنظيم دورة تدريبية تقنية لعناصره، لكيفية استخدام الذكاء الاصطناعي في صناعة المحتوى، وغيره من المجالات.

وتؤكد كاتز، أن استخدام الإرهابيين للذكاء الاصطناعي قد يمتد إلى ما هو أبعد من مجرد رسائل بوت أو صناعة فيديوهات أو صور، لأنهم يختبرون الطرق التي يمكن من خلالها استخدام الذكاء الاصطناعي كمورد للعنف الجسدي، ويبحثون عن أوجه القصور في حواجز الحماية.

واستشهد الكاتبة بهذه الواقعة، التي حدثت في منتصف عام 2023، حين شاركت قناة على Telegram تابعة للمتطرفين  لقطات شاشة لروبوت دردشة يعمل بالذكاء الاصطناعي على Telegram يتم خداعه لتقديم أدلة المتفجرات.

المصدر: البوابة نيوز

كلمات دلالية: داعش ذكاء اصطناعي تنظيم القاعدة ارهابيين الذکاء الاصطناعی للذکاء الاصطناعی

إقرأ أيضاً:

معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالميا عام 2023

تابع أحدث الأخبار عبر تطبيق

أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديداً تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وكيف تعمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها.

وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني- أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها.

وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية.

وذكر المركز أن زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجيا وتأثيره العميق في حياتنا اليومية، هذه الزيادة تعكس الثقة المتزايدة في القدرات التي يمكن أن يوفرها الذكاء الاصطناعي في تحسين الكفاءة وتبسيط العمليات في مختلف المجالات.

وفي هذا الإطار، فقد بلغ عدد الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي عالميًّا نحو 254.8 مليون مستخدم عام 2023، أي أكثر من الضعف مقارنة بعام 2020، ومن المتوقع أن يستمر هذا النمو في عدد مستخدمي أدوات الذكاء الاصطناعي، ليتجاوز 700 مليون بحلول 2030.

وأضاف التحليل أن تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية والتعلم الآلي وتبديل الوجه، وتعتمد هذه التقنية على دمج الصور لإنشاء لقطات جديدة تصور أحداثًا أو تصريحات أو أفعالًا لم تحدث في الواقع، ومع ذلك هناك صعوبة في معرفة وتحديد مدى صحة أو واقعية هذه الصور والفيديوهات.

وبناءً على ذلك، أصبح الاعتقاد بتوثيق الصوت والفيديو للواقع بأنه دليل على مصداقية البيانات والمعلومات، اعتقاد يشوبه الشك، فقد استغل مجرمو الإنترنت هذه التقنيات في زيادة القدرات الاحتيالية، والتي أصبحت تمثل تهديدات جديدة على مستوى الأفراد والمؤسسات والمجتمعات، سواء من خلال تصنيع المواد الإباحية للتشهير بشخص معين بغرض الانتقام أو الابتزاز، أو من خلال تصنيع ونشر البيانات والتصريحات والمعلومات المضللة لأغراض إثارة الفوضى والاحتيال المالي وإفساد الانتخابات وخلق الأزمات الدبلوماسية.

وأشار التحليل إلى اختلاف أنواع تقنيات التزييف العميق، والتي يمكن أن تقع في إحدى الفئات الآتية:

١- المحتوى المرئي: حيث يتم استخدام تقنيات التزييف العميق في إنشاء الصور ومقاطع الفيديو، ويمكن أن يتم ذلك من خلال الآتي:

-تبديل الوجه: يتم تركيب الوجه غير الحقيقي على الرأس المستهدف في الصور أو مقاطع الفيديو التي يتم تبديل الوجه بها.

-صور يتم إنشاؤها بالكامل: يتم إنشاء الوجه الجديد بالكامل من البداية ليبدو واقعيًّا بدلًا من تبديل الوجه.

-مقاطع فيديو مزامنة الشفاه: هي مقاطع تظهر شخصًا يؤدي كلمات أو نصًا معينًا بالتزامن مع حركات الشفاه لجعل الأمر يبدو واقعيًّا، وذلك على الرغم من عدم وجود هذا النص في الفيديو الرئيس.

٢- المحتوى الصوتي: ويتم تحريف الصوت وتعديله إما من خلال استخدام ملف صوتي يتضمن حديثًا مزيفًا بنفس صوت الشخص، لكنه لم يقله في الواقع، أو من خلال تعديل نبرة صوت الشخص لإظهار مشاعر أو سلوك غير حقيقي.

وأشار التحليل إلى أن إنشاء فيديوهات التزييف العميق يتم باستخدام نظامين من أنظمة الذكاء الاصطناعي؛ المولد "Generator" والمميز "Discriminator"، عندما ينتج نظام المولد فيديو جديدًا، يُرسل إلى نظام المميز لتحديد ما إذا كان الفيديو حقيقيًّا أم مزيفًا، إذا تأكد المميز من أن الفيديو حقيقي، يبدأ المولد في تعلم كيفية إنشاء فيديوهات تبدو أكثر قابلية للتصديق، وهكذا يستمر التطور في العملية.

هذا، ويُشكل النظامان معًا ما يُعرف بشبكة الخصومة التوليفية "GNN"، وتتطلب هذه التقنية مخزونًا من الفيديوهات يتم التعديل عليها. في البداية، يحتاج نظام المولد "Generator" إلى تدريب مستمر، وعندما يصل إلى مستوى مقبول من الجودة، يبدأ بإرسال فيديوهاته إلى الـمميّز "Discriminator". كلما زاد ذكاء المولد، زاد ذكاء الـمميّز بالتبعية، وبالتالي، يتم الوصول إلى فيديو معدّل بشكل كامل وقابل للتصديق للعين البشرية، ويوضح الشكل التالي كيفية عمل هذه التقنية.

واستعرض التحليل الاستخدامات الإيجابية التي تمتلكها تقنية التزييف العميق، وفيما يلي أهم هذه الاستخدامات:

-الاستخدامات الطبية والتعليمية: يمكن استخدام تقنية التزييف العميق لإنشاء عمليات محاكاة تفاعلية للعمليات الجراحية أو غيرها من الإجراءات، مما يوفر لطلاب الطب والمهنيين فرص تدريب قيمة. كما يمكن استخدام هذه التقنيات في دعم وتطوير أدوات الوصول المهمة.

 على سبيل المثال، قامت شركة Lyrebird الكندية باستخدام التزييف العميق لمساعدة مرضى التصلب الجانبي الضموري على التواصل عندما يفقدون قدرتهم على التحدث، وذلك من خلال استنساخ أصواتهم، حيث يمكن للأشخاص الاستمرار في "التحدث" من خلال تقنيات التزييف العميق.

-صناعة الترفيه: يمكن استخدام تقنيات التزييف العميق في صناعة الأفلام والإعلانات وتقديم الأخبار. كما يمكن إنشاء تأثيرات خاصة أكثر واقعية والسماح للممثلين بإعادة تمثيل أدوارهم حتى بعد وفاتهم.

مقالات مشابهة

  • غيتس يحذر من استغلال الذكاء الاصطناعي لأغراض كارثية
  • تمديد فترة الترشح لجائزة الإمارات للذكاء الاصطناعي
  • تمديد فترة الترشح لجائزة الإمارات للذكاء الاصطناعي حتى 12 يوليو
  • “تطور الذكاء الاصطناعي في مجال التجسس والأمان: تحديات وفرص
  • 45 طالباً في برنامج تدريبي بجامعة محمد بن زايد للذكاء الاصطناعي
  • جامعة محمد بن زايد للذكاء الاصطناعي تستقبل 45 طالباً في برنامج التدريب البحثي
  • الإمارات .. مركز إقليمي رائد للذكاء الاصطناعي في مجال الرياضة
  • محمد بن زايد للذكاء الاصطناعي تستقبل 45 طالباً في برنامج التدريب البحثي
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالميا عام 2023
  • جامعة محمد بن زايد للذكاء الاصطناعي تستقبل 45 طالبا في برنامج التدريب البحثي