أدى الاعتماد واسع النطاق لتقنيات الذكاء الاصطناعي وتعلم الآلة في السنوات الأخيرة إلى تزويد مصادر التهديد بأدوات جديدة متطورة لتنفيذ هجماتهم. ويُعد التزييف العميق أحد هذه المنتجات، إذ يقلد البشر ويتضمن كلاماً أو صوراً أو فيديو مولداً يصعب تمييزه من الحقيقي. وبينما عادة ما تستهلك هذه الهجمات وقتاً وجهداً أكبر من «مكافآتها» المحتملة، تحذر كاسبرسكي من وجوب إدراك الشركات والمستهلكين لكون عمليات التزييف العميق ستصبح مصدر قلق أكبر في المستقبل على الأرجح.

كشفت أبحاث كاسبرسكي وجود أدوات وخدمات صنع التزييف العميق في أسواق الشبكة المظلمة. وتوفر هذه الخدمات مقاطع فيديو مصنوعة بالذكاء الاصطناعي التوليدي ومخصصة لمجموعة متنوعة من الأغراض، بما في ذلك الاحتيال، والابتزاز، وسرقة البيانات السرية. كما تشير تقديرات خبراء كاسبرسكي إلى إمكانية شراء دقيقة واحدة من فيديوهات التزييف العميق مقابل أقل من 300 دولار أمريكي.

بالإضافة لذلك، هناك مخاوف حول الفجوة الكبيرة في المعرفة الرقمية بين مستخدمي الإنترنت. حيث أشار استطلاع رأي رقمنة الأعمال الذي أجرته كاسبرسكي مؤخراً¹ إلى أن 51% من الموظفين الذين شملهم الاستطلاع في منطقة الشرق الأوسط وتركيا وإفريقيا (META) قالوا أنهم يستطيعون التمييز بين الصورة المُولدة بتقنية التزييف العميق والصورة الحقيقية؛ لكن ولدى إجراء الاختبار حقاً، لم يتمكن سوى 25%2 منهم من تمييز الصورة الحقيقية عن تلك المولدة بالذكاء الاصطناعي. ويعرّض ذلك المؤسسات للخطر، حيث غالباً ما يكون الموظفون هم الأهداف الأساسية للتصيد الاحتيالي وهجمات الهندسة الاجتماعية الأخرى.

على سبيل المثال، يمكن للمجرمين السيبرانيين إنشاء مقطع فيديو مزيف لرئيس تنفيذي يطلب تحويلاً مصرفياً أو يمنح الإذن لعملية دفع، وهو ما يسمح لهم بسرقة أموال الشركة. كما يمكنهم توليد مقاطع فيديو أو صور مزيفة للأفراد واستخدامها لابتزازهم مقابل المال أو المعلومات.

قال فلاديسلاف توشكانوف، الم البيانات الرئيسي في كاسبرسكي: «على الرغم من عدم توافر التقنية اللازمة لإنشاء التزييف العميق عالي الجودة على نطاق واسع حتى الآن، سيكون توليد أصوات لانتحال شخصية ما في الوقت الفعلي أحد أكثر الاستخدامات الممكنة للتقنية. وعلى سبيل المثال، تم خداع عامل مالي في شركة متعددة الجنسيات لتحويل 25 مليون دولار إلى المحتالين الذين استخدموا تقنية التزييف العميق لانتحال شخصية الرئيس المالي للشركة في مكالمة فيديو جماعية. من المهم أن نتذكر أن تهديد التزييف العميق لا يقتصر على الشركات فحسب، بل أنه يمتد إلى المستخدمين الأفراد أيضاً - حيث ينشر التزييف العميق المعلومات المضللة، ويستخدم في عمليات الاحتيال، وينتحل شخصيات الناس بدون موافقتهم، كما يشكل تهديداً سيبرانياً متزايداً يجب الحماية منه.»

للحماية من التهديدات المختلفة التي يشكلها التزييف العميق، توصي كاسبرسكي الأشخاص والشركات باتخاذ الإجراءات التالية:

انتبه للمكالمات المشبوهة: على الموظفين الانتباه إلى جودة الصوت الرديئة، والرتابة غير الطبيعية لصوت «الشخص»، وكلامه غير المفهوم، والضوضاء الخارجية.
انتبه إلى الميزات الأوضح لفيديوهات التزييف العميق: يشمل ذلك الحركة المتشنجة، والتغيرات في الإضاءة بين الإطارات، وتغير لون البشرة، وعدم تزامن الشفاه بشكل جيد مع الكلام، والإضاءة الضعيفة.
لا تتخذ قرارات بناءً على المشاعر أبداً، ولا تشارك التفاصيل مع أي شخص: من الأفضل دائماً أن تسأل عن الأشياء التي لا يعرفها سوى هذا الشخص أو توقف المكالمة وتتحقق من المعلومات الواردة مجدداً عبر عدة قنوات. وهنا تبرز إهمية بروتوكول «ثِق، لكن تحقق».
تحقق من ممارسات الأمن السيبراني للمؤسسة وقم بتحديثها. 
يمكن أن يساعد حل مثل Kaspersky Threat Intelligence في إبقاء متخصصي أمن المعلومات مطلعين على أحدث التطورات حول التزييف العميق.
يجب على الشركات تعزيز جدار حمايتها البشري من خلال ضمان فهم موظفيها لماهية التزييف العميق، وكيفية عمله، والتحديات التي يمكن أن يشكلها. ويمكن أن يشمل ذلك حملات التوعية والتثقيف المستمرة لتعليم الموظفين طريقة اكتشاف التزييف العميق. 

المصدر: بوابة الوفد

كلمات دلالية: التزییف العمیق

إقرأ أيضاً:

دعوى قضائية ضد OpenAI وMicrosoft

رفع مركز التقارير الاستقصائية، وهو أقدم غرفة أخبار غير ربحية في البلاد تنتج Mother Jones وReveal، دعوى قضائية ضد OpenAI وMicrosoft في محكمة فيدرالية يوم الخميس بزعم استخدام محتواها لتدريب نماذج الذكاء الاصطناعي دون موافقة أو تعويض.

 هذه هي الأحدث في سلسلة طويلة من الدعاوى القضائية التي رفعها الناشرون والمبدعون والتي تتهم شركات الذكاء الاصطناعي المنتجة بانتهاك حقوق الطبع والنشر.

قالت مونيكا باورلاين، الرئيس التنفيذي لمركز التقارير الاستقصائية، في بيان: "بدأت OpenAI وMicrosoft في تفريغ قصصنا لجعل منتجهم أكثر قوة، لكنهم لم يطلبوا أبدًا الإذن أو يعرضوا تعويضًا، على عكس المنظمات الأخرى التي ترخص المواد الخاصة بنا، إن سلوك الراكب المجاني هذا ليس غير عادل فحسب، بل إنه انتهاك لحقوق الطبع والنشر. إن عمل الصحفيين، في CIR وفي كل مكان، له قيمة كبيرة، وOpenAI وMicrosoft يعرفون ذلك. وقال باورلاين إن OpenAI وMicrosoft يتعاملان مع عمل الناشرين غير الربحيين والمستقلين "كمواد خام مجانية لمنتجاتهم"، وأضاف أن مثل هذه التحركات من قبل شركات الذكاء الاصطناعي التوليدية تضر بوصول الجمهور إلى المعلومات الصادقة في "مشهد إخباري يختفي".

وتتهم الدعوى القضائية التي رفعها CIR، والتي تم رفعها في المحكمة الفيدرالية في مانهاتن، OpenAI وMicrosoft، التي تمتلك ما يقرب من نصف الشركة، بانتهاك قانون حقوق النشر وقانون حقوق النشر الرقمية للألفية عدة مرات.

تجد المؤسسات الإخبارية نفسها عند نقطة انعطاف مع الذكاء الاصطناعي التوليدي. بينما ينضم CIR إلى ناشرين مثل The New York Times وNew York Daily News وThe Intercept وAlterNet وChicago Tribune في رفع دعوى قضائية ضد OpenAI، اختار ناشرون آخرون إبرام صفقات ترخيص مع الشركة. ستسمح هذه الصفقات لـ OpenAI بتدريب نماذجها على الأرشيفات والمحتوى المستمر الذي ينشره هؤلاء الناشرون والاستشهاد بالمعلومات منهم في الردود المقدمة من ChatGPT.

في نفس اليوم الذي رفع فيه مجلس العلاقات الدولية دعوى قضائية ضد شركة OpenAI، على سبيل المثال، أعلنت مجلة TIME عن صفقة مع الشركة من شأنها أن تمنحها إمكانية الوصول إلى أرشيفات 101 عام. في الشهر الماضي، وقعت شركة OpenAI صفقة متعددة السنوات بقيمة 250 مليون دولار مع شركة News Corp، المالكة لصحيفة وول ستريت جورنال، لتدريب نماذجها على أكثر من اثنتي عشرة علامة تجارية مملوكة للناشر. كما وقعت كل من The Financial Times، وAxel Springer (مالك Politico وBusiness Insider)، ووكالة Associated Press، وDotdash Meredith صفقات مع OpenAI.

مقالات مشابهة

  • "الخدمات المالية" تستعرض دور التأمين في مواجهة المخاطر السيبرانية.. اليوم
  • دعوى قضائية ضد OpenAI وMicrosoft
  • هونور تكشف عن تقنيات ذكاء اصطناعي رائدة لحماية العين والخصوصية
  • التزييف العميق: بين التقنية الإبداعية والتحديات الأمنية
  • نوال الزغبي: الذكاء الاصطناعي فشل في نقل إحساس الفنان.. وأتمنى تقديم حفل بالهولوجرام | فيديو
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالميا عام 2023
  • هل اقترب عصر الذكاء الاصطناعي الواعي؟
  • 5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي
  • «معلومات الوزراء»: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي في 2023
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالمياً عام 2023