أدى الاعتماد واسع النطاق لتقنيات الذكاء الاصطناعي وتعلم الآلة في السنوات الأخيرة إلى تزويد مصادر التهديد بأدوات جديدة متطورة لتنفيذ هجماتهم. ويُعد التزييف العميق أحد هذه المنتجات، إذ يقلد البشر ويتضمن كلاماً أو صوراً أو فيديو مولداً يصعب تمييزه من الحقيقي. وبينما عادة ما تستهلك هذه الهجمات وقتاً وجهداً أكبر من «مكافآتها» المحتملة، تحذر كاسبرسكي من وجوب إدراك الشركات والمستهلكين لكون عمليات التزييف العميق ستصبح مصدر قلق أكبر في المستقبل على الأرجح.

كشفت أبحاث كاسبرسكي وجود أدوات وخدمات صنع التزييف العميق في أسواق الشبكة المظلمة. وتوفر هذه الخدمات مقاطع فيديو مصنوعة بالذكاء الاصطناعي التوليدي ومخصصة لمجموعة متنوعة من الأغراض، بما في ذلك الاحتيال، والابتزاز، وسرقة البيانات السرية. كما تشير تقديرات خبراء كاسبرسكي إلى إمكانية شراء دقيقة واحدة من فيديوهات التزييف العميق مقابل أقل من 300 دولار أمريكي.

بالإضافة لذلك، هناك مخاوف حول الفجوة الكبيرة في المعرفة الرقمية بين مستخدمي الإنترنت. حيث أشار استطلاع رأي رقمنة الأعمال الذي أجرته كاسبرسكي مؤخراً¹ إلى أن 51% من الموظفين الذين شملهم الاستطلاع في منطقة الشرق الأوسط وتركيا وإفريقيا (META) قالوا أنهم يستطيعون التمييز بين الصورة المُولدة بتقنية التزييف العميق والصورة الحقيقية؛ لكن ولدى إجراء الاختبار حقاً، لم يتمكن سوى 25%2 منهم من تمييز الصورة الحقيقية عن تلك المولدة بالذكاء الاصطناعي. ويعرّض ذلك المؤسسات للخطر، حيث غالباً ما يكون الموظفون هم الأهداف الأساسية للتصيد الاحتيالي وهجمات الهندسة الاجتماعية الأخرى.

على سبيل المثال، يمكن للمجرمين السيبرانيين إنشاء مقطع فيديو مزيف لرئيس تنفيذي يطلب تحويلاً مصرفياً أو يمنح الإذن لعملية دفع، وهو ما يسمح لهم بسرقة أموال الشركة. كما يمكنهم توليد مقاطع فيديو أو صور مزيفة للأفراد واستخدامها لابتزازهم مقابل المال أو المعلومات.

قال فلاديسلاف توشكانوف، الم البيانات الرئيسي في كاسبرسكي: «على الرغم من عدم توافر التقنية اللازمة لإنشاء التزييف العميق عالي الجودة على نطاق واسع حتى الآن، سيكون توليد أصوات لانتحال شخصية ما في الوقت الفعلي أحد أكثر الاستخدامات الممكنة للتقنية. وعلى سبيل المثال، تم خداع عامل مالي في شركة متعددة الجنسيات لتحويل 25 مليون دولار إلى المحتالين الذين استخدموا تقنية التزييف العميق لانتحال شخصية الرئيس المالي للشركة في مكالمة فيديو جماعية. من المهم أن نتذكر أن تهديد التزييف العميق لا يقتصر على الشركات فحسب، بل أنه يمتد إلى المستخدمين الأفراد أيضاً - حيث ينشر التزييف العميق المعلومات المضللة، ويستخدم في عمليات الاحتيال، وينتحل شخصيات الناس بدون موافقتهم، كما يشكل تهديداً سيبرانياً متزايداً يجب الحماية منه.»

للحماية من التهديدات المختلفة التي يشكلها التزييف العميق، توصي كاسبرسكي الأشخاص والشركات باتخاذ الإجراءات التالية:

انتبه للمكالمات المشبوهة: على الموظفين الانتباه إلى جودة الصوت الرديئة، والرتابة غير الطبيعية لصوت «الشخص»، وكلامه غير المفهوم، والضوضاء الخارجية.
انتبه إلى الميزات الأوضح لفيديوهات التزييف العميق: يشمل ذلك الحركة المتشنجة، والتغيرات في الإضاءة بين الإطارات، وتغير لون البشرة، وعدم تزامن الشفاه بشكل جيد مع الكلام، والإضاءة الضعيفة.
لا تتخذ قرارات بناءً على المشاعر أبداً، ولا تشارك التفاصيل مع أي شخص: من الأفضل دائماً أن تسأل عن الأشياء التي لا يعرفها سوى هذا الشخص أو توقف المكالمة وتتحقق من المعلومات الواردة مجدداً عبر عدة قنوات. وهنا تبرز إهمية بروتوكول «ثِق، لكن تحقق».
تحقق من ممارسات الأمن السيبراني للمؤسسة وقم بتحديثها. 
يمكن أن يساعد حل مثل Kaspersky Threat Intelligence في إبقاء متخصصي أمن المعلومات مطلعين على أحدث التطورات حول التزييف العميق.
يجب على الشركات تعزيز جدار حمايتها البشري من خلال ضمان فهم موظفيها لماهية التزييف العميق، وكيفية عمله، والتحديات التي يمكن أن يشكلها. ويمكن أن يشمل ذلك حملات التوعية والتثقيف المستمرة لتعليم الموظفين طريقة اكتشاف التزييف العميق. 

المصدر: بوابة الوفد

كلمات دلالية: التزییف العمیق

إقرأ أيضاً:

أداة الذكاء الاصطناعي الجديدة من Google Whisk تستخدم الصور كمطالبات

لدى Google أداة ذكاء اصطناعي أخرى لإضافتها إلى المجموعة. Whisk هي أداة توليد صور من Google Labs تتيح لك استخدام صورة موجودة كمطالبة. لكن ناتجها لا يلتقط سوى "جوهر" صورتك المبدئية بدلاً من إعادة إنشائها بتفاصيل جديدة. لذا، فهي أفضل للعصف الذهني والتصورات السريعة بدلاً من تحرير الصورة المصدرية.

تصف الشركة أداة Whisk بأنها "نوع جديد من الأدوات الإبداعية". تبدأ شاشة الإدخال بواجهة عارية مع مدخلات للأسلوب والموضوع. تتيح لك هذه الواجهة التمهيدية البسيطة الاختيار من بين ثلاثة أنماط محددة مسبقًا: الملصق ودبوس المينا والدمية المحشوة. أظن أن Google وجدت أن هذه الأنماط الثلاثة تسمح بنوع المخرجات الأولية التي تعد الأداة التجريبية مثالية لها في شكلها الحالي.

كما ترى في الصورة أعلاه، فقد أنتجت صورة صلبة لدمية ويلفورد بريملي المحشوة. (تحظر شروط جوجل صور المشاهير، لكن ويلفورد تسلل عبر البوابات، ومعه شوفان كويكر، دون تنبيه الحراس.)

يتضمن Whisk أيضًا محررًا أكثر تقدمًا (يمكنك العثور عليه بالنقر فوق "ابدأ من الصفر" من الشاشة الرئيسية). في هذا الوضع، يمكنك استخدام نص أو صورة مصدر في ثلاث فئات: الموضوع والمشهد والأسلوب. يوجد أيضًا شريط إدخال لإضافة المزيد من النص للمسات النهائية. ومع ذلك، في شكله الحالي، لم تنتج عناصر التحكم المتقدمة نتائج تشبه استعلاماتي بأي حال من الأحوال.

على سبيل المثال، تحقق من محاولتي لتوليد السيد بريملي الراحل في مشهد صندوق ضوئي بأسلوب صورة حيوان الفظ المحشو التي وجدتها على الإنترنت:
بصق Whisk ما يبدو أنه ممثل يشبه ويلفورد بريملي بشكل غامض وهو يأكل دقيق الشوفان داخل إطار صندوق ضوئي. بقدر ما أستطيع أن أقول، هذا الرجل ليس دمية محشوة. لذا، فمن الواضح لماذا توصي Google باستخدام الأداة أكثر "للاستكشاف البصري السريع" وأقل للمحتوى الجاهز للإنتاج.

تعترف Google بأن Whisk لن يستمد سوى من "عدد قليل من الخصائص الرئيسية" لصورة المصدر الخاصة بك. "على سبيل المثال، قد يكون للموضوع الناتج طول أو وزن أو تسريحة شعر أو لون بشرة مختلف"، تحذر الشركة.

لفهم السبب، لا تبحث أبعد من وصف Google لكيفية عمل Whisk تحت الغطاء. إنه يستخدم نموذج لغة Gemini لكتابة تعليق تفصيلي للصورة المصدر التي تقوم بتحميلها. ثم يقوم بتغذية هذا الوصف في مولد الصور Imagen 3. لذا، فإن النتيجة هي صورة تعتمد على كلمات Gemini حول صورتك - وليس الصورة المصدر نفسها.

Whisk متاح فقط في الولايات المتحدة، على الأقل في الوقت الحالي. يمكنك تجربته على موقع Google Labs الخاص بالمشروع.

مقالات مشابهة

  • أداة الذكاء الاصطناعي الجديدة من Google Whisk تستخدم الصور كمطالبات
  • سد فجوة مهارات الذكاء الاصطناعي في عام 2025
  • الذكاء الاصطناعي دربنا للسعادة أم للتعاسة؟
  • ميتا تطلق أداة لكشف فيديوهات الذكاء الاصطناعي
  • أحمد عبد العليم: الذكاء الاصطناعي يعيد تشكيل مستقبل الإعلام (خاص)
  • دور الذكاء الاصطناعي في الارتقاء بقطاع الرعاية الصحية
  • أهم ابتكارات الذكاء الاصطناعي في الصحة عام 2024
  • أسلحة الذكاء الاصطناعي ووهم سيطرة البشر
  • ماذا يحصل لنا بسبب قلة النوم؟.. الذكاء الاصطناعي يجيب
  • كاتب صحفي: ظهور الموبايل أول مدخلات الذكاء الاصطناعي