نشهد اليوم تزايدا ملحوظا في استخدام الذكاء الاصطناعي التوليدي أكان من أجل الفائدة أو الضرر. ومن المؤسف أن المحتالين وموفري المعلومات المضللة هم من أبرز المستفيدين من هذه التقنية. ورغم أن إنشاء مقاطع الفيديو باستخدام الذكاء الاصطناعي لا يزال بعيد المنال، فإنه أصبح متقدما بما يكفي لانتحال شخصيات الآخرين.

كيف تعمل مكالمة الفيديو الاحتيالية بالذكاء الاصطناعي؟

تعتمد مكالمات الفيديو الاحتيالية بشكل أساسي على التزييف العميق (Deepfake) الذي يتيح انتحال شخصية ما والحصول على معلومات حساسة وحسابات مالية.

وتُعد مكالمات الفيديو الاحتيالية شائعة على مواقع التعارف، إذ يُعد الأشخاص الذين يبحثون عن الحب هدفا سهلا بالنسبة للمحتالين. كما يمكن استخدامها أحيانا بطرق أخرى، مثل انتحال شخصية أحد المشاهير أو شخصية سياسية أو حتى شخص قد تعرفه فعليا مثل رئيسك في العمل أو صديقك. وفي الحالة الأخيرة، غالبا ما يستخدمون رقم هاتف مزيف لإقناع الضحية بشكل أكبر.

ويُعرف التزييف العميق بأنه أي صورة أو فيديو أُنشئ بواسطة الذكاء الاصطناعي بهدف تقليد شخصية موجودة بالفعل. ورغم أنه مرتبط بالأغراض الشريرة، فإن له استخدامات غير مؤذية مثل إنشاء "ميمز" (Memes) والمقالب والترفيه، ولكن الآن أصبحت وسيلة احتيال عبر مكالمات الفيديو.

إعلان ما هدف المحتالين؟

الهدف الأساسي لكل محتال هو المعلومات، ورغم أن للبيانات أشكالا عدديدة، فإن معظم عمليات الاحتيال التي تعتمد على الذكاء الاصطناعي تسعى لتحقيق الغاية ذاتها، حتى لو كانت العواقب متفاوتة.

على سبيل المثال، قد يحاول المحتال انتحال شخصية رئيسك في العمل لتزويده بمعلومات حساسة تتعلق بالشركة التي تعمل فيها. وإذا أرسلت له تفاصيل عن عملاء أو عقود سيتمكن من استغلالها وبيعها لشركات منافسة. وقد يفعل أكثر من ذلك ويؤدي إلى تدمير الشركة.

وفي أسوأ الحالات قد يستدرجك المحتال للحصول على معلوماتك البنكية أو رقم الضمان الاجتماعي، وغالبا ما يحدث ذلك عن طريق انتحال شخصية صديقتك أو زوجتك، ومن ثم يطلب المال أو يأتي على هيئة مدير موارد بشرية يعرض عليك وظيفة جديدة قد تكون قد تقدمت إليها أو لم تتقدم.

وفي كلتا الحالتين، بمجرد أن يجمع المحتال المعلومات ويُحدث الضرر بشكل أساسي، يصبح الأمر متعلقا بمدى سرعة اكتشافك الخدعة وتخفيف الضرر.

التزييف العميق يعرف بأنه أي صورة أو فيديو أُنشئ بالذكاء الاصطناعي بهدف تقليد شخصية موجودة بالفعل (مواقع التواصل) مكالمة الفيديو الاحتيالية قد تطيح بالشركات

ذكر موقع "سي إن إن" (CNN) حادثة وقعت بداية عام 2024، حيث تعرض موظف مالي في شركة متعددة الجنسيات في هونغ كونغ لاحتيال تسبب في خسارة 25 مليون دولار، وقالت الشرطة آنذاك إن المحتال استخدم تقنية التزييف العميق في مكالمة فيديو وتظاهر أنه المدير المالي للشركة.

وتلقى الموظف المالي رسالة تزعم أنها من المدير المالي للشركة المقيم في المملكة المتحدة وتطالب بإجراء معاملة سرية، وفي البداية اشتبه الموظف في أن تكون هذه الرسالة أحد أساليب التصيد الاحتيالي، لكنه وضع شكوكه جانبا بعد أن تلقى مكالمة فيديو تُظهر أشخاصا حاضرين بدوا وكأنهم زملاءه في العمل.

واعتقد الموظف أن كل من كان في مكالمة الفيديو حقيقي ويبدو أنه لم يسمع من قبل بتقنية التزييف العميق، ومن دون تفكير وافق على تحويل مبلغ 25 مليون دولار. ولم تُكتشف عملية الاحتيال التي تتضمن المدير المالي الوهمي إلا عندما تحقق الموظف من مقر الشركة لاحقا.

إعلان اكتشاف مكالمات الفيديو الاحتيالية

في الوقت الحالي، يتصف التزييف العميق المُستخدم في معظم مكالمات الفيديو الاحتيالية بأنه غير مُتسق، وغالبا ما يحوي عيوبا بصرية ولقطات غريبة تجعل الفيديو أو الصوت يبدو مزيفا.

ويجب التدقيق في التفاصيل مثل تعابير وجه لا تظهر بشكل متناسق، وخلفية تتحرك بشكل غريب، وصوت يبدو آليا بعض الشيء.

وتقنيات التزييف العميق الحالية تواجه صعوبة في تتبع الشخص إذا وقف أو رفع يديه فوق رأسه، إذ كان تدريبها مقتصرا على لقطات الرأس ومقاطع الفيديو التي تركز على الوجه والأكتاف.

ومع ذلك، تتطور تكنولوجيا الذكاء الاصطناعي بسرعة، ورغم أهمية فهم عيوب الذكاء الاصطناعي الحالي، فإن الاعتماد على هذه المهارات في السياق العام قد يؤدي إلى عواقب وخيمة.

وتقنية التزييف العميق الحالية أثبتت أنها أفضل بكثير من العام الماضي ونحن نتجه نحو مرحلة قد تصبح فيها مقاطع الفيديو الاحتيالية شبه مطابقة للواقع وقد يستحيل اكتشافها.

ورغم وجود أدوات عديدة لكشف مقاطع الفيديو المزيفة التي تعتمد على الذكاء الاصطناعي، فإنه لا يمكن الاعتماد عليها لأن التقنية تتطور بسرعة كبيرة.

التزييف العميق المستخدم في معظم مكالمات الفيديو الاحتيالية يوصف بأنه غير متسق (شترستوك) الحماية من مكالمات الفيديو الاحتيالية

بدلا من محاولة التعرف على الفيديوهات التي أنشأها المحتالون بواسطة الذكاء الاصطناعي، حاول اتباع نهج أكثر فعالية في الأمان، فمعظم أساليب الحماية التي نجحت في الماضي سوف تنجح الآن. وسنذكر أهم إستراتيجيات الحماية من مكالمات الفيديو التي تستخدم تقنية التزييف العميق، ويمكنك اتخاذ بعض الخطوات لتقليل فرص المحتالين من إنشاء نسخة مزيفة منك. ويجب أن تفكر مليا فيما تشاركه على الإنترنت:

التحقق من هوية المتصل: بدلا من محاولة تحديد هوية شخص ما بناءً على وجهه أو صوته، يمكنك استخدام أساليب يصعب تزويرها، فمثلا يمكنك التحقق من هوية المتصل من خلال إرسال رسالة نصية إليه تسأله إذا كان يجري مكالمة فيديو معك في الوقت الحالي، وإذا كان الجواب لا فبالتأكيد ستكون عملية احتيال.

إعلان

ويمكن سؤال المتصل الذي تشك فيه بعض الأسئلة الجانبية أو اخرج عن الموضوع، فمعظم المحتالين سيشعرون بالارتباك عند الخروج عن النص الذي أعدوه وقد توقع بهم بهذا الأمر، وإذا كانوا يتنكرون بشخص تعرفه فعليا، فسيواجهون صعوبة في الإجابة عن الأسئلة الخاصة لأنهم لا يعرفون كل ما يجري بينك وبين الشخص الذين تعرفه.

لا تشارك المعلومات الحساسة في مكالمات الفيديو: أفضل طريقة للحماية هي الاحتفاظ بجميع المعلومات المهمة في صدرك. فلا ينبغي لأحد أن يطلب منك معلوماتك المصرفية أو رقم الضمان الاجتماعي بصوت عالٍ أثناء مكالمة الفيديو، ولا يجب عليك مشاركتها عبر الإنترنت أبدا. ​​وإذا حاولوا استعجالك أو الضغط عليك للقيام بذلك، فهذا سبب وجيه لإغلاق الهاتف.

ويجب تقديم هذه المعلومات فقط باستخدام وثائق رسمية، وإذ حاول شخص ما إعادة توجيهك إلى مستند "دوك" (Doc) أو ملف "بي دي إف" (PDF) من غوغل عن طريق ربطه في المحادثة النصية لمكالمة "زوم" (Zoom) أو "تيمز" (Teams)، فاطلب منه إرساله من بريده الإلكتروني الخاص بالعمل بدلا من ذلك. وخذ بعض الوقت لإلقاء نظرة عليه والتحقق من أن هذا عنوان بريد إلكتروني شرعي قبل النقر فوق الرابط.

لا تقع ضحية التزييف العميق

يمكنك اتخاذ بعض الخطوات الاستباقية لتقليل فرص المحتالين من إنشاء نسخة مزيفة منك. ببساطة، يمكنك منعهم من الوصول إلى صورك أو معلوماتك التي يعتمدون عليها لبدء هجماتهم. ويتحقق ذلك من خلال بعض الإجراءات سنذكر أبرزها:

احذر مما تنشره على الإنترنت: أحد الخطوات الأساسية في تجنب التزييف العميق هي أخذ الحذر مما تشاركه عبر الإنترنت وخاصة مواقع التواصل الاجتماعي، فالصور ومقاطع الفيديو الموجودة على الإنترنت هي المادة الخام التي تعتمد عليها تقنية التزييف العميق. ويمكنك ضبط إعدادات منصات التواصل بحيث يمكن للأشخاص الموثوق بهم فقط رؤية صورك ومنشوراتك.

إعلان

وضع علامة مائية على الصور: عند مشاركة الصور أو مقاطع الفيديو عبر الإنترنت، يُفضل استخدام علامة مائية عليها. يمكن أن يثني ذلك من عزيمة محتالي التزييف العميق ويجعل جهودهم أكثر قابلية للتتبع.

التعرف على التزييف العميق والذكاء الاصطناعي: بما أن عالم الذكاء الاصطناعي يتغير بسرعة، فمواكبة الأحداث والتطورات يمكن أن تساعدك في فهم الأساليب الاحتيالية المعتمدة على التزييف العميق. وليس من الضروري أن تصبح خبيرا، لكن متابعة الأخبار حول هذه التقنيات مهمة جدا، وقد تساعدك في التعرف على العلامات الحمراء المحتملة عند مواجهة محتوى مشتبه فيه.

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی مکالمة الفیدیو التزییف العمیق مقاطع الفیدیو انتحال شخصیة

إقرأ أيضاً:

فتح باب التسجيل في مبادرة «مليون خبير لأوامر الذكاء الاصطناعي»

أعلن «مركز دبي لاستخدامات الذكاء الاصطناعي»، اليوم، فتح باب التسجيل في مبادرة «مليون خبير لأوامر الذكاء الاصطناعي»، التي وجه بإطلاقها، سمو الشيخ حمدان بن محمد بن راشد آل مكتوم، ولي عهد دبي، نائب رئيس مجلس الوزراء، وزير الدفاع، رئيس مجلس أمناء مؤسسة دبي للمستقبل، في مايو 2024 لتدريب مليون شخص على مهارات هندسة الأوامر البرمجية في تطبيقات الذكاء الاصطناعي المختلفة خلال السنوات الثلاث القادمة انطلاقاً من دبي.

وتتيح مبادرة «مليون خبير لأوامر الذكاء الاصطناعي»، الأولى من نوعها، فرصة للمنتسبين من مختلف الجنسيات والتخصصات لاكتساب مهارات تخصصية نوعية في أسس برمجة وهندسة أوامر الذكاء الاصطناعي التوليدي، إلى جانب تعزيز القدرات والإمكانات للتطور المهني والإبداعي على المستويين الفردي والمؤسسي.

وتم إطلاق هذه المبادرة في إطار الجهود الرامية لتحقيق مستهدفات «خطة دبي السنوية لتسريع تبني استخدامات الذكاء الاصطناعي»، وبما يسهم في إعداد كفاءات وخبرات متمكنة بمهارات توظيف تطبيقات الذكاء الاصطناعي، والاستفادة منها في تسريع الابتكار والتقدم والتنمية وتوظيف التكنولوجيا لخدمة الإنسان، وترسيخ مكانة دبي مركزاً عالمياً للذكاء الاصطناعي ووجهة لاستثماراته الواعدة.

وأكد سعيد الفلاسي، مدير «مركز دبي لاستخدامات الذكاء الاصطناعي»، الذي تشرف عليه مؤسسة دبي للمستقبل، أن مبادرة «مليون خبير لأوامر الذكاء الاصطناعي» تفتح فرصاً جديدة للمشاركين من التخصصات كافة، وتمكنّهم من قيادة مسارات استخدام الذكاء الاصطناعي في كل القطاعات الحيوية والإبداعية والمعرفية، كما تسهم في إعداد كفاءات متمكنة في تفعيل فرص ومنافع الذكاء الاصطناعي لتصميم المستقبل وفتح آفاق جديدة من دبي.

وقال: إن المبادرة تعزز تنافسية دبي وجاهزيتها وريادتها في تبنّي تقنيات المستقبل، وتسهم كذلك في بناء الكوادر وتمكين الخبرات والكفاءات عالمية المستوى في برمجة أوامر الذكاء الاصطناعي وتفعيل استخداماته، كما تدعم تحقيق مستهدفات «خطة دبي السنوية لتسريع تبنّي استخدامات وتطبيقات الذكاء الاصطناعي» التي أطلقها سمو الشيخ حمدان بن محمد بن راشد آل مكتوم، لتعزيز تبني الذكاء الاصطناعي في القطاعات والمجالات المهمة للمستقبل.

وتضم مبادرة «مليون خبير لأوامر الذكاء الاصطناعي» 4 مساقات متنوعة، ويتعرف المشاركون من خلال المساق الأول على أساسيات الذكاء الاصطناعي، وكيفية استخدام مهارات صياغة الأوامر البرمجية لتحقيق الاستفادة المثلى من الإمكانيات الهائلة لهذه التكنولوجيا، وابتكار الحلول للتحديات الراهنة والمستقبلية.

أخبار ذات صلة التوأم الرقمي لريد هوفمان يثبت قدرة الذكاء الاصطناعي في التأثير دعوات لمساعدة الدول النامية على دحر خطر «الإرهاب الرقمي»

وسيركز المساق الثاني على إتقان التفاعل مع روبوتات الدردشة الذكية من خلال صياغة أوامر برمجية تعزز القدرة على إجراء محادثات فعالة مع أدوات الذكاء الاصطناعي.

أما في المساق الثالث، فسيتعرف المشاركون على أدوات الذكاء الاصطناعي التي تسهل تنفيذ المهام اليومية وتعزز الإنتاجية.

ويوفر المساق الرابع الفرصة لتعزيز القدرات الإبداعية وتوظيف الذكاء الاصطناعي في إنشاء الأعمال الفنية والموسيقى ومقاطع الفيديو بشكل مبدع ومبتكر. وسيتم منح شهادات معتمدة للخريجين لدى إكمال هذه المساقات.

الجدير بالذكر أن سمو الشيخ حمدان بن محمد بن راشد آل مكتوم، وجه بإطلاق مبادرة «مليون خبير لأوامر الذكاء الاصطناعي» في ختام النسخة الأولى من «التحدي الدولي للذكاء الاصطناعي» الذي تم تنظيمه في مايو الماضي، بمشاركة 30 متسابقاً من 13 دولة، تم اختيارهم من بين آلاف المشاركات من نحو 100 دولة حول العالم، وفاز بها آجاي سيريل من الهند في فئة البرمجة، وميغان فوكس من النمسا في فئة الفن، وأديتيا ناير من الهند في فئة الأدب.

ومن المقرر أن يتم تنظيم النسخة الثانية من هذا التحدي في أبريل المقبل ضمن «أسبوع دبي للذكاء الاصطناعي».

ويمكن للراغبين بالمشاركة في مبادرة «مليون خبير لأوامر الذكاء الاصطناعي» التسجيل عبر الموقع الإلكتروني: (www.dub.ai/ar/omp-ar).

المصدر: وام

مقالات مشابهة

  • حتى قادة العالم يتلقون مكالمات احتيالية.. رئيسة وزراء تايلاند تكشف عن تلقي مكالمة بصوت زعيم عالمي وما طلبه منها
  • الذكاء الاصطناعي يتنبأ بمكونات الوجبة المثالية
  • مايكروسوفت تدشن قسمًا داخليًا جديدًا عن الذكاء الاصطناعي
  • صناع المحتوى يبيعون مقاطعهم غير المنشورة لشركات الذكاء الاصطناعي
  • ممثلون يستخدمون الذكاء الاصطناعي للحصول على مظهر أصغر
  • الذكاء الاصطناعي يسعى إلى فهم العالم
  • الذكاء الاصطناعي في المستطيل الأخضر: هل يُنجب لنا ميسي أم يعيد ماردونا؟!
  • فتح باب التسجيل في مبادرة «مليون خبير لأوامر الذكاء الاصطناعي»
  • الولايات المتحدة.. قواعد جديدة تتعلق بتصدير الشرائح الإلكترونية المستخدمة في الذكاء الاصطناعي