كيف يستخدم المحتالون الذكاء الاصطناعي لاختراق حسابات الأطفال؟
تاريخ النشر: 22nd, December 2023 GMT
كشفت شركة للأمن السيبراني، أن المجرمين يقومون باختراق حسابات الأطفال على وسائل التواصل الاجتماعي واستنساخ أصواتهم، باستخدام الذكاء الاصطناعي لخداع والديهم لإرسال الأموال إليهم.
بحسب بحث أجرته شركة الأمن السيبراني "ماكافي" فإن المحتالين يستخدمون أدوات الذكاء الاصطناعي البسيطة عبر الإنترنت لتحويل 3 ثوانٍ فقط من صوت الطفل إلى ملفات صوتية مزيفة تطابق صوت الطفل بنسبة تصل إلى 95٪.يستهدف المتسللون حسابات الأطفال على وسائل التواصل الاجتماعي، مثل فيسبوك وإنستغرام وسناب شات وتيك توك، للحصول على عينات من أصواتهم من مقاطع الفيديو التي ينشرونها عبر الإنترنت أو من الرسائل الصوتية، قبل استنساخها عبر الذكاء الاصطناعي.
بعد ذلك يقوم المحتالون بالاتصال أو إرسال رسائل بريد صوتي يحتوي صوت الطفل المستنسخ إلى الأبوين، لإعلامهما بأنه في ورطة ويحتاج للمال.
ولا يقتصر الأمر على الأطفال فقط، حيث ووجد استطلاع أجرته شركة ماكافي أن 50% من البالغين يشاركون بياناتهم الصوتية عبر الإنترنت مرة واحدة على الأقل أسبوعياً عبر وسائل التواصل الاجتماعي أو من خلال الملاحظات الصوتية.
وكشف البحث أن المحتالين يستخدمون تقنية الذكاء الاصطناعي لاستنساخ الأصوات، ثم إرسال بريد صوتي مزيف إلى جهات اتصال الضحية أو الاتصال بها متظاهرين بأنهم في محنة ويحتاجون لمبلغ من المال لحل المشكلة.
يمكن أن تكون تكلفة الوقوع في عملية احتيال صوتية تعتمد على الذكاء الاصطناعي كبيرة، حيث قال 40% من الأشخاص الذين خسروا أموالهم إن الأمر كلفهم أكثر من 1000 دولار، في حين خسر 6% حوالي 5000 دولار فما فوق.
وتنصح شركة "ماكافي" الضحايا المحتملين بالتريث قبل إرسال الأموال لأي جهة، والتأكد من أن المتصل أو صاحب الرسالة الصوتية هو بالفعل أحد أفراد الأسرة عبر الاتصال برقمه مباشرة.
كما تقترح الشركة، الاتفاق مع الأطفال أو أفراد الأسرة أو الأصدقاء على كلمة "سر" يقولونها عند وقوعهم في مشكلة، وفق ما أوردت صحيفة ديلي ميل البريطانية.
المصدر: موقع 24
كلمات دلالية: التغير المناخي أحداث السودان سلطان النيادي غزة وإسرائيل مونديال الأندية الحرب الأوكرانية عام الاستدامة الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.