الذكاء الاصطناعي يعزز الاحتيال برسائل ومقاطع فيديو وأصوات مزيفة واقعية
تاريخ النشر: 1st, January 2024 GMT
شفق نيوز/ أحدثت تقنيات الذكاء الاصطناعي التوليدي، طفرة كبيرة في تطوير الهجمات السيبرانية ضد مستخدمي الإنترنت، بدايةً من رسائل البريد الإلكتروني المزيفة، مبروراً بانتحال الصفة اعتماداً على المحادثات الهاتفية المزيفة، ومقاطع الفيديو المحررة، إلى المكالمات الآنية سواء بالصوت أو الفيديو.
كل هذه الخدع أصبح من السهل اختلاقها لتظهر وكأنها واقعاً، اعتماداً على تقنيات الذكاء الاصطناعي، ومن المتوقع أن يصبح الأمر أصعب في اكتشافه في العام الجديد.
وأفادت مؤسسة "سلاش نيكست"، بشأن إحصائيات الاصطياد الإلكتروني في 2023، بأن هجمات التصيد الإلكتروني زادت بنسبة 1265% بدايةً من الربع الأخير من عام 2022، بالتزامن مع بداية وصول تقنية الذكاء الاصطناعي التوليدي، التي بدأ نجمها يسطع مع إطلاق منصة ChatGPT لجميع مستخدمي الإنترنت.
أساليب مختلفة
مع تنوع قدرات منصات الذكاء الاصطناعي على التعامل مع أشكال متعددة من البيانات من صور وفيديوهات ونصوص وصوت، نجح المحتالون في توظيف تلك الأدوات بأساليب فعالة لتنفيذ هجماتهم على الضحايا، فمثلاً، تعتبر رسائل الاحتيال الإلكتروني البريدية واحدة من أكثر وسائل استهداف مستخدمي الإنترنت بالهجمات الاحتيالية، لكن عادةً ما كان يعاني المحتالون من غير متحدثي الإنجليزية، خاصة الصينيين والروس، من صعوبة كتابة الرسائل لاستهداف الضحايا في الولايات المتحدة وبريطانيا ودول أوروبا، لكن مع تطور أدوات الذكاء الاصطناعي وتسارع وتيرة إجادة النماذج اللغوية الضخمة LLM لكتابة أنواع مختلفة من المحتوى بلغات العالم، ربما يصبح تأثير الهجمات البريدية الخبيثة أكثر فاعلية، بعد أن يتفادى المخترقون الوقوع في الأخطاء الإملائية داخل رسائلهم، والتي كانت واحدة من وسائل كشف زيف الرسائل.
وتوقعت تقارير أن يصبح الأمر أكثر سهولة لتطوير هجمات تستهدف قطاعاً من قطاعات الأعمال، أو شركة بعينها، من خلال تدريب نماذج ذكاء اصطناعي على البيانات المتاحة عن شركة أو قطاع ما، بحيث يصبح النموذج الذكي محترفاً في كتابة أي محتوى نصي يعتمد على نفس المصطلحات الشائعة بين العاملين داخل هذا القطاع أو تلك الشركة، ما يجعل كشف تزييف رسائل التصيد أمراً عسيراً.
وأفادت دراسة أجرتها مؤسسة SoSafe للتوعية بأمن المعلومات في أبريل الماضي، بأن قرابة 80% من عينة الدراسة فتحوا الرسائل الاحتيالية المنشأة بالذكاء الاصطناعي، و21% من العينة ضغطوا على الروابط الخبيثة داخل الرسائل.
محادثات فيديو مزيفة
واحترف المحتالون استخدام الذكاء الاصطناعي في تزييف الصور والمقاطع المصورة، فأصبح من السهل التعديل في الصور الحقيقية وتزييف بعض تفاصيلها، أو كذلك إنشاء صور مزيفة بالكامل من خلال منصات الذكاء الاصطناعي ذات الإمكانيات المتطورة، والتي تقدم بعضها خدماتها بشكل مجاني للمستخدمين.
وتوقع خبراء أمن معلومات ألا تتوقف الأمور في 2024 عند تزييف الصور، خاصة أن عام 2023 شهد ارتفاعاً كبيراً في إنشاء مقاطع الفيديو المزيفة لشخصيات عامة ومشاهير وسياسيين، ورصدت شركة الخدمات الأمنية OnFido، زيادة الفيديوهات المزيفة بتقنية "التزييف العميق Deep Fake" بنسبة 3000%.
وأفاد تقرير حديث بأن تكلفة تزييف المقاطع المصورة بحرفية فائقة أصبحت أقل من 100 دولار.
ويرى الخبراء أن عملية تزييف المحتوى البصري أصبحت أكثر سهولة، بل وأكثر إقناعاً، ولم تعد محادثات الفيديو دليلاً كافياً على أن المكالمة مع الشخص المقصود، فمن الممكن أن يكون مجرد نسخة رقمية مزيفة يتحكم فيها أحد المحتالين، باستخدام منصات الذكاء الاصطناعي لجعل حركات النسخة المزيفة أكثر واقعية، بل ويستخدم بعض المنصات لإنشاء نسخة أكثر طبيعية من صوت الشخص المستهدف، وبالتالي تكون محادثة الفيديو مقنعة.
الاعتماد على تزييف الأصوات ليس تقنية جديدة، ففي دراسة أجرتها مؤسسة Kroll، اتضح أن عام 2022 شهد ارتفاعاً قياسياً في عدد المحادثات الصوتية الاحتيالية بنسبة 54%، لذلك فإن الخبراء يتوقعون استمرار الاحتيال الصوتي Vishing، وهو مصطلح ناتج عن دمج كلمتي Voice وPhishing، في تهديد الأمن الإلكتروني للمستخدمين، بالتزامن مع تطور تقنيات الذكاء الاصطناعي.
لا تصدق أذنيك
وفي أبريل 2023، وضعت جوانا ستيرن، محررة التقنية بصحيفة "وول ستريت جورنال"، تقنيات بعض الخدمات لصناعة نسخ رقمية من أصوات البشر، للتجربة، وكان على رأسها خدمة Eleven Labs الشهيرة، وخرجت نسخة صوت جوانا واقعية كفاية لتخدع بها أختها، وكذلك إيفان شبيجل، مؤسس ومدير شركة "سناب".
وتوقع الخبراء أن تشهد هجمات الاحتيال الصوتي عبر المحادثات الهاتفية طفرة كبرى خلال العام الجديد، موضحين أن هذه الهجمات تحتاج إلى استخدام نماذج ذكاء اصطناعي قادرة على فهم حديث البشر في الوقت الفعلي، وتحليل الكلام المنطوق، ثم بدء إنتاج ردود طبيعية في صياغتها وطريقة ترتيب الكلمات والعبارات بشكل أقرب للبشر، وهو ما تحقق بالفعل في 2023، مع التطور السريع للنماذج اللغوية الضخمة LLM
وأضافوا أن المحتالين يحتاجون عند تنفيذ عمليات احتيال عبر المكالمات الهاتفية، إلى نماذج ذكية قادرة على خلق نموذج رقمي من صوت الشخص المستهدف تقليد صوته، ليكون مقنعاً لأقاربه وأصدقائه.
وتطورت هذه النماذج بشكل كبير في التعامل مع أصوات البشر، إذ كشفت العديد من الشركات، مثل "ميتا" عن نماذج متاحة للجميع على الإنترنت، بإمكانها إجراء ترجمة صوتية لأي مقاطع صوتية، وشهد 2023 العديد من الوقائع بالفعل، إذ تعرض صانع المحتوى الشهير جو روجان لعملية انتحال لصفته من جانب شركة مغمورة استغلت صوته بتقنيات الذكاء الاصطناعي، للترويج لمنتج لم يناقشه إطلاقها من قبل.
ولذلك توقع الخبراء أن تظهر تقنيات جديدة تحاول تأكيد هوية الأشخاص في التواصل الرقمي، بعيداً عن محادثات الفيديو أو الصوت، تجنباً للوقوع ضحايا لهجمات المحتالين، مطالبين المستخدمين وقطاع الأعمال بالوعي والحذر اللازم لمواجهة الهجمات.
المصدر: شفق نيوز
كلمات دلالية: العراق هاكان فيدان تركيا محمد شياع السوداني انتخابات مجالس المحافظات بغداد ديالى نينوى ذي قار ميسان اقليم كوردستان السليمانية اربيل نيجيرفان بارزاني إقليم كوردستان العراق بغداد اربيل تركيا اسعار الدولار روسيا ايران يفغيني بريغوجين اوكرانيا امريكا كرة اليد كرة القدم المنتخب الاولمبي العراقي المنتخب العراقي بطولة الجمهورية الكورد الفيليون الكورد الفيليون خانقين البطاقة الوطنية مطالبات العراق بغداد ذي قار ديالى حادث سير الكورد الفيليون مجلة فيلي عاشوراء شهر تموز مندلي الذكاء الاصطناعي احتيال تقنیات الذکاء الاصطناعی
إقرأ أيضاً:
بعد تداول فيديو.. ضبط المتهم بتثبيت لوحات معدنية خلفية مزيفة بالمنوفية
كشفت الأجهزة الأمنية بوزارةالداخلية ملابسات منشور مدعوم بصور تم تداوله بمواقع التواصل الاجتماعي تضمن قيام قائد سيارة بتثبيت لوحات معدنية خلفية مصطنعة بالمنوفية.
بعد تداول فيديو ..القبض المتهم بتثبيت لوحات معدنية خلفية مزيفة بالمنوفية وبالفحص أمكن تحديد وضبط السيارة الظاهرة بمقطع الفيديو وقائدها وقت ارتكاب الواقعة أحد الأشخاص – مقيم بدائرة مركز شرطة الشهداء بالمنوفية، وبمواجهته اعترف بارتكاب الواقعة على النحو المشار إليه.
و تم التحفظ على السيارة واتخاذ الإجراءات القانونية حيال قائدها.
كما كشفت الأجهزة الأمنية بوزارة الداخلية، ملابسات منشور مدعوم بصورة تم تداولها بمواقع التواصل الاجتماعي تضمن قيام شخصين بقيادة دراجتين ناريتين بسرعة عالية وأداء حركات استعراضية بأحد الطرق بالفيوم مُعرضين حياتهما والمواطنين للخطر.
بالفحص أمكن تحديد وضبط الدراجتين الناريتين إحداهما دون لوحات معدنية الظاهرتين بمقطع الفيديو، وقائديهما مقيمان بدائرة مركز شرطة سمسطا ببني سويف لا يحملان رخصة قيادة، وبمواجهتهما اعترفا بارتكاب الواقعة بقصد اللهو، وتم التحفظ على الدراجتين الناريتين وجارى اتخاذ الإجراءات القانونية حيال قائديهما.
كما كشفت الأجهزة الأمنية بوزارة الداخلية ، ملابسات منشور مدعوم بصور تم تداوله بمواقع التواصل الإجتماعي تضمن وضع قائد سيارة ميكروباص "نرجيلة " بباب السيارة والتدخين حال قيادته معرضًا حياته والمواطنين للخطر بالإسكندرية.
القبض على سائق ميكروباص يدخن الشيشة خلال القيادة بالإسكندريةبالفحص أمكن تحديد وضبط السيارة "بدون تراخيص أو لوحات معدنية" وقائدها وقت ارتكاب الواقعة، سائق، مقيم بدائرة قسم شرطة ثالث المنتزه وبحوزته النرجيلة المشار إليها، وبمواجهته اعترف بارتكابه الواقعة على النحو المشار إليه، وتم إتخاذ الإجراءات القانونية.
عرض حياة المواطنين للخطر.. القبض على سائق سيارة ربع نقل سار بحمولة زائدة في البحيرةكما كشفت الأجهزة الأمنية بوزارة الداخلية، ملابسات منشور مدعوم بصورة تم تداوله بمواقع التواصل الاجتماعي، تضمن قيام قائد سيارة ربع نقل، بالسير بحمولة زائدة معرضًا حياته والمواطنين للخطر بالبحيرة.
بالفحص أمكن تحديد وضبط السيارة "سارية التراخيص" وقائدها (سائق، مقيم بدائرة مركز شرطة حوش عيسى، وبمواجهته اعترف بارتكابه الواقعة على النحو المشار إليه، تم اتخاذ الإجراءات القانونية.