كاسبرسكي تحذر من المخاطر الأمنية في عصر الذكاء الاصطناعي
تاريخ النشر: 4th, April 2024 GMT
أدى الاعتماد واسع النطاق لتقنيات الذكاء الاصطناعي وتعلم الآلة في السنوات الأخيرة إلى تزويد مصادر التهديد بأدوات جديدة متطورة لتنفيذ هجماتهم. ويُعد التزييف العميق أحد هذه المنتجات، إذ يقلد البشر ويتضمن كلاماً أو صوراً أو فيديو مولداً يصعب تمييزه من الحقيقي. وبينما عادة ما تستهلك هذه الهجمات وقتاً وجهداً أكبر من «مكافآتها» المحتملة، تحذر كاسبرسكي من وجوب إدراك الشركات والمستهلكين لكون عمليات التزييف العميق ستصبح مصدر قلق أكبر في المستقبل على الأرجح.
كشفت أبحاث كاسبرسكي وجود أدوات وخدمات صنع التزييف العميق في أسواق الشبكة المظلمة. وتوفر هذه الخدمات مقاطع فيديو مصنوعة بالذكاء الاصطناعي التوليدي ومخصصة لمجموعة متنوعة من الأغراض، بما في ذلك الاحتيال، والابتزاز، وسرقة البيانات السرية. كما تشير تقديرات خبراء كاسبرسكي إلى إمكانية شراء دقيقة واحدة من فيديوهات التزييف العميق مقابل أقل من 300 دولار أمريكي.
بالإضافة لذلك، هناك مخاوف حول الفجوة الكبيرة في المعرفة الرقمية بين مستخدمي الإنترنت. حيث أشار استطلاع رأي رقمنة الأعمال الذي أجرته كاسبرسكي مؤخراً¹ إلى أن 51% من الموظفين الذين شملهم الاستطلاع في منطقة الشرق الأوسط وتركيا وإفريقيا (META) قالوا أنهم يستطيعون التمييز بين الصورة المُولدة بتقنية التزييف العميق والصورة الحقيقية؛ لكن ولدى إجراء الاختبار حقاً، لم يتمكن سوى 25%2 منهم من تمييز الصورة الحقيقية عن تلك المولدة بالذكاء الاصطناعي. ويعرّض ذلك المؤسسات للخطر، حيث غالباً ما يكون الموظفون هم الأهداف الأساسية للتصيد الاحتيالي وهجمات الهندسة الاجتماعية الأخرى.
على سبيل المثال، يمكن للمجرمين السيبرانيين إنشاء مقطع فيديو مزيف لرئيس تنفيذي يطلب تحويلاً مصرفياً أو يمنح الإذن لعملية دفع، وهو ما يسمح لهم بسرقة أموال الشركة. كما يمكنهم توليد مقاطع فيديو أو صور مزيفة للأفراد واستخدامها لابتزازهم مقابل المال أو المعلومات.
قال فلاديسلاف توشكانوف، الم البيانات الرئيسي في كاسبرسكي: «على الرغم من عدم توافر التقنية اللازمة لإنشاء التزييف العميق عالي الجودة على نطاق واسع حتى الآن، سيكون توليد أصوات لانتحال شخصية ما في الوقت الفعلي أحد أكثر الاستخدامات الممكنة للتقنية. وعلى سبيل المثال، تم خداع عامل مالي في شركة متعددة الجنسيات لتحويل 25 مليون دولار إلى المحتالين الذين استخدموا تقنية التزييف العميق لانتحال شخصية الرئيس المالي للشركة في مكالمة فيديو جماعية. من المهم أن نتذكر أن تهديد التزييف العميق لا يقتصر على الشركات فحسب، بل أنه يمتد إلى المستخدمين الأفراد أيضاً - حيث ينشر التزييف العميق المعلومات المضللة، ويستخدم في عمليات الاحتيال، وينتحل شخصيات الناس بدون موافقتهم، كما يشكل تهديداً سيبرانياً متزايداً يجب الحماية منه.»
للحماية من التهديدات المختلفة التي يشكلها التزييف العميق، توصي كاسبرسكي الأشخاص والشركات باتخاذ الإجراءات التالية:
انتبه للمكالمات المشبوهة: على الموظفين الانتباه إلى جودة الصوت الرديئة، والرتابة غير الطبيعية لصوت «الشخص»، وكلامه غير المفهوم، والضوضاء الخارجية.
انتبه إلى الميزات الأوضح لفيديوهات التزييف العميق: يشمل ذلك الحركة المتشنجة، والتغيرات في الإضاءة بين الإطارات، وتغير لون البشرة، وعدم تزامن الشفاه بشكل جيد مع الكلام، والإضاءة الضعيفة.
لا تتخذ قرارات بناءً على المشاعر أبداً، ولا تشارك التفاصيل مع أي شخص: من الأفضل دائماً أن تسأل عن الأشياء التي لا يعرفها سوى هذا الشخص أو توقف المكالمة وتتحقق من المعلومات الواردة مجدداً عبر عدة قنوات. وهنا تبرز إهمية بروتوكول «ثِق، لكن تحقق».
تحقق من ممارسات الأمن السيبراني للمؤسسة وقم بتحديثها.
يمكن أن يساعد حل مثل Kaspersky Threat Intelligence في إبقاء متخصصي أمن المعلومات مطلعين على أحدث التطورات حول التزييف العميق.
يجب على الشركات تعزيز جدار حمايتها البشري من خلال ضمان فهم موظفيها لماهية التزييف العميق، وكيفية عمله، والتحديات التي يمكن أن يشكلها. ويمكن أن يشمل ذلك حملات التوعية والتثقيف المستمرة لتعليم الموظفين طريقة اكتشاف التزييف العميق.
المصدر: بوابة الوفد
كلمات دلالية: التزییف العمیق
إقرأ أيضاً:
الوطنية لحقوق الإنسان تناقش أخلاقيات الذكاء الاصطناعي
شاركت الهيئة الوطنية لحقوق الإنسان، في جلسة نقاشية ضمن فعاليات خلوة الذكاء الاصطناعي، خلال أسبوع دبي للذكاء الاصطناعي، الذي ينظمه مركز دبي لاستخدامات الذكاء الاصطناعي، وتشرف عليه مؤسسة دبي للمستقبل.
وشارك في الجلسة، التي جاءت تحت عنوان "الذكاء الاصطناعي المرتكز على الإنسان: الأخلاقيات والابتكار والمسؤولية"، مقصود كروز، رئيس الهيئة الوطنية لحقوق الإنسان، ونخبة من الخبراء والمختصين من القطاعين الحكومي والخاص، وقيادات الصناعات المرتبطة بالذكاء الاصطناعي من أنحاء العالم، من بينهم الدكتور مارتن فيليش، من جامعة برمنغهام، والبروفيسور أسامة الخطيب، من مختبر الروبوتات في جامعة ستانفورد والحاصل على جائزة نوابغ العرب.
وتناولت الجلسة التي ترأسها السيد ويان نويتزه، من صندوق "ساندبوكس دبي"، أهمية دمج المبادئ الأخلاقية والإنسانية في تطوير واستخدام تقنيات الذكاء الاصطناعي.
وأكد مقصود كروز، ضرورة وضع حقوق الإنسان في صلب مسيرة التطور التكنولوجي، وبحيث تظل جزءاً لا يتجزأ من دورة حياة الذكاء الاصطناعي، وأن المقاربة الأخلاقية لتطبيقاته تعتبر مسألة جوهرية.
وناقش المشاركون في الجلسة أسس الذكاء الاصطناعي المرتكز على الإنسان لضمان مواءمة التكنولوجيا مع قيم العدالة والمساواة والشمولية، وتطبيق أخلاقيات الذكاء الاصطناعي عملياً عبر معالجة التحديات المتعلقة بالتحيّز، والمساءلة، والشفافية، وكذلك تصميم مسؤول للتفاعل بين الإنسان والآلة بما يضمن دمج الذكاء الاصطناعي بشكل آمن وموثوق في حياة الإنسان اليومية.
حضر الجلسة النقاشية عن الهيئة الوطنية لحقوق الإنسان كلٌّ من الدكتور أحمد المنصوري، عضو مجلس الأمناء، والدكتور سعيد الغفلي، الأمين العام.
وشارك عدد من منتسبي الهيئة الوطنية لحقوق الإنسان من الإدارات الحقوقية في دورة "مليون خبير لأوامر الذكاء الاصطناعي"، وهي مبادرة طموحة تهدف إلى تمكين مليون فرد بمهارات الذكاء الاصطناعي وهندسة الأوامر على مدار السنوات الثلاث المقبلة انطلاقاً من دبي.
وتأتي هذه المشاركة في إطار جهود الهيئة المستمرة لبناء القدرات وتعزيز كفاءتها المؤسسية في مجالات التكنولوجيا الحديثة، لا سيما في مجال الذكاء الاصطناعي، وحرصها على مواكبة التطورات التكنولوجية في سبيل تعزيز وحماية حقوق الإنسان في دولة الإمارات العربية المتحدة.