في ظل تزايد استخدام الذكاء الاصطناعي في مختلف المجالات، “بدأ المحتالون في استغلال هذه التقنيات لتكوين مواقع إلكترونية وهمية، وتقييمات مزيفة، ومقابلات عمل غير حقيقية، فضلاً عن إنشاء مقاطع فيديو مزيفة بهدف خداع الأفراد”.

وفي تقريرها الأخير بعنوان «إشارات سيبرانية» (Cyber Signals)، كشفت شركة “مايكروسوفت” عن “حجم التهديدات التي واجهتها بين أبريل (نيسان) 2024 وأبريل 2025، وكذلك عن الدفاعات الواسعة التي نشرتها للتصدي لها”.

خلال هذه الفترة، نجحت “مايكروسوفت” في إحباط محاولات احتيال بقيمة 4 مليارات دولار، ورفضت 49 ألف طلب شراكة احتيالي، وحجبت نحو 1.6 مليون محاولة تسجيل عبر الروبوتات في الساعة الواحدة.

ويركز تقرير هذا العام على “كيفية تغيير الذكاء الاصطناعي طبيعة الاحتيال، ليس فقط من حيث التعقيد، بل من حيث سهولة الوصول إليه أيضاً، إذ يستخدم مجرموا الإنترنت أدوات الذكاء الاصطناعي لصناعة عمليات احتيال أكثر إقناعاً، بسرعة أكبر وبتكلفة أقل”.

ووفقاً لـ”مايكروسوفت”، فإن “جزءاً كبيراً من هذا النشاط ينطلق من أسواق رقمية رئيسية مثل الصين وألمانيا؛ نظراً لحجم التجارة الإلكترونية فيهما، لذلك، “تواصل الشركة تعزيز جهودها لمكافحة الأنشطة الاحتيالية من خلال توفير أدوات وتقنيات متطورة”، مثل:

Microsoft Defender for Cloud: الذي يراقب ويحمي بيئة “أزور” (Azure) من التهديدات والثغرات.

Microsoft Edge: الذي يكشف ويحظر المواقع الاحتيالية ويحارب محاولات انتحال الهوية.

Digital Fingerprinting: تقنيات تعتمد على الذكاء الاصطناعي لتحليل سلوك المستخدمين والكشف عن الأنشطة الاحتيالية.

Microsoft Defender SmartScreen: لفحص سمعة المواقع وحظر الروابط الضارة”.

وبفضل هذه الأدوات المدعومة بتقنيات الذكاء الاصطناعي، “تتمكن “مايكروسوفت” من التصدي للبنية التحتية الاحتيالية بسرعة وفعالية”. إضافة إلى ذلك، “يتعاون الفريق المتخصص في الجرائم الرقمية لدى “مايكروسوفت” مع السلطات الأمنية حول العالم، ما أدى إلى تفكيك شبكات إجرامية والقبض على العديد من المجرمين”.

الاحتيال في الوظائف والمقابلات المزيفة

أصبح المحتالون “يستغلون الذكاء الاصطناعي لإنشاء إعلانات وظائف مزيفة، صياغة سير ذاتية وهمية، وتنظيم مقابلات عمل مزيفة، ولحماية الأفراد من هذه الظاهرة، توصي “مايكروسوفت” باتباع عدد من التدابير الوقائية، مثل:

تفعيل المصادقة متعددة العوامل لحسابات أصحاب العمل.

التحقق من هوية أصحاب العمل من خلال المواقع الرسمية.

الحذر من العروض التي تتطلب دفع أموال مسبقة أو التي تُرسل من بريد إلكتروني مشبوه.

الانتباه لمؤشرات المقابلات الوهمية، مثل تزامن الصوت والصورة أو المحادثات غير المتسقة”.

كما أعلنت “مايكروسوفت” “عن “خطط لدمج الوقاية من الاحتيال ضمن عملية تطوير منتجاتها اعتباراً من يناير 2025، ستجعل مبادرة “Secure Future Initiative” تقييمات المخاطر المتعلقة بالاحتيال جزءاً من مراحل تصميم المنتجات”.

نصائح لحماية المستهلكين من الاحتيال

“تجنب العروض التي تبدو عاجلة أو “لفترة محدودة”.

التحقق من عنوان الموقع قبل النقر على الروابط.

تجنب التحويلات البنكية أو الدفع بالعملات الرقمية لأغراض غير موثوقة.

التأكد من مصداقية أصحاب العمل قبل مشاركة أي معلومات شخصية أو مالية”.

وتواصل “مايكروسوفت”، “تحسين استراتيجياتها لمكافحة الاحتيال مع تطور التهديدات الرقمية. في عصر أصبح فيه الذكاء الاصطناعي سلاحًا بيد المهاجمين والمدافعين على حد سواء، تلتزم “مايكروسوفت” بتطوير منتجات ذات حماية مدمجة ضد الاحتيال، وتزويد مستخدميها بالأدوات والمعرفة اللازمة لحماية بياناتهم وخصوصيتهم”.

المصدر: عين ليبيا

كلمات دلالية: الذكاء الاصطناعي ذكاء اصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

الوطنية لحقوق الإنسان تناقش أخلاقيات الذكاء الاصطناعي

شاركت الهيئة الوطنية لحقوق الإنسان، في جلسة نقاشية ضمن فعاليات خلوة الذكاء الاصطناعي، خلال أسبوع دبي للذكاء الاصطناعي، الذي ينظمه مركز دبي لاستخدامات الذكاء الاصطناعي، وتشرف عليه مؤسسة دبي للمستقبل.
وشارك في الجلسة، التي جاءت تحت عنوان "الذكاء الاصطناعي المرتكز على الإنسان: الأخلاقيات والابتكار والمسؤولية"، مقصود كروز، رئيس الهيئة الوطنية لحقوق الإنسان، ونخبة من الخبراء والمختصين من القطاعين الحكومي والخاص، وقيادات الصناعات المرتبطة بالذكاء الاصطناعي من أنحاء العالم، من بينهم الدكتور مارتن فيليش، من جامعة برمنغهام، والبروفيسور أسامة الخطيب، من مختبر الروبوتات في جامعة ستانفورد والحاصل على جائزة نوابغ العرب.
وتناولت الجلسة التي ترأسها السيد ويان نويتزه، من صندوق "ساندبوكس دبي"، أهمية دمج المبادئ الأخلاقية والإنسانية في تطوير واستخدام تقنيات الذكاء الاصطناعي.
وأكد مقصود كروز، ضرورة وضع حقوق الإنسان في صلب مسيرة التطور التكنولوجي، وبحيث تظل جزءاً لا يتجزأ من دورة حياة الذكاء الاصطناعي، وأن المقاربة الأخلاقية لتطبيقاته تعتبر مسألة جوهرية.
وناقش المشاركون في الجلسة أسس الذكاء الاصطناعي المرتكز على الإنسان لضمان مواءمة التكنولوجيا مع قيم العدالة والمساواة والشمولية، وتطبيق أخلاقيات الذكاء الاصطناعي عملياً عبر معالجة التحديات المتعلقة بالتحيّز، والمساءلة، والشفافية، وكذلك تصميم مسؤول للتفاعل بين الإنسان والآلة بما يضمن دمج الذكاء الاصطناعي بشكل آمن وموثوق في حياة الإنسان اليومية.
حضر الجلسة النقاشية عن الهيئة الوطنية لحقوق الإنسان كلٌّ من الدكتور أحمد المنصوري، عضو مجلس الأمناء، والدكتور سعيد الغفلي، الأمين العام.
وشارك عدد من منتسبي الهيئة الوطنية لحقوق الإنسان من الإدارات الحقوقية في دورة "مليون خبير لأوامر الذكاء الاصطناعي"، وهي مبادرة طموحة تهدف إلى تمكين مليون فرد بمهارات الذكاء الاصطناعي وهندسة الأوامر على مدار السنوات الثلاث المقبلة انطلاقاً من دبي. 
وتأتي هذه المشاركة في إطار جهود الهيئة المستمرة لبناء القدرات وتعزيز كفاءتها المؤسسية في مجالات التكنولوجيا الحديثة، لا سيما في مجال الذكاء الاصطناعي، وحرصها على مواكبة التطورات التكنولوجية في سبيل تعزيز وحماية حقوق الإنسان في دولة الإمارات العربية المتحدة.

أخبار ذات صلة "هسبي" تطلق أول روبوت دردشة مختص بالتمويل العقاري الذكاء الاصطناعي ركيزة لتحول «كهرباء ومياه دبي» نحو خدمات ذكية شاملة المصدر: وام

مقالات مشابهة

  • جهاز ذكي يساعد المكفوفين على التنقل باستخدام الذكاء الاصطناعي
  • خبراء يناقشون سؤال: الكتابة في عصر الذكاء الاصطناعي.. إلى أين؟
  • كيف تعمل من المنزل باستخدام الذكاء الاصطناعي؟
  • يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟
  • بتشويه «فوضى الذكاء الاصطناعي» للواقع يمضي العالم إلى كارثة
  • خبراء: الذكاء الاصطناعي ليس بديلاً للبشر
  • هل يمكن أن يطوّر الذكاءُ الاصطناعي خوارزمياته بمعزل عن البشر؟
  • إطلاق أول برنامج دكتوراه في الذكاء الاصطناعي في دبي
  • «الذكاء الاصطناعي» يقتحم عالم الملاعب والتحكيم
  • الوطنية لحقوق الإنسان تناقش أخلاقيات الذكاء الاصطناعي