أصدرت مايكروسوفت تقرير الدفاع الرقمي لعام 2024، الذي يكشف عن آخر التطورات في مشهد الأمن السيبراني العالمي، مسلطًا الضوء على ثلاث تغييرات رئيسية في خصائص الهجمات السيبرانية في عدد من الدول، بما في ذلك تلك المتعلقة بهجمات الفدية والاحتيال والهندسة الاجتماعية.

 ويؤكد التقرير المنشور عبر الصفحة الرسمية للشركة، على ضرورة تبني ممارسات سيبرانية متقدمة للتصدي لهذه التهديدات في عصر الذكاء الاصطناعي.

مكافأة تصل لمليون دولار لاختراق أنظمة أبل .. ما القصة احذر .. إعلانات خبيثة تستغل منصة "ميتا" لنشر برمجية سرقة البيانات SYS01 .. إليك طرق الحماية تغيرات في ملامح الهجمات السيبرانية

أبرز التقرير تحولاً ملحوظاً في أساليب الهجمات السيبرانية، مشيرًا إلى ثلاثة أنواع رئيسية من التهديدات:

هجمات الفدية (Ransomware):

وفقًا للتقرير، تعد هجمات الفدية تهديدًا خطيرًا وشائعًا، حيث يُعتمد فيها بشكل متزايد على الأجهزة غير المدارة للوصول إلى الشبكات. 

شهدت الهجمات ارتفاعًا بنسبة 275% مقارنة بالعام السابق، وغالبًا ما يُستخدم فيها أساليب الهندسة الاجتماعية كالتصيد الاحتيالي عبر البريد الإلكتروني والرسائل النصية. ويوصي التقرير برصد الأجهزة المتصلة بالشبكة للتصدي لهذه الهجمات.

التصيد باستخدام رموز QR:

أصبحت الهجمات الاحتيالية الرقمية أكثر تعقيدًا وانتشارًا عالميًا، حيث يستغل المهاجمون رموز QR للتصيد، مما يتيح لهم الوصول إلى بيانات المستخدمين الحساسة. ويشدد التقرير على ضرورة تجنب استخدام رموز QR غير موثوقة وتفعيل برامج الحماية الإلكترونية.

الهجمات على الهوية والهندسة الاجتماعية:

تظل الهجمات المعتمدة على كلمات المرور الأكثر شيوعًا، إذ تواجه مايكروسوفت 600 مليون هجمة يوميًا. 

ومن أبرز الحلول الموصى بها للتصدي لهذه الهجمات اعتماد طرق تسجيل دخول خالية من كلمات المرور، مثل مفاتيح المرور المعززة ببيانات بيومترية.

مايكروسوفت دور الذكاء الاصطناعي في الأمن السيبراني

يبرز التقرير أن الذكاء الاصطناعي يسهم في تعزيز قدرات الدفاع السيبراني من خلال أدوات قوية لرصد ومعالجة التهديدات. 

تستخدم النماذج اللغوية الكبيرة (LLM) لتصنيف الطلبات وتقييم المخاطر، مما يوفر وقتًا كبيرًا للفرق المختصة.

مبادرة المستقبل الآمن من مايكروسوفت

أطلقت مايكروسوفت في نوفمبر 2023 مبادرة "المستقبل الآمن" لتعزيز الأمن السيبراني، والتي تتضمن تعيين 13 نائب لرئيس الأمن، وتدريب 34,000 مهندس على الأمن السيبراني، وإنشاء أكاديمية للتدريب.

 وتشمل المبادرة مبادئ أساسية مثل تصميم المنتجات الآمنة وتفعيل ميزات الأمان افتراضيًا لضمان بيئة رقمية مقاومة للهجمات.

يشكل هذا التقرير مرجعًا هامًا لجميع الأفراد والمؤسسات الراغبين في تعزيز قدراتهم الدفاعية السيبرانية، إذ يسلط الضوء على ضرورة التعاون في مواجهة التهديدات المتطورة في عصر الذكاء الاصطناعي.

المصدر: صدى البلد

كلمات دلالية: الأمن السيبراني مايكروسوفت هجمات الفدية الهندسة الاجتماعية الذكاء الاصطناعي الهجمات السیبرانیة الذکاء الاصطناعی الأمن السیبرانی

إقرأ أيضاً:

لطافتك تكلف الذكاء الاصطناعي الملايين!

في زمن تتسارع فيه علاقتنا بالتكنولوجيا، يبدو أن كلمات بسيطة مثل "من فضلك" و"شكرًا" قد تحمل ثمنًا غير متوقع. فقد أثار أحد مستخدمي منصة X  سؤالًا طريفًا لكنه عميق الدلالة، قال فيه:

كم أنفقت OpenAI على الكهرباء لأن الناس يقولون "من فضلك" و"شكرًا" لنماذج الذكاء الاصطناعي؟

وجاء الرد سريعًا من سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مازحًا وبكل ثقة: "تلك الملايين كانت مُنفقة في مكانها الصحيح.. من يدري ما ستجلبه اللباقة!".

 

 

لكن خلف هذا التعليق، انطلقت تساؤلات جدّية: هل نُهدر الطاقة والموارد حين نخاطب الذكاء الاصطناعي بأدب؟ أم أن للّباقة مع الآلات قيمة تتجاوز الكلفة؟.



المجاملة ليست مجرد تكلفة… بل أسلوب تعامل



تشير تقديرات الخبراء إلى أن كل تفاعل مع روبوت دردشة يكلف الشركة مالًا وطاقة، وكل كلمة إضافية تُرسل كجزء من الطلب تستهلك المزيد من الموارد.

قال البروفيسور نيل جونسون من جامعة جورج واشنطن:"كل طلب موجه إلى روبوت مثل ChatGPT يتطلب حركة إلكترونات، وهذه الحركة تحتاج طاقة. والسؤال هو: من يدفع هذه الفاتورة؟".
ويشبّه جونسون الكلمات الإضافية بورق التغليف المستخدم لتغليف عطر، إذ تحتاج النماذج اللغوية إلى "اختراق" هذا التغليف للوصول إلى مضمون الطلب، مما يشكل عبئًا إضافيًا.

 

اقرأ أيضاً.. أول طالب ذكاء اصطناعي في مقاعد الدراسة الجامعية


لكن رغم هذا، يرى كثيرون أن اللطافة مع الذكاء الاصطناعي ليست فقط عادة بشرية أو مظهرًا من مظاهر "إضفاء الطابع الإنساني" على الآلة، بل إن لها تأثيرًا مباشرًا على جودة التفاعل.

أخبار ذات صلة الذكاء الاصطناعي يربك نقابة المحامين في كاليفورنيا حاسوب حراري جديد يفتح آفاقًا ثورية لتسريع الذكاء الاصطناعي

وأوضح كيرتيس بيفرز، مدير في فريق تصميم Microsoft Copilot، أن استخدام اللغة المهذبة يضبط نبرة الرد من قبل النموذج، فعندما يلتقط الذكاء الاصطناعي إشارات اللباقة، يكون أكثر ميلًا للرد بنفس الأسلوب.



هل المجاملة ضرورة ثقافية؟

حتى وإن لم تكن الآلة "تشعر"، فإن طريقة تعامل البشر معها قد تُشكّل انعكاسًا لطريقة تعاملهم مع بعضهم البعض لاحقًا.

 

وأشارت شيري توركل، أستاذة في معهد MIT، أن الذكاء الاصطناعي ليس "واعيًا" فعلًا، لكنه لا يزال "حيًا" ليبرّر إظهار المجاملة له.


وتشير إلى تجربة "تماغوتشي" في التسعينيات، حيث أصيب الأطفال بالحزن الحقيقي عند "وفاة" حيواناتهم الرقمية، مما يُظهر كيف يمكن للعلاقات بين البشر والكائنات غير الحية أن تؤثر نفسيًا.

 



اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر


اللباقة بدافع الخوف

أجريت دراسة في ديسمبر 2024 من قبل شركة Future أظهرت أن نسبة كبيرة من المستخدمين يتعاملون بلباقة مع الذكاء الاصطناعي:

67% من المستخدمين في الولايات المتحدة يستخدمون عبارات مجاملة،و71% من المستخدمين في المملكة المتحدة يفعلون الشيء ذاته.

لكن المفارقة أن 12% من المستخدمين يتحلون باللباقة بدافع الخوف من "العواقب المستقبلية" لسوء التعامل مع التكنولوجيا.



المجاملة... تكلفة مستحقة؟

بين التكاليف الكهربائية والبيئية، وبين الأبعاد الثقافية والإنسانية، يبدو أن المجاملة في التفاعل مع الذكاء الاصطناعي ليست مجرد تصرف عابر. بل إنها تحمل وزنًا أخلاقيًا وسلوكيًا، وقد تشكّل مستقبل العلاقة بين الإنسان والآلة.


إسلام العبادي(أبوظبي)

 

مقالات مشابهة

  • الدول الأكثر بعدد براءات اختراع الذكاء الاصطناعي (إنفوغراف)
  • كيف خسرت آبل عرش الذكاء الاصطناعي لصالح ميتا؟
  • عسكرة الذكاء الاصطناعي .. كيف تتحول التكنولوجيا إلى أداة قتل عمياء؟
  • مايكروسوفت تطلق ميزة Recall والبحث بالذكاء الاصطناعي لأجهزة Copilot Plus الجديدة
  • الرئيس الصيني: الذكاء الاصطناعي سيغير أسلوب الحياة البشرية بشكل جذري
  • الذكاء الاصطناعي قد يجعل من الجميع مدراء.. مايكروسوفت توضح
  • جامعة أبوظبي تنظم «يوم الأمن السيبراني 5.0» في العين
  • جامعة أبوظبي تنظم فعالية حول تعزيز الوعي بالأمن السيبراني
  • ‎13مليار ريال قيمة سوق الأمن السيبراني للعام 2024
  • لطافتك تكلف الذكاء الاصطناعي الملايين!