مليارات المُستخدمين في خطر.. كيف تحمي نفسك من اختراق Gmail؟
تاريخ النشر: 13th, October 2024 GMT
تتزايد المخاوف من استخدام تقنيات الذكاء الاصطناعي الحديثة؛ لاختراق الحسابات الشخصية بالبريد الإلكتروني Gmail، تزامناً مع وجود تقارير تفيد بإمكانية شن هجمات تصيد احتيالي متطورة.
ووفق ما أعلنته شركة غوغل الأمريكية، فقد وصل عدد مُستخدمي “Gmail” إلى 2.5 مليار شخص حول العالم.
وبحسب موقع “Tomsguide”، المُتخصص في التكنولوجيا، فإن المُتسللين يستهدفون أصحاب حسابات الجي ميل باستخدام “مكالمة احتيالية فائقة الواقعية عبر الذكاء الاصطناعي”، يمكنها خداع حتى أكثر المستخدمين خبرة.
وأوضح سام ميتروفيتش، مستشار حلول مايكروسوفت، تفاصيل محاولة تعرضه للاحتيال عبر الطريقة السابقة، لافتاً إلى أنه تلقى إشعاراً يُطالبه بالموافقة على محاولة استرداد حسابه بـ “الجي ميل”، وهي تقنية تصيد شائعة، تهدف إلى إرسال المستخدم إلى بوابة تسجيل دخول مزيفة لجمع بيانات اعتماده بهدوء.
ولفت مستشار مايكروسوفت، إلى أنه لم يستجب للطلب، فتلقى إشعاراً جديداً بعد 40 دقيقة يشير إلى فقدانه مكالمة مهمة من غوغل.
وذكر ميتروفيتش، بحسب ما نشره الموقع التكنولوجي، أنه تلقى إشعاراً آخر بطلب استعادة الحساب، ثم تلقى مكالمة، وعند الرد عليها، أدعى أحد الأشخاص عمله بقسم دعم غوغل، ليكتشف في النهاية بعد رده على المكالمة، أنها محاولة احتيال شديدة الدقة.
وحول هذه العملية، قال ميتروفيتش، إن عمليات الاحتيال أصبحت أكثر تعقيدًا وإقناعًا، ويتم تنفيذها على نطاق أوسع من أي وقت مضى، ومن المرجح أن ينخدع بها كثير من الناس.
على المستوى الفردي، يشدد خبير مايكروسوفت، إلى أهمية اليقظة التامة باعتبارها أداة أولى وأساسية في المواجهة، فضلاً عن إجراء الفحوصات الأساسية، وطلب المساعدة من شخص موثوق به.
كما دعا إلى ضرورة الاستعانة بـ “Global Signal Exchange”، وهي مُبادرة أطلقتها غوغل بالتعاون مع التحالف العالمي لمكافحة الاحتيال (GASA)، والدخول على منصتها المُصممة لتبادل المعلومات الاستخباراتية لتوليد رؤى في الوقت الفعلي حول عمليات الاحتيال والنصب وغيرها من أشكال الجرائم الإلكترونية، والتي تهدف لتسليط الضوء على مرتكبي الجرائم الإلكترونية وأساليبهم.
وبحسب الموقع تتعامل المُبادرة الجديدة مع أكثر من 40 مليون إشارة “لتحسين تبادل إشارات الإساءة، وتمكين التعرف بشكل أسرع وتعطيل الأنشطة الاحتيالية، عبر مختلف القطاعات والمنصات والخدمات”.
ويُمكن الاستفادة من مُحرك بحث المنصة الذي يعمل على “Google Cloud”، مما يتيح “للمشاركين مشاركة واستهلاك الإشارات التي يجمعها الآخرون مع الاستفادة من قدرات الذكاء الاصطناعي في منصة Google Cloud للعثور على الأنماط ومطابقة الإشارات بذكاء.
بدوره، يُشدد موقع “Tomsguide”، على عدة طُرق لتجنب “التصيد الاحتيالي”، يأتي على رأسها، عدم التسرع عند التحقق من صندوق الوارد في الجي ميل، لتجنب الوقوع في فخ المتسللين.
ويتعلق الأمر الثاني، باليقظة التامة عند التعامل مع العلامات التجارية في رسائل البريد، فغالبًا ما يتنكر المتسللون في هيئة علامات تجارية شهيرة في محاولات التصيد الاحتيالي من خلال تزوير عنوان البريد الإلكتروني للشركة.
أما الأمر الثالث، يتطلب مراقبة ما وصفه الموقع بـ “العلامات الحمراء الواضحة”، في إشارة إلى الكلمات المكتوبة بشكل خاطئ أو القواعد النحوية الرديئة، والتحقق مرة أخرى من عنوان البريد الإلكتروني، أو رقم الهاتف الخاص بالمرسل، للتأكد من صحته.
وبخصوص الأمر الرابع، فمن المهم الحفاظ على جهاز الكمبيوتر الشخصي آمنًا من البرامج الضارة والفيروسات الأخرى التي قد تأتي من فتح بريد إلكتروني تصيدي، مع تثبيت أفضل برنامج لمكافحة فيروسات على جهاز الكمبيوتر الشخصي، وأحد أفضل تطبيقات مكافحة الفيروسات لنظام Android على الهاتف الذكي، الذي يعمل بنظام أندرويد.
المصدر: جريدة الحقيقة
إقرأ أيضاً:
"أرجوك توقف".. رجل يتوسل إلى الذكاء الاصطناعي بعد مقاطع مزعجة
نشر أحد المؤثرين مقطع فيديو يتوسل فيه للذكاء الاصطناعي ومستخدميه، التوقف عن تشكيل مقاطع لحيوانات تتحول من أو إلى طعام.
وقال المؤثر الذي يستخدم اسم @garron_music، لمتابعيه البالغ عددهم 1.3 مليون، في مقطع بعنوان أكره الذكاء الاصطناعي"، إن المقاطع الغريبة التي تتوالى بالذكاء الاصطناعي، التي تظهر الحيوانات تتشكل على هيئة طعام، أو بالعكس، تثير التوتر والضيق، وفق "ميرور".
وتوسل الرجل قائلاً: "أرجوك توقف"، فيما أظهرت أحد المقاطع، بيضتان تطهيان في مقلاة عندما تحولت إحداهما فجأة إلى طائر برتقالي وأبيض، وبينما يحدث ذلك، يمكن سماع الرجل وهو يقول: "لا أريد أن أرى بيضة تتحول إلى طائر، ثم تتحول قطعة كرواسون بشكل غامض إلى ثعلب فيقول: "لا أحب مقاطع الفيديو الخاصة بالذكاء الاصطناعي هذه، فهي تخيفني وبعضها يلتصق بي".
بعد ذلك، يخرج من صينية البطاطس المهروسة ثلاثة دببة قطبية، فيشمئز المؤثر، ويقول: "لا أجد هذا جذابًا"، ويضيف: "نرى آيس كريم الذكاء الاصطناعي يتحول إلى دببة غريبة الشكل ولا أعرف لماذا نحتاج إلى هذا. لا أستطيع أن أحب هذه المقاطع".
حماية الأطفال
ويأتي هذا بعد أن دعت مؤسسة خيرية للسلامة عبر الإنترنت إلى حظر تطبيق "التعري" المدعوم بالذكاء الاصطناعي، والذي يمكنه إنشاء صور كاشفة من غير موافقة الأشخاص، بما في ذلك الأطفال.
ودعت Internet Matters الحكومات إلى تعزيز قانون السلامة عبر الإنترنت لحظر الأدوات التي يمكنها إنشاء صور عارية مزيفة بعد دراسة أجرتها المجموعة قدرت أن ما يصل إلى نصف مليون طفل واجهوا مثل هذه الصور عبر الإنترنت.
وقالت إن بحثها وجد خوفًا متزايدًا بين الشباب بشأن هذه القضية، حيث قال 55 % من المراهقين إنه سيكون من الأسوأ إنشاء صورة عارية مزيفة لهم ومشاركتها من صورة حقيقية.
وقالت Internet Matters إن تعزيز قوانين السلامة عبر الإنترنت الجديدة والتشريعات الجديدة لحظر أدوات التعري ضروري لأن التشريع الحالي لا يواكب، بحجة أن نماذج الذكاء الاصطناعي المستخدمة لإنشاء صور جنسية للأطفال ليست غير قانونية حاليًا في المملكة المتحدة، على الرغم من أن حيازة مثل هذه الصورة تعد جريمة جنائية.
وفي وقت سابق من هذا الشهر، حذرت مؤسسة مراقبة السلامة عبر الإنترنت (IWF) من أن الصور الجنسية للأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي أصبحت محتوى مسيئاً الآن، موجودًا بشكل متزايد على شبكة الويب المفتوحة العامة، بدلاً من إخفائه في منتديات الويب المظلمة.