أمور عليك تعديلها والانتباه لها في إعدادات واتساب
تاريخ النشر: 5th, September 2023 GMT
لكن لحسن الحظ، هناك إعدادات في تطبيق "واتساب" تساعد في حماية المستخدمين من شرور قراصنة الإنترنت، غير أنها لا تحظى بالمعرفة الكافية لدى البعض، وفق صحيفة "الصن" البريطانية.
ويقول الخبير في تقنية المعلومات، توم ديفيدسون، إن أهم عنصر في إعدادات التطبيق هو "خطوتان للتحقق" (Two step verification).
ويمكن الوصول إلى هذا الإعداد عند النقر على قائمة الإعدادات، ثم خيار الحساب، ثم "خطوتان للتحقق"، وفي حال لم يكن الخيار مفعّلا يجب تفعيله.
وذكر الخبير الأمني أن هذا هو خط الدفاع الأول ضد محاولة أي شخص اختراق الحساب عن طريق ربط رقم الهاتف بجهاز آخر.
وعند تفعيل هذا الخيار، سيطلب من المستخدمين إدخال رقم تعريفي، قبل ربط رقم الهاتف مع "واتساب".
وفي حال كان المستخدم يغير هاتفه بشكل دوري فعليه أن يأخذ مزيدا من الحذر. وعلى سبيل المثال، في حال أدخل المستخدم تطبيق "واتساب" على هاتف جديد، فإن الخصوصية ستكون فيه طبقا للحالة الأصلية، بما يمسح المعلومات المخزنة مسبقا في التطبيق.
وعليه، ينبغي على المستخدم أن يتفحص ويحدّث إعدادات الخصوصية دوريا. ولمزيد من الحماية، على المستخدم تفحص جهات الاتصال لديه كل عدة أشهر، ومحو تلك التي لا يتواصل معها أو لا يعرفها.
وتحديث التطبيقات بشكل عام، ومنها "واتساب" مهم لإضافات التعديلات الأمنية التي تجريها الشركات المشرفة لمعالجة الثغرات وتضعها في التحديثات
المصدر: مأرب برس
إقرأ أيضاً:
تقرير برلماني: جمع البيانات الشخصية قد يؤدي إلى انتهاك حقوق الخصوصية
أبوظبي: سلام ابوشهاب
أكد تقرير برلماني حديث اعتمده المجلس الوطني الاتحادي، وحصلت «الخليج» على نسخة منه، أن من التحديات التي تترتب على الذكاء الاصطناعي ما يتعلق بجمع البيانات الشخصية وتحليلها، بما في ذلك المعلومات الديموغرافية والبيانات الشخصية الحساسة والبيومترية، وسجلات التصفح، والنشاط عبر الإنترنت والتي تزداد خطورتها في ظل غياب الوسائل الفعّالة لحماية الخصوصية، ويشير ذلك إلى استخدام الذكاء الاصطناعي في جمع وتحليل البيانات الشخصية من دون موافقة الأفراد المعنيين أو من دون علمهم، ويمكن أن يؤدي ذلك إلى انتهاك حقوق الخصوصية والأمان والحرية الشخصية للأفراد والتمييز والتحيز ضد بعض الفئات أو المجموعات عند اتخاذ القرارات باستخدام أنظمة الذكاء الاصطناعي، بناء على البيانات والمعلومات التي زودت بها أنظمة الذكاء الاصطناعي كالتمييز ضد أصحاب الهمم عند تقدمهم للوظائف واستبعادهم، نتيجة الاعتماد على بياناتهم الجسدية والنفسية (البيانات الشخصية الحساسة)، ويمكن أن يتم ذلك عن طريق استخدام الذكاء الاصطناعي في جمع البيانات الشخصية من الشركات والشبكات الاجتماعية أو التطبيقات المختلفة؛ ما يشكل خطراً على الحريات الفردية ويتعارض مع الحق في الخصوصية.
أشار التقرير، الذي أعدته لجنة شؤون التقنية والطاقة والثروة المعدنية والمرافق بشأن موضوع «سياسة الحكومة بشأن الذكاء الاصطناعي»، إلى أن اللجنة ترى أن هناك عدداً من التشريعات التي تنظم المسائل المرتبطة بالبيانات الشخصية وتوفر الحماية لها، وتشمل هذه التشريعات: قانون حماية البيانات الشخصية، وقانون مركز دبي المالي العالمي لحماية البيانات، وقانون استخدام تقنية المعلومات والاتصالات في المجالات الصحية، وقانون العقوبات، وقانون حماية المستهلك، وقانون المعاملات المدنية على الرغم من أنها لم تتضمن مفهوم الذكاء الاصطناعي بشكل مباشر.
وأوضح التقرير أنه لضمان الحماية الكاملة للبيانات الشخصية، أصدرت حكومة الإمارات المرسوم بقانون اتحادي رقم (44) لسنة 2021 بشأن إنشاء مكتب الإمارات للبيانات، ويختص المكتب بمجموعة من المهام التي تشمل: اقتراح وإعداد السياسات والاستراتيجيات والتشريعات المتعلقة بشؤون حماية البيانات، واقتراح واعتماد الأسس والمعايير الخاصة بالرقابة على تطبيق التشريعات الاتحادية المنظمة لحماية البيانات، وتنفيذ عمليات الرقابة على تطبيق التشريعات الاتحادية المنظمة لحماية البيانات، وإجراء التحقيقات اللازمة للتأكد من مدى الامتثال لها، ونشر الوعي حول أحكام ومتطلبات القانون من خلال تنظيم المؤتمرات، إلا أن هذا المكتب على الرغم من أهمية الدور المناط به لم يتم إنشاؤه.
وأكدت اللجنة في تقريرها أهمية قيام الحكومة من خلال مجلس الإمارات للذكاء الاصطناعي بإجراء المراجعة الدورية للسياسات الوطنية المتعلقة بمسائل مثل إدارة البيانات، والأخلاقيات، والأمن الإلكتروني، والعمل على مراجعة أفضل الممارسات وأحدثها في مجال التشريع والمخاطر العالمية الناجمة عن الذكاء الاصطناعي ومنها انتهاك خصوصية البيانات الشخصية، ومواءمتها بما يتفق مع البيئة التشريعية والاستراتيجية في الإمارات.
وأشار التقرير إلى أهمية مراجعة التشريعات السارية ذات العلاقة بالجوانب التقنية وحماية البيانات لتستوعب مفهوم الذكاء الاصطناعي والتطورات التي يشهدها، والحاجة الى استحداث إطار تشريعي خاص في مجال الذكاء الاصطناعي يتيح اطلاع الحكومة على إجراءات السلامة ومشاركة نتائج الاختبارات والمعلومات المهمة الأخرى مع الحكومة من قبل مطوري الذكاء الاصطناعي وضمان التنفيذ السليم للأعمال التي تقوم بها تقنية الذكاء الاصطناعي والحد من مخاطرها، وتحديد المسؤوليات وحماية البيانات الشخصية مع عدم مراعاة عدم المبالغة في التشريعات، بحيث لا تعيق التطور في مجال الذكاء الاصطناعي، ولا تؤثر في قدرة الدولة على استقطاب الشركات العالمية العاملة في مجال الذكاء الاصطناعي والاستثمار فيه.
وأكد التقرير الحاجة إلى وضع تشريع ينظم حوكمة وإدارة البيانات الحكومية من حيث تصنيفها وتخزينها ومشاركتها والاستفادة المثلى من البيانات المتوفرة لدى مزودي البيانات بما يحقق التوازن بين عملية نشر وتبادل البيانات والمعلومات والحفاظ على سريتها وخصوصيتها، نظراً لكون الذكاء الاصطناعي يعتمد وبشكل أساسي على مشاركة وتوفير البيانات ومنها البيانات الحكومية التي تشكل جانباً أساسياً ومهماً من هذه البيانات.
وجاء في التقرير أن رد الحكومة، كما أشار إليه مكتب وزير الذكاء الاصطناعي من خلال المعلومات الواردة للجنة، أوضح أنه لا تزال دولة الإمارات العربية المتحدة في مرحلة النمو للاستفادة من الذكاء الاصطناعي وتطوير البيئة التشريعية الملائمة، وكما بينت الحكومة في ردها بأنها أصدرت دليلاً يقدم شرحاً وافياً لمفهوم الذكاء الاصطناعي، ومن جانب آخر أوضحت أن هناك عدداً من التشريعات الحالية والسارية المتعلقة بالذكاء الاصطناعي كالمرسوم بقانون اتحادي رقم 45 لسنة 2021 بشأن حماية البيانات الشخصية والمرسوم بقانون اتحادي رقم 34 لسنة 2021 في شان مكافحة الشائعات والجرائم الإلكترونية، ودليل أخلاقيات الذكاء الاصطناعي والإرشادات والمبادئ التوجيهية. وأشار التقرير إلى أن اللجنة ترى أهمية الاستفادة من دمج الذكاء الاصطناعي في الاستراتيجيات الخاصة بالأمن السيبراني مع مراعاة خصوصية البيانات والتركيز على زيادة الوعي والثقافة المجتمعية وتأهيل كفاءات وطنية للتعامل مع التحديات والمخاطر الأمنية المتعلقة بالذكاء الاصطناعي مثل التزييف العميق واستحداث أدوات واستراتيجيات للتصدي لهذه المخاطر.