احذر.. روبوتات الدردشة قد تكون سبباً في اختراق بياناتك
تاريخ النشر: 5th, April 2024 GMT
المناطق_متابعات
شهدت تطبيقات وخدمات الذكاء الاصطناعي نموًا هائلًا خلال العام الماضي، ويبدو أن هذا النمو سيستمر لمدة طويلة، إذ يُدمج الذكاء الاصطناعي الآن في كل التطبيقات والأدوات التي نستخدمها يوميًا، مثل: البريد الإلكتروني، والتطبيقات المكتبية، وأدوات تحرير الصور، وأنظمة التشغيل مثل: ويندوز، وأندرويد، بالإضافة إلى بيئات التطوير المتكاملة (IDEs) مثل: Visual Studio، وغيرها الكثير.
وينشئ المطورون الآن آلاف التطبيقات الجديدة التي تستفيد من نماذج الذكاء الاصطناعي. ومع ذلك، لم يتمكن أحد في هذا السباق حتى الآن من حل مشكلات الأمان التي يواجهها المستخدمون، ومنها: تسريب البيانات السرية، واختراق الحسابات والأجهزة من خلال أدوات الذكاء الاصطناعي، ناهيك عن وضع ضمانات مناسبة ضد هجمات (الذكاء الاصطناعي الشرير) المستقبلية. لذلك سيتعين عليك اكتساب بعض المهارات لتأمين بياناتك عند استخدام هذه الأدوات، حتى تُحل هذه المشكلات.
أخبار قد تهمك “روشن” توقع اتفاقية تعاون مع “جوجل كلاود” للاستفادة من الذكاء الاصطناعي 4 أبريل 2024 - 3:01 مساءً الذكاء الاصطناعي يبدأ التعرف على المشاعر الإنسانية 24 مارس 2024 - 12:51 مساءًتُشكل خصوصية البيانات مصدر قلق متزايد مع زيادة شعبية روبوتات الدردشة التي تستند في عملها إلى الذكاء الاصطناعي، خاصة مع استخدام البيانات للتدريب، وحدوث تسريبات غير مقصودة.
إذ تنص سياسة الخصوصية التي تتبعها (OpenAI)، الشركة المطورة لروبوت ChatGPT، إلى أن جميع المحادثات مع روبوت (ChatGPT) تُحفظ وتستخدم لأغراض متعددة، منها: تدريب إصدارات نماذج (GPT) الجديدة لتحسين المنتج، ومنع انتهاكات شروط الخدمة.
كما تمتلك معظم النماذج اللغوية الشائعة الأخرى – بما يشمل: Gemini من جوجل، وClaude من Anthropic وCopilot من مايكروسوفت – سياسات مماثلة، إذ يمكنها جميعها حفظ المحادثات بالكامل.
ومع ذلك، فقد حدثت بالفعل تسريبات غير مقصودة لبيانات المستخدمين بسبب أخطاء برمجية، حيث ظهرت العناوين الخاصة بسجل محادثات المستخدمين مع ChatGPT بشكلٍ عشوائي لدى مُستخدمين آخرين.
ويُمكن أن يشكل استخدام البيانات للتدريب أيضًا خطرًا على الخصوصية، إذ قد يُقدم مساعد الذكاء الاصطناعي معلوماتك إلى شخص ما دون علمك إذا كان يعتقد أنها ذات صلة بالرد. بالإضافة إلى ذلك فقد استغل المهاجمون إصدارت (GPTs) – المتاحة في متجر GPT، التي طُورت لأداء مهام محددة – لشن هجمات متعددة لسرقة المحادثات، مما يُشير إلى أن هذا الخطر لن يزول قريبًا.
لذلك؛ يجب عليك دائمًا تذكر أن محادثاتك مع Gemini و ChatGPT، وأي روبوتات دردشة أخرى قد تكون سببًا في اختراقك، ومن المهم أن تتخذ الخطوات اللازمة لحماية بياناتك عند استخدامها.
ماذا تفعل لحماية بياناتك عند استخدام أدوات الذكاء الاصطناعي؟1- لا تشارك أي معلومات شخصية مع روبوتات الدردشة:
لا يُعدّ Gemini وChatGPT وأي روبوتات دردشة أخرى قناة آمنة لمشاركة المعلومات الحساسة أو التعامل معها، ويتضمن ذلك: البيانات المالية وكلمات المرور والمعلومات الشخصية وبيانات العمل السرية، لذلك لا تشارك هذه المعلومات معها بأي طريقة، ويمكنك استبدالها بعلامات نجمية في المطالبات.
2- تجنب مشاركة أي وثائق تحتوي على معلومات حساسة أو سرية:
تتيح لك العديد من الأدوات والإضافات استخدام روبوتات الدردشة لمعالجة المستندات بسرعة، مما قد يكون مغريًا لتحميل مستند عمل لمعالجته أو الحصول على ملخصه بسرعة، ومع ذلك، فمن خلال تحميل مستندات متعددة الصفحات لمعالجتها دون تفكير فإنك تخاطر بتسريب البيانات السرية أو الملكية الفكرية أو الأسرار التجارية، مثل: تاريخ إصدار منتج جديد أو كشوف مرتبات الفريق، والأسوأ من ذلك، عند معالجة المستندات الواردة من مصادر خارجية، قد تُستهدف بهجوم يعتمد على المستند الذي تفحصه.
3- استخدم إعدادات الخصوصية:
اقرأ سياسة الخصوصية الخاصة بالنموذج اللغوي الذي تستخدمه بعناية، ثم حدد الإعدادات المتاحة للتحكم في كيفية جمع بياناتك واستخدامها. على سبيل المثال، تسمح لك منتجات OpenAI بتعطيل حفظ المحادثات، وفي هذه الحالة، ستُحدف البيانات بعد 30 يومًا ولن تُستخدم للتدريب.
احرص على اتباع النصائح السابقة عند استخدام أي روبوت دردشة يستند في عمله إلى الذكاء الاصطناعي، حتى لو كان مشهورًا، مثل: ChatGPT أو Gemini، ومع ذلك، حتى هذا قد لا يكون كافيًا لضمان الخصوصية، إذ يؤدي استخدام الإضافات مع روبوتات الدردشة إلى ظهور أنواع جديدة من التهديدات الأمنية، ومنها:
قد تُحزن سجلات المحادثات في خوادم تابعة لطرف ثالث يدعم الإضافات التي تستخدمها، وليس فقط في خوادم جوجل أو OpenAI.
تستمد معظم الإضافات المعلومات من مصادر خارجية، مثل: عمليات البحث عبر الويب أو البريد الوارد في جيميل أو الملاحظات الشخصية من خدمات، مثل: Notion أو Jupyter أو Evernote. قد ينتهي الأمر بوصول أي من بياناتك من هذه الخدمات إلى الخوادم التي تعمل عليها الإضافة أو النموذج اللغوي نفسه.
قد تُستخدم إضافات روبوتات الدردشة لشن هجمات على المستخدمين، مثل: إنشاء مستودعات GitHub جديدة نيابة عنهم دون علمهم.
إذا كنت بحاجة إلى بعض المزايا التي توفرها الإضافات، فحاول اتخاذ أقصى الاحتياطات المتاحة قبل استخدامها، ومنها:
اختر الإضافات التي كانت موجودة منذ عدة أشهر على الأقل، والتي تُحدث بانتظام.
فكر فقط في الإضافات التي لديها عدد كبير من التنزيلات، واقرأ المراجعات بعناية للبحث عن أي مشكلات.
إذا كانت الإضافة لديها سياسة خصوصية، اقرأها بعناية قبل البدء باستخدامها.
اختر الأدوات المفتوحة المصدر.
إذا كنت تمتلك مهارات برمجية، فاقرأ التعليمات البرمجية للتأكد من أن الإضافات التي تستخدمها ترسل البيانات فقط إلى الخوادم المعلنة، وإذا لم تمتلك مهارات برمجية، فاطلب من صديق مبرمج مراجعة التعليمات البرمجية نيابة عنك، أو استخدم أداة تحليل إضافات موثوقة للتحقق من سلامة البيانات.
المصدر: صحيفة المناطق السعودية
كلمات دلالية: التكنولوجيا الحديثة الذكاء الاصطناعي روبوتات الدردشة الذکاء الاصطناعی روبوتات الدردشة الإضافات التی عند استخدام ومع ذلک
إقرأ أيضاً:
بيل غيتس يستثني 3 مهن من هيمنة الذكاء الاصطناعي
أبريل 4, 2025آخر تحديث: أبريل 4, 2025
المستقلة/-بينما تحدث تحولات سريعة في كافة القطاعات بسبب اقتحامها من قبل الذكاء الاصطناعي، تثور مخاوف بشأن فقدان الوظائف.
وبينما من المتوقع أن يقوم الذكاء الاصطناعي بالكثير من الأدوار ويحل محل الكثيرين ممن يقومون بها أو يؤدونها، يعتقد مؤسس عملاق التكنولوجيا “مايكروسوفت، بيل غيتس، صاحب الرؤية التقنية، أن بعض المهن ستظل أساسية – على الأقل في الوقت الحالي.
ووفقا لبيل غيتس، هناك 3 مهن ستنجو من إعصار الذكاء الاصطناعي، ولا يمكن لهذه التقنية أن تحل محل العاملين فيها أو تقليدها.
أولا: مطورو البرمجيات.. مهندسو الذكاء الاصطناعي
يشهد الذكاء الاصطناعي تقدما، لكنه لا يزال يعتمد على المبرمجين البشريين لتحسين قدراته.
ويشير بيل غيتس إلى أنه على الرغم من قدرة الذكاء الاصطناعي على توليد الأكواد البرمجية، إلا أنه يواجه صعوبات في الابتكار وتصحيح الأخطاء وحل المشكلات المعقدة.
ونتيجة لذلك، سيواصل المبرمجون الماهرون لعب دور حاسم في تطوير وإدارة أنظمة الذكاء الاصطناعي.
ثانيا: متخصصو الطاقة.. التعامل مع بيئة معقدة
يُعد قطاع الطاقة قطاعا معقدا للغاية بحيث لا يستطيع الذكاء الاصطناعي إدارته بمفرده.
وسواء أكان التعامل مع النفط أو مصادر الطاقة المتجددة أو الطاقة النووية، يجب على المتخصصين في هذا القطاع فهم اللوائح، وتصميم حلول مستدامة، والاستجابة للطلب العالمي على الطاقة.
ويعتقد غيتس أن الذكاء الاصطناعي سيساعد في الكفاءة والتحليل، لكن الخبرة البشرية ستبقى حيوية لاتخاذ القرارات الاستراتيجية.
ثالثا: باحثو علوم الحياة.. إطلاق العنان للاختراقات العلمية
في البحوث الطبية والبيولوجية، لا يزال الحدس وحل المشكلات الإبداعي ضروريين.
ويستطيع الذكاء الاصطناعي معالجة كميات هائلة من البيانات وتحسين التشخيص، غير أن بيل غيتس يشير إلى أن الاكتشافات الرائدة لا تزال تتطلب بصيرة بشرية.
ويعتقد غيتس أن العلماء سيواصلون قيادة التطورات الطبية، حيث سيكون الذكاء الاصطناعي أداة لا بديلا عنها.
عموما، يُقر مؤسس مايكروسوفت بأن تأثير الذكاء الاصطناعي على سوق العمل سيتطور بمرور الوقت.
وكما هو الحال في الثورات الصناعية السابقة، يجب على العمال التكيف مع التقنيات الجديدة وتطوير مهارات تُكمّل الذكاء الاصطناعي.
ويعتقد غيتس أنه رغم أن إعصار الذكاء الاصطناعي يجتاح كل شيء فإنه من المتوقع أيضا أن تستمر المهن المتجذرة في الإبداع والأخلاق والتواصل الإنساني – مثل التعليم والرعاية الصحية والفنون.
وفي حين يُعيد الذكاء الاصطناعي تشكيل الصناعات، يحث غيتس المهنيين على تبني الابتكار بدلا من الخوف منه، ولن يكون مستقبل العمل مُتعلقا بمنافسة الذكاء الاصطناعي، بل بالاستفادة منه لتعزيز الخبرة البشرية.