وفقا للخبراء.. كيف تحمي خصوصيتك في عصر الذكاء الاصطناعي؟
تاريخ النشر: 14th, July 2024 GMT
أصبحت الآن أدوات الذكاء الاصطناعي التوليدي، مثل شات "جي بي تي" و"جيميناي" و"كوبيلوت"، جزءا أساسيا من التطبيقات الشخصية والتجارية المنتشرة في الأجهزة الاستهلاكية كافة. ومع ذلك، قد يغفل العديد من المستخدمين عن التداعيات الواضحة للخصوصية التي تصاحب استخدام مثل تلك الأدوات.
لذا، إليك هذا الدليل لمساعدتك في حماية خصوصيتك في عصر الذكاء الاصطناعي، وفقا لما ذكره بعض خبراء مجال الأمن والخصوصية لشبكة "سي إن بي سي" (CNBC).
إن قراءة سياسات الخصوصية أمر بالغ الأهمية، إذ توفر بعض الأدوات سياسات استخدام بيانات واضحة، تسهل عليك فهم كيفية التحكم في بياناتك، وفقا لما ذكره الخبراء.
وتوجد بعض الأسئلة الأساسية التي يجب عليك طرحها أولا، مثل: هل تجمع أداة الذكاء الاصطناعي بيانات شخصية؟ وإن كان الأمر كذلك، ما نوع تلك البيانات التي تجمعها؟ وهل تُستخدم البيانات لتدريب نموذج الذكاء الاصطناعي أو تُشارك مع أطراف خارجية؟
وكذلك: هل توفر الأداة ميزة لإلغاء الاشتراك في مشاركة البيانات؟ وهل عملية إلغاء الاشتراك بسيطة أم تتطلب التنقل عبر قوائم معقدة؟
وهل يمكنك التحكم في مدة احتفاظ أداة الذكاء الاصطناعي ببياناتك؟ وما الخيارات المتاحة لتحديد أنواع البيانات التي تجمعها الأداة؟
وفي النهاية، هل توفر الأداة آلية لحذف بياناتك؟ وهل يكون الحذف دائما أم تُخزن البيانات بشكل ما؟
وفي هذا السياق، يشير الخبراء إلى بعض النصائح المهمة، مثل التأكد دائما من سياسات الخصوصية لكل أداة تستخدمها من أدوات الذكاء الاصطناعي، عبر البحث عن تفسيرات واضحة حول استخدام البيانات ومدة الاحتفاظ بها، بجانب اختيار الأدوات التي توفر معلومات شفافة ويسهل الوصول إلى الممارسات الخاصة بالبيانات داخلها.
تجنب مشاركة البيانات الحساسةيمكن لنماذج الذكاء الاصطناعي التوليدي تخزين البيانات الحساسة التي يشاركها المستخدمون وقد تستغلها بصورة أو بأخرى، وهو ما ينطبق على البيانات الشخصية والمعلومات المتعلقة بالعمل. لذا، ينصح خبراء الخصوصية بعدم مشاركة أي بيانات حساسة مع نماذج الذكاء الاصطناعي التوليدي لأن نهج استخدام النماذج لتلك البيانات في المستقبل غير واضح.
لا ينبغي أن تشارك أي بيانات سرية، مثل الوثائق القانونية الشخصية أو المعلومات الخاصة بعملك، مع أدوات الذكاء الاصطناعي، فمثلا لا تستخدم هذه الأدوات لمعالجة المعلومات المالية الحساسة أو السجلات الطبية.
كذلك يشير الخبراء إلى حاجة الشركات لاستخدام أدوات ذكاء اصطناعي مخصصة تضمن وجود جدار حماية بين المعلومات الخاصة ونموذج الذكاء الاصطناعي. ولذلك تطور العديد من الشركات أدوات خاصة بها لتجنب استخدام بياناتها الحساسة داخل نماذج الذكاء الاصطناعي العامة.
ويشير الخبراء أيضا إلى أن عليك تجنب حتى مشاركة البيانات الشخصية التي تبدو عادية، مثل العناوين أو أرقام الهواتف، مع أدوات الذكاء الاصطناعي المتاحة حاليا.
يؤكد الخبراء أنه بينما يمكن للمستخدم حذف بياناته الشخصية المتاحة على مواقع الإنترنت، فإن خيار إلغاء الاشتراك من تدريب نماذج الذكاء الاصطناعي على هذه البيانات هو خيار أصعب وأكثر تعقيدا.
وغالبا لا توجد فائدة مباشرة من السماح لأدوات الذكاء الاصطناعي بالتدرب على بياناتك، لهذا عند إلغاء الاشتراك قد تقلل من خطر استخدام بياناتك في أمور لا تعرفها.
فمثلا في روبوت المحادثة "شات جي بي تي"، يمكنك إلغاء الاشتراك بالضغط على أيقونة الملف الشخصي، ثم اختيار "الإعدادات" (Settings)، ومنها اختيار "عناصر التحكم في البيانات" (Data Controls)، ومنها إلغاء تفعيل "تحسين النموذج للجميع" (Improve the model for everyone). وبهذا ستمنع استخدام أي محادثة جديدة لتدريب الروبوت على البيانات التي تشاركها معه.
أما روبوت المحادثة "جيميناي" فيتيح للمستخدمين تحديد فترة زمنية للاحتفاظ ببعض البيانات ثم حذفها، ويمكنك الوصول إلى هذه الميزة بالضغط على "النشاط" (Activity)، ومنها اختيار المدة التي ترغب في حذف نشاطك بعدها.
حذف المحادثاتحتى عمليات البحث البسيطة عن المعلومات التي تبدو غير ضارة قد تؤثر على خصوصيتك، لكن حذف المحادثات داخل أدوات الذكاء الاصطناعي قد يقلل من هذه المخاطر، كما يشير الخبراء.
ومن ثم فعليك تحديد أقصر مدة ممكنة لأدوات الذكاء الاصطناعي للاحتفاظ بالبيانات، كما يمكنك حذف سجلات المحادثات بانتظام بعد حصولك على المعلومات المطلوبة. قد تحتفظ بعض الشركات بسجلات للمحادثات في خوادمها، لكن هذه الخطوة تقلل من مخاطر وصول طرف خارجي إلى محادثاتك وبياناتك.
وباتباع هذه الخطوات والنصائح، يمكنك الاستمتاع بفوائد أدوات الذكاء الاصطناعي التوليدي وميزاتها مع تقليل المخاطر المحتملة على خصوصيتك.
المصدر: الجزيرة
كلمات دلالية: حراك الجامعات حريات الذکاء الاصطناعی التولیدی أدوات الذکاء الاصطناعی إلغاء الاشتراک
إقرأ أيضاً:
الذكاء الاصطناعي جريمة معلوماتية!
مع بداية ثورة الذكاء الاصطناعي، ظهرت مخاوف أن يؤثر على جودة البحث الأكاديمي؛ بأن يستغله الطلاب والباحثون لسهولة الوصول للمعلومة، دون تدقيق أو تمحيص، وأن تفقد الدراسات الأكاديمية رصانتها ومرجعيتها. كان هذا أكبر المخاوف، تبعه الخوف من ظهور مؤلفات وروايات، وحتى مقالات يحل فيها (شات جي بي تي) محل المؤلف، أو الروائي أو الكاتب!.
ولكن مع التسارع المذهل لتطور تقنيات الذكاء الاصطناعي، أصبحت هذه المخاوف صغيرة، أو بسيطة؛ مقارنة بما وصل إليه من قدرة مذهلة على تغيير صور الأشخاص، وإنتاج مقاطع مصورة متحركة وصلت إلى تجسيد شخصيات سياسية لا تكاد تفرقها عن الحقيقة؛ مثل قادة دول وزعماء يرقصون مع بعضهم بشكل مقزز، أو يؤدون حركات مستهجنة؛ مثل ركوع قادة دول أمام قادة آخرين، كما حدث مع الرئيس الأوكراني- على سبيل المثال- أو تمثيل نجوم الفن والرياضة في مقاطع مصطنعة، كما حدث في العيد الماضي قبل أيام من تصوير كريستيانو رونالدو وأم كلثوم وآخرين، وهم يخبزون كعك العيد، الأمر الذي قد يصل إلى استغلال ضعاف النفوس لهذه التقنيات في تصوير أشخاص في أوضاع مخلة وإباحية؛ بغرض الابتزاز، أو في أوضاع جرمية؛ بغرض الانتقام أو إلحاق الضرر بآخرين، وهذا أمر وارد جدًا في الفضاء الإلكتروني المفتوح، الذي يستخدمه الصالح والطالح والمجرم والسوي والعارف والجاهل، وهو ما يعد جريمة إلكترونية واضحة المعالم؛ تجرمها الأنظمة والأخلاق الإنسانية والتعاليم الدينية والأعراف والتقاليد، ما يوجب ضرورة التوعية بها، وإيضاح الأنظمة والعقوبات التي تحرمها وتجرمها، ولا بد أن يعي كل من يستخدم تقنيات الذكاء الاصطناعي، أن من ينتج مثل هذه المقاطع والصور فقط، أو يخزنها فقط، وليس أن ينشرها فقط، سيقع تحت طائلة القانون والنظام، وأن نظام مكافحة جرائم المعلوماتية يؤكد على أنه يعاقب بالسجن مدة لا تزيد على خمس سنوات، وبغرامة لا تزيد على ثلاثة ملايين ريال، أو بإحدى هاتين العقوبتين كلُّ شخص يرتكب أيًّا من الجرائم المعلوماتية الآتية: “إنتاج ما من شأنه المساس بالنظام العام، أو القيم الدينية، أو الآداب العامة، أو حرمة الحياة الخاصة، أو إعداده، أو إرساله، أو تخزينه عن طريق الشبكة المعلوماتية، أو أحد أجهزة الحاسب الآلي”.
الأمر خطير وليس مزحة.
Dr.m@u-steps.com