أصبحت الآن أدوات الذكاء الاصطناعي التوليدي، مثل شات "جي بي تي" و"جيميناي" و"كوبيلوت"، جزءا أساسيا من التطبيقات الشخصية والتجارية المنتشرة في الأجهزة الاستهلاكية كافة. ومع ذلك، قد يغفل العديد من المستخدمين عن التداعيات الواضحة للخصوصية التي تصاحب استخدام مثل تلك الأدوات.

 

لذا، إليك هذا الدليل لمساعدتك في حماية خصوصيتك في عصر الذكاء الاصطناعي، وفقا لما ذكره بعض خبراء مجال الأمن والخصوصية لشبكة "سي إن بي سي" (CNBC).

 

فهم سياسات الخصوصية

 

إن قراءة سياسات الخصوصية أمر بالغ الأهمية، إذ توفر بعض الأدوات سياسات استخدام بيانات واضحة، تسهل عليك فهم كيفية التحكم في بياناتك، وفقا لما ذكره الخبراء.

 

وتوجد بعض الأسئلة الأساسية التي يجب عليك طرحها أولا، مثل: هل تجمع أداة الذكاء الاصطناعي بيانات شخصية؟ وإن كان الأمر كذلك، ما نوع تلك البيانات التي تجمعها؟ وهل تُستخدم البيانات لتدريب نموذج الذكاء الاصطناعي أو تُشارك مع أطراف خارجية؟

 

وكذلك: هل توفر الأداة ميزة لإلغاء الاشتراك في مشاركة البيانات؟ وهل عملية إلغاء الاشتراك بسيطة أم تتطلب التنقل عبر قوائم معقدة؟

 

وهل يمكنك التحكم في مدة احتفاظ أداة الذكاء الاصطناعي ببياناتك؟ وما الخيارات المتاحة لتحديد أنواع البيانات التي تجمعها الأداة؟

 

وفي النهاية، هل توفر الأداة آلية لحذف بياناتك؟ وهل يكون الحذف دائما أم تُخزن البيانات بشكل ما؟

 

وفي هذا السياق، يشير الخبراء إلى بعض النصائح المهمة، مثل التأكد دائما من سياسات الخصوصية لكل أداة تستخدمها من أدوات الذكاء الاصطناعي، عبر البحث عن تفسيرات واضحة حول استخدام البيانات ومدة الاحتفاظ بها، بجانب اختيار الأدوات التي توفر معلومات شفافة ويسهل الوصول إلى الممارسات الخاصة بالبيانات داخلها.

 

تجنب مشاركة البيانات الحساسة

 

يمكن لنماذج الذكاء الاصطناعي التوليدي تخزين البيانات الحساسة التي يشاركها المستخدمون وقد تستغلها بصورة أو بأخرى، وهو ما ينطبق على البيانات الشخصية والمعلومات المتعلقة بالعمل. لذا، ينصح خبراء الخصوصية بعدم مشاركة أي بيانات حساسة مع نماذج الذكاء الاصطناعي التوليدي لأن نهج استخدام النماذج لتلك البيانات في المستقبل غير واضح.

 

لا ينبغي أن تشارك أي بيانات سرية، مثل الوثائق القانونية الشخصية أو المعلومات الخاصة بعملك، مع أدوات الذكاء الاصطناعي، فمثلا لا تستخدم هذه الأدوات لمعالجة المعلومات المالية الحساسة أو السجلات الطبية.

 

كذلك يشير الخبراء إلى حاجة الشركات لاستخدام أدوات ذكاء اصطناعي مخصصة تضمن وجود جدار حماية بين المعلومات الخاصة ونموذج الذكاء الاصطناعي. ولذلك تطور العديد من الشركات أدوات خاصة بها لتجنب استخدام بياناتها الحساسة داخل نماذج الذكاء الاصطناعي العامة.

 

ويشير الخبراء أيضا إلى أن عليك تجنب حتى مشاركة البيانات الشخصية التي تبدو عادية، مثل العناوين أو أرقام الهواتف، مع أدوات الذكاء الاصطناعي المتاحة حاليا.

 

يؤكد الخبراء أنه بينما يمكن للمستخدم حذف بياناته الشخصية المتاحة على مواقع الإنترنت، فإن خيار إلغاء الاشتراك من تدريب نماذج الذكاء الاصطناعي على هذه البيانات هو خيار أصعب وأكثر تعقيدا.

 

وغالبا لا توجد فائدة مباشرة من السماح لأدوات الذكاء الاصطناعي بالتدرب على بياناتك، لهذا عند إلغاء الاشتراك قد تقلل من خطر استخدام بياناتك في أمور لا تعرفها.

 

فمثلا في روبوت المحادثة "شات جي بي تي"، يمكنك إلغاء الاشتراك بالضغط على أيقونة الملف الشخصي، ثم اختيار "الإعدادات" (Settings)، ومنها اختيار "عناصر التحكم في البيانات" (Data Controls)، ومنها إلغاء تفعيل "تحسين النموذج للجميع" (Improve the model for everyone). وبهذا ستمنع استخدام أي محادثة جديدة لتدريب الروبوت على البيانات التي تشاركها معه.

 

أما روبوت المحادثة "جيميناي" فيتيح للمستخدمين تحديد فترة زمنية للاحتفاظ ببعض البيانات ثم حذفها، ويمكنك الوصول إلى هذه الميزة بالضغط على "النشاط" (Activity)، ومنها اختيار المدة التي ترغب في حذف نشاطك بعدها.

 

حذف المحادثات

 

حتى عمليات البحث البسيطة عن المعلومات التي تبدو غير ضارة قد تؤثر على خصوصيتك، لكن حذف المحادثات داخل أدوات الذكاء الاصطناعي قد يقلل من هذه المخاطر، كما يشير الخبراء.

 

ومن ثم فعليك تحديد أقصر مدة ممكنة لأدوات الذكاء الاصطناعي للاحتفاظ بالبيانات، كما يمكنك حذف سجلات المحادثات بانتظام بعد حصولك على المعلومات المطلوبة. قد تحتفظ بعض الشركات بسجلات للمحادثات في خوادمها، لكن هذه الخطوة تقلل من مخاطر وصول طرف خارجي إلى محادثاتك وبياناتك.

 

وباتباع هذه الخطوات والنصائح، يمكنك الاستمتاع بفوائد أدوات الذكاء الاصطناعي التوليدي وميزاتها مع تقليل المخاطر المحتملة على خصوصيتك.


المصدر: الموقع بوست

كلمات دلالية: الذکاء الاصطناعی التولیدی أدوات الذکاء الاصطناعی إلغاء الاشتراک

إقرأ أيضاً:

ليكسار تستهدف تخزين الحلول والبيانات المرتبطة بنمو استخدام الذكاء الاصطناعي

أكد فيصل عبيدة – المدير العام لمنطقة الشرق الأوسط وأفريقيا والهند بشركة ليكسار، أن الشركة تعمل على توفير الحلول المتقدمة، حيث تسعى لأن تكون مقرًا لتخزين الحلول والبيانات التي ترتبط بشكل وثيق بنمو استخدام الذكاء الاصطناعي.

أضاف عبيدة خلال فعاليات النسخة الثامنة والعشرين لمعرض ومؤتمر "مصر الدولي للتكنولوجيا" بالشرق الأوسط وإفريقيا Cairo ICT'24، تحت رعاية الرئيس عبد الفتاح السيسي، خلال الفترة من 17 إلى 20 نوفمبر 2024، بمركز مصر للمعارض الدولية، وبرعاية الدكتور عمرو طلعت وزير الاتصالات وتكنولوجيا المعلومات، أن البيانات أصبحت أكثر تعقيدًا نظرًا لاختلاف أشكالها، مما يتطلب ضرورة إدارتها بشكل جيد للحصول على نتائج جيدة.


تابع عبيدة أن إدارة البيانات وسرعة نظم التخزين تساعد في إحداث فارق كبير في التأثير على مختلف القطاعات مثل الرعاية الصحية.


وأكد أن الشركات الكبرى تتحمل مسؤولية مساعدة الشركات الناشئة على تنمية أعمالها باستخدام الذكاء الاصطناعي، مع ضرورة وجود لوائح تحكم استخدام الذكاء الاصطناعي على المستوى الدولي، خصوصاً وأننا جزء من قارة لا تزال غير متطورة في بعض الأمور، مما يؤدي إلى عدم المساواة في استخدام الذكاء الاصطناعي.

مقالات مشابهة

  • هواوي تستعرض تأثير الذكاء الاصطناعي على مراكز البيانات
  • البيانات في عصر الذكاء الاصطناعي: قوة محركة لصنع السياسات وتعزيز الابتكار"
  • ضمن مناقشات مؤتمر AIDC حول توطين الذكاء الاصطناعي.. كيف ستعيد مراكز البيانات تشكيل الاقتصاد؟
  • «معلومات الوزراء» يعتمد تقنيات الذكاء الاصطناعي لاتخاذ القرارات وتحليل البيانات
  • «معلومات الوزراء» يستعرض جهوده في مجال استخدام الذكاء الاصطناعي
  • شركات الذكاء الاصطناعي تقدم خدماتها للجيش الأميركي.. ما القصة؟
  • مؤتمر AIDC يستعرض حلول الطاقة المستدامة لتشغيل مراكز البيانات في عصر الذكاء الاصطناعي
  • أحيانا عبر نظرة العين.. كيف يهدد الذكاء الاصطناعي في الهاتف خصوصيتك؟
  • ليكسار تستهدف تخزين الحلول والبيانات المرتبطة بنمو استخدام الذكاء الاصطناعي
  • الذكاء الاصطناعي يساهم في دعم الناتج المحلي لمصر بنسبة 3.5%