منذ ظهور الذكاء الاصطناعي التوليدي، كان هناك جدل حول كيفية تدريب هذه النماذج وما هي البيانات التي تستخدمها. وتشير التقارير إلى أن الشركات تستخدم البيانات الشخصية للمستخدمين لتدريب هذه النماذج. 

الآن، قامت ميتا بتحديث مركز موارد المساعدة الخاص بها بنموذج يسمح للمستخدمين بإلغاء الاشتراك في تقديم بياناتهم لتدريب نماذج الذكاء الاصطناعي التوليدية.


وفقًا لتقرير صادر عن CNBC، يمكن لمستخدمي فيسبوك حذف بعض المعلومات الشخصية التي يمكن أن تستخدمها الشركة في تدريب نماذج الذكاء الاصطناعي التوليدية. يتضمن قسم موارد مركز المساعدة المحدث على Facebook نموذجًا بعنوان "حقوق موضوع بيانات الذكاء الاصطناعي التوليدية"، والذي يسمح للمستخدمين "بإرسال طلبات تتعلق بمعلومات الطرف الثالث الخاصة بك المستخدمة في التدريب على نموذج الذكاء الاصطناعي التوليدي".

تشير ميتا Meta إلى معلومات الطرف الثالث على أنها بيانات "متاحة للجمهور على الإنترنت أو المصادر المرخصة". وفقًا للشركة، يمكن أن يمثل هذا النوع من المعلومات بعضًا من "مليارات البيانات" المستخدمة لتدريب نماذج الذكاء الاصطناعي التوليدية التي "تستخدم التنبؤات والأنماط لإنشاء محتوى جديد".
قالت ميتا Meta بالفعل إنها تجمع معلومات عامة على الويب بالإضافة إلى بيانات الترخيص من مقدمي الخدمة الآخرين. وقال ميتا إن منشورات المدونة، على سبيل المثال، يمكن أن تتضمن معلومات شخصية، مثل اسم شخص ما ومعلومات الاتصال به.

ومع ذلك، لا توجد معلومات عما إذا كانت البيانات الشخصية للمستخدمين تتضمن نشاطهم على الممتلكات المملوكة لفيسبوك، مثل تعليقاتهم العامة وصورهم على Instagram.
كيفية حذف بيانات فيسبوك المستخدمة لتدريب نماذج الذكاء الاصطناعي التوليدية:
انتقل إلى نموذج "حقوق موضوع بيانات الذكاء الاصطناعي التوليدي" في صفحة سياسة خصوصية Meta.
انقر على "معرفة المزيد وإرسال الطلبات هنا".
اختر الخيار الثاني لحذف أي من المعلومات الشخصية من مصادر بيانات الطرف الثالث المستخدمة للتدريب.
بعد تحديد الخيار، سيحتاج المستخدمون إلى اجتياز اختبار فحص الأمان، ومع ذلك، قد يكون هناك خطأ ما أعاق إكمال النموذج.

المصدر: بوابة الوفد

إقرأ أيضاً:

خبير مغربي يحذر من استخدام الذكاء الاصطناعي في صياغة المراسلات داخل المؤسسات الحكومية

حذر حسن خرجوج، الخبير في مجال التطوير المعلوماتي والأمن السيبراني، من المخاطر الناجمة عن الاعتماد على تطبيق الذكاء الاصطناعي “شات جي بي تي” في صياغة الرسائل البريدية خاصة داخل الوزارات والمؤسسات الحكومية وشبه الحكومية والشركات.

وأكد المتحدث، أن “إدخال معلومات حساسة إلى هذا النظام يعرضها للتسريب أو الاستغلال غير المشروع، مما قد يعرض هذه المؤسسات لعواقب غير محسوبة تهدد سريتها وأمنها المعلوماتي”.

وأوصى الخبير مستخدمي هذه التقنيات بضرورة تجنب إدخال أي بيانات سرية يمكن أن تشكل تهديدا للأمن المعلوماتي والخصوصية الرقمية للمؤسسات الحكومية والشركات.

مقالات مشابهة

  • خبير مغربي يحذر من استخدام الذكاء الاصطناعي في صياغة المراسلات داخل المؤسسات الحكومية
  • الذكاء الاصطناعي يهدد شركات الأزياء
  • هواوي تستعرض تأثير الذكاء الاصطناعي على مراكز البيانات
  • البيانات في عصر الذكاء الاصطناعي: قوة محركة لصنع السياسات وتعزيز الابتكار"
  • ضمن مناقشات مؤتمر AIDC حول توطين الذكاء الاصطناعي.. كيف ستعيد مراكز البيانات تشكيل الاقتصاد؟
  • إدانة «ميتا» لتسريب بيانات نصف مليار شخص
  • «معلومات الوزراء» يعتمد تقنيات الذكاء الاصطناعي لاتخاذ القرارات وتحليل البيانات
  • مركز معلومات الوزراء يستعرض أبرز جهوده في مجال استخدام الذكاء الاصطناعي
  • «معلومات الوزراء» يستعرض جهوده في مجال استخدام الذكاء الاصطناعي
  • معلومات الوزراء يستعرض أبرز جهوده في مجال استخدام الذكاء الاصطناعي