يعد الذكاء الاصطناعي التوليدي تقنية قوية يمكنها إنشاء محتوى جديد من البيانات الموجودة، مثل النصوص والصور والصوت، وتعد شركة ميتا إحدى الشركات الرائدة في هذا المجال، حيث تقوم بتطوير نماذج لغوية كبيرة يمكنها إنتاج مخرجات واقعية ومتنوعة.

ومع ذلك، يثير الذكاء الاصطناعي الخاص بـ"ميتا" أيضاً بعض المخاوف المتعلقة بالخصوصية، لأنه يعتمد على كميات هائلة من البيانات من المصادر المتاحة للجمهور والمرخصة.

. ويمكن أن تتضمن هذه البيانات معلومات شخصية، مثل الأسماء وتفاصيل الاتصال والآراء، التي تخص أفراداً قد لا يكونوا على علم أو موافقين على استخدام بياناتهم في التدريب على الذكاء الاصطناعي.

لمعالجة هذه المشكلة، قامت ميتا مؤخراً بتحديث موقع مركز مساعدة فيسبوك الخاص بها، ليشمل نموذجاً جديداً يسمح للمستخدمين بالوصول إلى أو تعديل أو حذف أي معلومات خاصة بجهات خارجية، تم استخدامها للتدريب على نماذج الذكاء الاصطناعي التوليدية.

 ويشير النموذج الذي يحمل عنوان "حقوق موضوع بيانات الذكاء الاصطناعي التوليدية"، إلى معلومات الطرف الثالث كبيانات متاحة للجمهور على الإنترنت، أو من مصادر مرخصة.. إنه متاح في قسم موارد مركز مساعدة فيسبوك ويمكن استخدامه لإرسال الطلبات المتعلقة بالبيانات الشخصية.


- قم بزيارة الرابط:
https://www. facebook.com/privacy/genai

– انقر على الرابط: المزيد، أرسل الطلبات هنا.

– اختر أحد الخيارات الثلاثة التي تناسب مشكلتك أو اعتراضك. 

– بعد اختيار أحد الخيارات، يتعين عليك اجتياز اختبار فحص الأمان.

هذا كل شيء، وسيتم تقديم طلبك.

المصدر: موقع 24

كلمات دلالية: التغير المناخي محاكمة ترامب أحداث السودان النيجر مانشستر سيتي الحرب الأوكرانية عام الاستدامة الملف النووي الإيراني الذکاء الاصطناعی

إقرأ أيضاً:

قوانين جديدة لاستخدام الذكاء الاصطناعي تدخل حيز التنفيذ

2 فبراير، 2025

بغداد/المسلة: دخلت القواعد الجديدة لتنظيم استخدام الذكاء الاصطناعي، الأحد، حيز التنفيذ في الاتحاد الأوروبي بموجب قانون الذكاء الاصطناعي.

وقال الاتحاد الأوروبي إن “استيعاب أنظمة الذكاء الاصطناعي ينطوي على إمكانات قوية لتحقيق فوائد اجتماعية ونمو اقتصادي وتعزيز الابتكار في الاتحاد الأوروبي والقدرة التنافسية العالمية”.

وحذر من “المخاطر الجديدة المتعلقة بسلامة المستخدمين، بما في ذلك السلامة البدنية، والحقوق الأساسية”.

ويحظر القانون استخدام برامج الذكاء الاصطناعي التي تستغل نقاط الضعف البشرية، مثل استخدام التقنيات الخفية أو التصنيف الاجتماعي للأفراد من أجل المكافأة أو العقاب، كما هو الحال في الصين.

المسلة – متابعة – وكالات

النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.

About Post Author زين

See author's posts

مقالات مشابهة

  • في سابقة.. دول تفرض قيوداً على استخدام «الذكاء الاصطناعي» لـ«حماية الأطفال»
  • شركة ميتا تطلق مساعد الذكاء الاصطناعي «Meta AI» مجانا في الشرق الأوسط
  • بريطانيا تجرم استخدام الذكاء الاصطناعي لهذه الغاية
  • الصين تسابق الولايات المتحدة بقوة في نماذج الذكاء الاصطناعي
  • كاتب روسي يحلل حالة الهستيريا بين شركات الذكاء الاصطناعي الأميركية بسبب ديب سيك
  • الاتحاد الأوروبي يبدأ بتطبيق قواعد جديدة لـ«الذكاء الاصطناعي»
  • بريطانيا تجرم استخدام الذكاء الاصطناعي
  • قوانين جديدة لاستخدام الذكاء الاصطناعي تدخل حيز التنفيذ في الاتحاد الأوروبي
  • قوانين جديدة لاستخدام الذكاء الاصطناعي تدخل حيز التنفيذ
  • لمياء العمير تحقق إنجازات نوعية في الذكاء الاصطناعي في مجال البيانات الضخمة