“ميتا” تعلّق مشروع استخدام البيانات الشخصية في الذكاء الاصطناعي
تاريخ النشر: 15th, June 2024 GMT
المناطق_متابعات
علّقت شركة “ميتا” الأمريكية (فيسبوك، إنستقرام) خطتها لاستخدام البيانات الشخصية لمستخدميها في برنامج ذكاء اصطناعي.
وأفادت اللجنة الأيرلندية لحماية البيانات، بأنّ “ميتا علّقت خطتها لتدريب نموذج اللغة الموسع الخاص بها من خلال استخدام المحتوى العام الذي يشاركه البالغون في فيسبوك وإنستقرام في الاتحاد الأوروبي.
وكانت جمعية “نويب” النمساوية قد طلبت من السلطات التدخل “سريعاً” لمنع تنفيذ سياسة الخصوصية الجديدة لـ”ميتا”، المرتقب في 26 يونيو.
ورحب رئيس جمعية “نويب” ماكس شريمز، بتعليق ميتا لخطتها، مضيفاً “حتى الآن لم يحصل أي تغيير رسمي في سياسة الخصوصية الخاصة بميتا، مما يجعل هذا التعهّد ملزما قانونا”.
وتقوم ميتا أصلاً باستخدام بعض البيانات العامة لتدريب نماذج الذكاء الاصطناعي التوليدي، لكنها بحسب الجمعية النمسوية أرادت أن تذهب إلى أبعد من ذلك و”تستخدم بالكامل” كل بيانات مليارات المستخدمين التي تم جمعها منذ عام 2007.
وترمي من خلال هذه الخطوة إلى استعمالها في إطار “تكنولوجيا الذكاء الاصطناعي التجريبية من دون أي حدود”، بحسب “نويب”، وبدون الحصول على موافقة المستخدمين، على الرغم من أنّ هذه الخطوة إلزامية بموجب النظام الأوروبي العام لحماية البيانات.
يُذكر أن جمعية “نويب” (كلمة مؤلفة من الحروف الأولى لعبارة “نان أوف يور بيزنس” بالإنكليزية أي “ليس من شأنك”)، وراء دعاوى كثيرة ضد شركات التكنولوجية الكبرى.
المصدر: صحيفة المناطق السعودية
كلمات دلالية: ميتا
إقرأ أيضاً:
خبير مغربي يحذر من استخدام الذكاء الاصطناعي في صياغة المراسلات داخل المؤسسات الحكومية
حذر حسن خرجوج، الخبير في مجال التطوير المعلوماتي والأمن السيبراني، من المخاطر الناجمة عن الاعتماد على تطبيق الذكاء الاصطناعي “شات جي بي تي” في صياغة الرسائل البريدية خاصة داخل الوزارات والمؤسسات الحكومية وشبه الحكومية والشركات.
وأكد المتحدث، أن “إدخال معلومات حساسة إلى هذا النظام يعرضها للتسريب أو الاستغلال غير المشروع، مما قد يعرض هذه المؤسسات لعواقب غير محسوبة تهدد سريتها وأمنها المعلوماتي”.
وأوصى الخبير مستخدمي هذه التقنيات بضرورة تجنب إدخال أي بيانات سرية يمكن أن تشكل تهديدا للأمن المعلوماتي والخصوصية الرقمية للمؤسسات الحكومية والشركات.