النزاهة تضبط أوليات شراء مواد بـ5 ملايين دولار لم تستخدم منذ 13 عاماً
تاريخ النشر: 10th, January 2024 GMT
النزاهة تضبط أوليات شراء مواد بـ5 ملايين دولار لم تستخدم منذ 13 عاماً
.المصدر: شفق نيوز
كلمات دلالية: العراق هاكان فيدان تركيا محمد شياع السوداني انتخابات مجالس المحافظات بغداد ديالى نينوى ذي قار ميسان اقليم كوردستان السليمانية اربيل نيجيرفان بارزاني إقليم كوردستان العراق بغداد اربيل تركيا اسعار الدولار روسيا ايران يفغيني بريغوجين اوكرانيا امريكا كرة اليد كرة القدم المنتخب الاولمبي العراقي المنتخب العراقي بطولة الجمهورية الكورد الفيليون الكورد الفيليون خانقين البطاقة الوطنية مطالبات العراق بغداد ذي قار ديالى حادث سير الكورد الفيليون مجلة فيلي عاشوراء شهر تموز مندلي هيئة النزاهة
إقرأ أيضاً:
«ميتا» تستخدم منشورات البريطانيين في تدريب الذكاء الاصطناعي
رغم انتهاكها لقوانين الخصوصية في الاتحاد الأوروبي، أعلنت شركة «ميتا»، التي يملكها مارك زوكربيرغ، أنها تخطط لاستخدام ملايين المنشورات من منصتي «فيسبوك» و«إنستغرام» في المملكة المتحدة لتدريب تكنولوجيا الذكاء الاصطناعي.
وأعلن مكتب مفوض المعلومات في المملكة المتحدة والاتحاد الأوروبي، الجمعة، إنه لم يمنح الموافقة التنظيمية لخطة «ميتا»، لكنه سيراقب التجربة بعد أن وافقت الشركة على تعديلات تشمل تسهيل خيار رفض المستخدمين السماح باستخدام منشوراتهم لتحليلها بالذكاء الاصطناعي.
وقالت «ميتا»، إنها “تعاملت بإيجابية مع مكتب مفوض المعلومات (ICO) بشأن الخطة”، بعد أن أوقفت خطة مشابهة في بعد تحذير وجّهه مكتب مفوض المعلومات إلى الشركات التقنية بضرورة احترام خصوصية المستخدمين عند بناء الذكاء الاصطناعي التوليدي، وفقاً لموقع «غارديان».
وأكدت «ميتا»، الجمعة، أنها ستستأنف خططها لاستخدام المنشورات العامة من المستخدمين من بريطانيا على «فيسبوك» و«إنستغرام» لتدريب نماذج الذكاء الاصطناعي، مضيفة أنها لن تستخدم الرسائل الخاصة أو أي محتوى من الأشخاص أقل من 18 عاماً.
وأضافت، في بيان: «هذا يعني أن نماذج الذكاء الاصطناعي التوليدي لدينا ستعكس الثقافة والتاريخ والأمثال البريطانية، وأن الشركات والمؤسسات البريطانية ستتمكن من استخدام أحدث التقنيات. نحن نبني الذكاء الاصطناعي في (ميتا) ليعكس المجتمعات المتنوعة حول العالم، ونتطلع إلى إطلاقه في مزيد من البلدان وبلغات أكثر في وقت لاحق هذا العام».
وقال ستيفن ألموند، المدير التنفيذي للمخاطر التنظيمية في مكتب المفوض للمعلومات: «لقد كنا واضحين بأن أي شركة تستخدم معلومات مستخدميها لتدريب نماذج الذكاء الاصطناعي التوليدي يجب أن تكون شفافة حول كيفية استخدام بيانات الأفراد».