(CNN)-- قال باحثون في مرصد ستانفورد للإنترنت في دراسة نشرت في وقت سابق من هذا الأسبوع إنه تم العثور على أكثر من ألف صورة لمواد الاعتداء الجنسي على الأطفال في مجموعة بيانات عامة ضخمة تستخدم لتدريب نماذج توليد الصور الشهيرة المعتمدة على الذكاء الاصطناعي.

وجود هذه الصور في بيانات التدريب قد يسهل على نماذج الذكاء الاصطناعي إنشاء صور جديدة وواقعية يتم إنشاؤها بواسطة الذكاء الاصطناعي لمحتوى إساءة معاملة الأطفال، أو صور “تزييف عميق” للأطفال الذين يتم استغلالهم.

تثير النتائج أيضًا عددًا كبيرًا من المخاوف الجديدة المحيطة بالطبيعة الغامضة لبيانات التدريب التي تعمل كأساس لمجموعة جديدة من أدوات الذكاء الاصطناعي القوية.

تحتوي مجموعة البيانات الضخمة التي فحصها باحثو جامعة ستانفورد، والمعروفة باسم LAION 5B، على مليارات الصور التي تم استخراجها من الإنترنت، بما في ذلك من وسائل التواصل الاجتماعي ومواقع الترفيه للبالغين.

ومن بين أكثر من 5 مليارات صورة في مجموعة البيانات، قال باحثو جامعة ستانفورد إنهم حددوا ما لا يقل عن 1008 حالات من مواد الاعتداء الجنسي على الأطفال.

وقالت LAION، المنظمة الألمانية غير الربحية التي تقف وراء مجموعة البيانات، في بيان على موقعها على الإنترنت إن لديها "سياسة عدم التسامح مطلقًا مع المحتوى غير القانوني".

وقالت المنظمة إنها تلقت نسخة من التقرير من جامعة ستانفورد، وهي بصدد تقييم النتائج التي توصل إليها. كما أشارت إلى أن مجموعات البيانات تمر عبر "أدوات تصفية مكثفة" للتأكد من أنها آمنة وتمتثل للقانون.

وأضافت المنظمة: "بسبب قدر كبير من الحذر، قمنا بإيقاف تشغيل LAION 5B"، قائلة إنها تعمل مع مؤسسة مراقبة الإنترنت ومقرها المملكة المتحدة "للعثور على الروابط التي قد لا تزال تشير إلى محتوى مشبوه وربما غير قانوني وإزالتها".

وقالت LAION إنها تخطط لإكمال مراجعة السلامة الكاملة لـ LAION 5B بحلول النصف الثاني من شهر يناير وتخطط لإعادة نشر مجموعة البيانات في ذلك الوقت.

وفي الوقت نفسه، قال فريق ستانفورد إن إزالة الصور المحددة جارية حاليًا بعد أن أبلغ الباحثون عن عناوين روابط الصور إلى المركز الوطني للأطفال المفقودين والمستغلين والمركز الكندي لحماية الطفل.

في التقرير، قال الباحثون إنه بينما حاول مطورو LAION 5B تصفية محتوى صريح معين، فقد تم تدريب نسخة سابقة من نموذج توليد الصور الشهير Stable Diffusion في النهاية على "مجموعة واسعة من المحتوى، سواء كان صريحًا أو غير ذلك".

وقال متحدث باسم Stability AI، الشركة الناشئة التي تتخذ من لندن مقراً لها والتي تقف خلف Stable Diffusion، لشبكة CNN في بيان إن هذا الإصدار السابق، Stable Diffusion 1.5، تم إصداره من قبل شركة منفصلة وليس بواسطة Stability AI.

وقد لاحظ الباحثون في جامعة ستانفورد أن Stable Diffusion 2.0 قام بتصفية النتائج التي اعتبرت غير آمنة إلى حد كبير، ونتيجة لذلك لم يكن لديه سوى القليل من المواد الواضحة في مجموعة التدريب.

ذكر تقرير ستانفورد أن مجموعات البيانات الضخمة على نطاق الويب تمثل مشكلة كبيرة لعدد من الأسباب، حتى مع محاولات التصفية الآمنة، بسبب احتمال تضمينها ليس فقط لمواد الاعتداء الجنسي على الأطفال ولكن أيضًا بسبب مخاوف الخصوصية وحقوق الطبع والنشر الأخرى التي تنشأ من استخدامها.

وأوصى التقرير بأن تقتصر مجموعات البيانات هذه على "إعدادات البحث فقط" وأنه يجب استخدام "مجموعات البيانات الأكثر تنظيمًا وذات المصادر الجيدة" فقط للنماذج الموزعة بشكل عام.

المصدر: CNN Arabic

كلمات دلالية: اعتداءات جنسية تكنولوجيا الذکاء الاصطناعی مجموعة البیانات جامعة ستانفورد

إقرأ أيضاً:

رغم الدفاع عن نظامها.. بلومبرج تواجه مشكلات مع ملخصات الذكاء الاصطناعي

أطلقت وكالة بلومبرج نيوز في يناير الماضي نظامًا يعتمد على الذكاء الاصطناعي لتوليد ملخصات تلقائية لمقالاتها، بهدف مساعدة القراء على استيعاب المعلومات بسرعة واتخاذ قرارات حول المقالات التي تستحق القراءة بعمق. 

لكن مع مرور الوقت، اضطرت الوكالة إلى إزالة عدة ملخصات بسبب أخطاء في المحتوى، مما أثار تساؤلات حول دقة هذه التقنية في بيئة الأخبار الاحترافية.

أمثلة على الأخطاء التي دفعت بلومبرغ إلى التدخل

كشف بحث على Google عن 20 حالة على الأقل تم فيها حذف ملخصات المقالات بعد نشرها بسبب أخطاء. 

من بين هذه الحالات، ملخصان لمقالات تتعلق بسياسة الرسوم الجمركية للرئيس الأمريكي السابق دونالد ترامب تم سحبهما، أحدهما لعدم تحديد موعد تطبيق الرسوم، والآخر بسبب "عدم الدقة" دون تحديد التفاصيل.

مقال اخر  عن بيع مصانع الصلب تم تعديل ملخصه بعد أن أشار بشكل خاطئ إلى أن نقابة عمال الصلب (United Steelworkers) كانت تعارض خطط المالك، في حين أن ذلك لم يكن صحيحًا.

مطورو المصادر المفتوحة يتصدون لـ روبوتات الذكاء الاصطناعي بطرق ذكيةأداة ذكاء اصطناعي جديدة تسرّع تشخيص مرض السيلياك المناعيبيل جيتس: الذكاء الاصطناعي سيلغي وظائف الأطباء والمعلمين خلال 10 سنواتكيفية إنشاء صور بأسلوب Ghibli باستخدام الذكاء الاصطناعي بطريقة سهلةبلومبرج تدافع عن نظامها

رغم هذه الأخطاء، أكدت بلومبرج أن 99% من الملخصات تفي بالمعايير التحريرية، وأن حالات التصحيح والتعديلات هي استثناءات نادرة.

 كما أوضحت أن الصحفيين لديهم سيطرة كاملة على الملخصات، سواء قبل النشر أو بعده، ويمكنهم إزالة أي ملخص لا يرقى إلى مستوى الدقة المطلوبة.

الشفافية والمستقبل

أكدت بلومبرج أنها شفافة تمامًا بشأن أي تحديثات أو تصحيحات يتم إجراؤها على المقالات، وأن فريق الخبراء التابع لها يواصل تحسين أداء النموذج اللغوي المستخدم في التلخيص. 

ومع ذلك، تظل هذه التحديات بمثابة تحذير مهم حول الاعتماد الكامل على الذكاء الاصطناعي في الصحافة، حيث قد يكون دقيقًا في معظم الأحيان، لكنه لا يزال معرضًا للخطأ.

مقالات مشابهة

  • 6 شهداء بينهم أطفال وإصابات اثر قصف الاحتلال مجموعة مواطنين في خان يونس
  • الذكاء الاصطناعي يتقن الخداع!
  • الذكاء الإصطناعي قادم بقوة.. صور غيبلي تغزو مواقع التواصل بالمغرب
  • بيل جيتس: الذكاء الاصطناعي سيحل محل العديد من المهن
  • اكتشاف نسخ جديدة من فيروس SparrowDoor تستهدف مؤسسات في أمريكا والمكسيك
  • استوديو جيبلي وكابوس الذكاء الاصطناعي
  • رغم الدفاع عن نظامها.. بلومبرج تواجه مشكلات مع ملخصات الذكاء الاصطناعي
  • «ChatGPT» يغير قواعد إنشاء الصور باستخدام الذكاء الاصطناعي
  • صور وفيديوهات تهاني عيد الفطر 2025 بالذكاء الاصطناعي
  • «AIM للاستثمار» تستشرف مستقبل الذكاء الاصطناعي