يوتيوب يواجه الصور "المضللة" بإجراءات صارمة
تاريخ النشر: 20th, December 2024 GMT
أعلنت منصة "يوتيوب" عن اتخاذ إجراءات صارمة للحد من ظاهرة "العناوين والصور المصغرة المضللة"، التي يلجأ إليها بعض منشئي المحتوى لجذب المشاهدات والمشتركين، رغم عدم توافقها مع مضمون الفيديو.
وتأتي هذه الخطوة بعد دراسة متعمقة لتنامي هذه الظاهرة المثيرة للقلق، في محاولة لضمان تجربة أكثر مصداقية وشفافية لمستخدمي المنصة.
وتُسمى تلك الظاهرة "الصور المصغرة الجاذبة للنقرات"، وهي تلك الصور والعناوين التي تظهر من الخارج قبل النقر على الفيديو لمشاهدته، وحين تكون "مضللة" فإنها تهدف إلى جذب المشاهدين دون تقديم محتوى داخل الفيديو يتوافق مع ما تم الترويج له في الصورة المصغرة الخارجية.
في هذا السياق، أوضحت منصة يوتيوب في منشور عبر مدونتها الرسمية التزامها بمنع تلك الممارسات عن طريق إزالة مقاطع الفيديو التي تحتوي على صور مصغرة مضللة، وخاصةً تلك المتعلقة بالأخبار العاجلة أو الأحداث الجارية.
وأعلنت أيضاً أنه سيتم فرض عقوبات على القنوات التي تنتهك هذه السياسة بشكل متكرر، كما أكدت المنصة أن هذه ليست سياسة جديدة، ولكنها بالأحرى تطبيق أكثر صرامة للقواعد الحالية.
وأوضحت "يوتيوب" كذلك أنه لن يتم حظر القنوات فوراً بمجرد اكتشاف المحتوى المخادع، لكن ستتم إزالة مقاطع الفيديو المضللة فقط، مما يسمح لمنشئي المحتوى بتعديل استراتيجيات المحتوى الخاصة بهم وفقاً لذلك، وهي خطوة تهدف أيضاً إلى ضمان استمتاع المشاهدين بمحتوى أصلي وعالي الجودة مع الحد من الممارسات غير النزيهة.
على صعيد متصل، تم إضافة ميزة جديدة لقوائم التشغيل تتضمن "المشاهدة لاحقاً" للأشخاص الذين يرغبون في حفظ أي مقطع فيديو، وهي خاصية ينتظرها المستخدمون منذ فترة طويلة، إذ تتيح لهم حفظ مقاطع الفيديو مباشرةً على المنصة لسهولة الوصول إليها لاحقاً.
المصدر: موقع 24
كلمات دلالية: سقوط الأسد حصاد 2024 الحرب في سوريا عودة ترامب خليجي 26 عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله غزة وإسرائيل الإمارات يوتيوب
إقرأ أيضاً:
OpenAI تفرض خطوات تحقق صارمة على المؤسسات لحماية نماذجها المتقدمة
أعلنت شركة OpenAI، المطورة لأشهر أنظمة الذكاء الاصطناعي في العالم مثل ChatGPT، عن إطلاق نظام تحقق جديد يحمل اسم "Verified Organization"، يستهدف المؤسسات الراغبة في الوصول إلى نماذج الذكاء الاصطناعي الأكثر تقدمًا في منصتها خلال الفترة القادمة.
التحقق الإجباري.. بهوية حكومية كل 90 يومًاوبحسب صفحة الدعم التي نشرتها الشركة على موقعها الرسمي الأسبوع الماضي، فإن نظام التحقق الجديد يتطلب تقديم هوية حكومية صالحة من إحدى الدول المدعومة عبر واجهة برمجة التطبيقات (API)، على أن يتم استخدام كل هوية للتحقق من مؤسسة واحدة فقط خلال فترة تمتد لـ 90 يومًا.
ورغم أن OpenAI لم توضح بعد ما إذا كانت هذه الخطوة ستكون إلزامية على جميع المستخدمين، فإنها أشارت إلى أن "ليست كل المؤسسات ستكون مؤهلة للتحقق"، ما يفتح الباب أمام معايير تصنيف غير معلنة حتى الآن.
لماذا الآن؟ دوافع أمنية وتقنية واضحةتقول OpenAI في بيانها:"نأخذ مسؤوليتنا على محمل الجد لضمان أن يكون الذكاء الاصطناعي متاحًا على نطاق واسع ويُستخدم بأمان... للأسف، هناك أقلية من المطورين تستخدم واجهات OpenAI في انتهاك لسياسات الاستخدام الخاصة بنا".
ويبدو أن التحقق الإجباري يأتي ضمن خطة متكاملة لتعزيز حماية المنصة من الاستخدامات الخبيثة أو الخارجة عن القانون، خصوصًا مع تصاعد تقارير تربط استخدام نماذج الذكاء الاصطناعي في حملات تضليل، قرصنة، أو تطوير أدوات هجومية.
فبحسب تقرير نشره موقع Bloomberg في وقت سابق من هذا العام، فإن OpenAI فتحت تحقيقًا داخليًا بشأن شبهات تسريب كميات ضخمة من بيانات واجهة البرمجة الخاصة بها لصالح مختبر الذكاء الاصطناعي الصيني DeepSeek، وذلك في أواخر عام 2024.
ووفق التقرير، فإن هذه البيانات قد تكون استُخدمت في تدريب نماذج منافسة بشكل ينتهك بنود الاستخدام الصارمة التي تفرضها OpenAI على المطورين.
وتجدر الإشارة إلى أن الشركة كانت قد حجبت خدماتها رسميًا عن الصين في صيف 2024.
خطوة نحو حماية الملكية الفكرية وتعزيز الشفافيةقد يكون التحقق من الهوية بداية لتحول أكبر في سياسات الوصول إلى تقنيات الذكاء الاصطناعي المتقدمة، في ظل المخاوف الدولية المتزايدة بشأن سرقة البيانات، وتوظيف الذكاء الاصطناعي في الهجمات السيبرانية أو إنتاج محتوى مضلل.
ومع توجه دول مثل الولايات المتحدة والاتحاد الأوروبي إلى فرض لوائح تنظيمية على المطورين، قد تكون OpenAI تسعى لتقديم نفسها كشركة رائدة في الامتثال والحوكمة الأخلاقية للتقنيات الحديثة.