ميزة جديدة.. يوتيوب يتيح إزالة مقاطع فيديو الذكاء الاصطناعي ضمانًا للخصوصية
تاريخ النشر: 15th, July 2024 GMT
أتاح موقع يوتيوب ميزة جديدة للمستخدمين حيث يمكنهم الآن أن يطلبوا من يوتيوب إزالة المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والذي يسعى إلى محاكاة وجوههم أو أصواتهم، وفق ما أعلنت المنصة.
وأوضحت المنصة في بيان لها، أن هذا الاختيار لإزالة مقاطع الفيديو سيتوفر في إعدادات الخصوصية في منصة يوتيوب، بهدف منع عمليات التزييف العميق باستخدام صوت ووجه أي من المستخدمين.
وذكرت أنه من المقرر أن ترتكز تعليمات الخصوصية في طلبات إزالة المقاطع على الطرف الأول المتأثر بهذه المقاطع مع بعض الاستثناءات، منها أن يكون الطرف الأول قاصراً، أو متوفى أو لا يمكنه الوصول إلى أجهزة الحاسب.
ولفتت في هذا السياق إلى أن عملية إزالة مقاطع الفيديو تخضع لشروط ومحددات، مثل إظهار المستخدم في محتوى إجرامي أو ساخر أو سياسي.
الجدير بالذكر أن مقاطع فيديو الذكاء الاصطناعي انتشرت بشكل كبير في الفترة الأخيرة على منصة يوتيوب عبر استخدام أصوات أو وجوه مشاهير.
وإذا تلقى موقع يوتيوب شكوى بشأن محتوى الذكاء الاصطناعي الذي طُلب منه إزالته، فسوف يمنح الشخص الذي قام بتحميل المحتوى 48 ساعة للتصرف بشأن الشكوى.
وإذا تمت إزالة المحتوى قبل مرور 48 ساعة، فسيتم إغلاق الشكوى، و إذا لم تتم إزالته في غضون يومين، فسوف يراجع موقع يوتيوب الموقف.
ومن ثم ستتم إزالة مقطع فيديو، فسيتم إزالته تماماً من المنصة، وسيتم إزالة اسم الفرد ومعلوماته الشخصية من عنوان ووصف وعلامات الفيديو.
وبينما يمكن للمستخدمين أيضاً طمس وجوه الأشخاص في مقاطع الفيديو الخاصة بهم، فإن جعل الفيديو خاصاً لا يعني أنه يتوافق مع طلب الإزالة، حيث يمكن إعادة الفيديو الخاص إلى فيديو عام في أي وقت، كما أن مجرد تصنيف مقطع فيديو على أنه محتوى ذكاء اصطناعي، لا يعني أنه لن يتم إزالته إذا لم يستوف إرشادات مجتمع يوتيوب.
المصدر: بوابة الوفد
كلمات دلالية: يوتيوب الذكاء الاصطناعي اعدادات الخصوصية عمليات التزييف مقاطع فيديو الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.