كشف تقرير نشرته "بلومبيرغ" أن صناع المحتوى على منصات مثل يوتيوب وإنستجرام وتيك توك بدأوا في بيع مقاطع الفيديو غير المستخدمة لشركات الذكاء الاصطناعي، في خطوة تهدف إلى تدريب خوارزميات الذكاء الاصطناعي بمحتوى حصري، مع تحقيق عوائد مالية إضافية للمبدعين.


وفقًا للتقرير، تقوم شركات مثل "أوبن إي آي"، جوجل، و"Moonvalley" بشراء هذه المقاطع غير المنشورة، التي تُعتبر ذات قيمة عالية لأنها لم تُعرض على الإنترنت من قبل.

يتم استخدام هذه المواد لتطوير نماذج ذكاء اصطناعي أكثر كفاءة، ويصل سعر الدقيقة الواحدة إلى ما بين 1 و4 دولارات، مع زيادات ملحوظة عند تقديم مقاطع بجودة أعلى مثل 4K أو تلك التي تتضمن لقطات مبتكرة مثل التصوير بالطائرات بدون طيار أو الرسومات ثلاثية الأبعاد.  

 

 




 

فرصة جديدة لصناع المحتوى  


يتيح بيع المقاطع غير المستخدمة لصناع المحتوى فرصة لتنويع مصادر دخلهم بعيدًا عن الإعلانات والرعاية التجارية التقليدية.

كثير من صناع المحتوى يصورون ساعات طويلة من الفيديو أثناء إنشاء محتواهم، لكن نسبة كبيرة منه لا يتم نشرها، مما يجعلها مصدرًا غير مستغل يمكن تحويله إلى أرباح.  

في بيان لشركة "Moonvalley"، التي تُعد واحدة من الشركات الرائدة في هذا المجال، أكدت أن غالبية بيانات التدريب تأتي مباشرة من صناع المحتوى والمخرجين الذين يرغبون في ترخيص مقاطع الفيديو الخاصة بهم.  


اقرأ أيضاً.. "أوبن إي آي" تتيح ميزة جديدة على واتساب


 

 

 

تحديات قانونية وانتقادات  


أشار التقرير إلى أن شركات الذكاء الاصطناعي تواجه انتقادات واسعة بسبب استخدامها محتوى منشور على الإنترنت دون الحصول على إذن أو تعويض المبدعين. وقد شجع خبراء في هذا المجال، مثل دان ليفيت من شركة "Wasserman" التي تمثل العديد من صناع المحتوى، على توقيع عقود ترخيص قانونية لضمان حقوق المبدعين وحمايتهم من الاستخدام غير المشروع لمحتواهم.  

أخبار ذات صلة ميزة جديدة في شات جي بي تي تتيح جدولة التذكيرات والمهام المتكررة انطلاق "أسبوع أبوظبي للاستدامة 2025"

كما تضمنت معظم العقود الموقعة مع شركات الذكاء الاصطناعي بنودًا تمنع هذه الشركات من إنشاء نسخ رقمية لصناع المحتوى أو استخدام اللقطات بطرق قد تضر بسمعتهم.  



اقرا أيضاً.. إيلون ماسك: عصر البيانات الحقيقية في الذكاء الاصطناعي يوشك على النهاية

 

 

 

سوق سريع النمو

 

وفقًا للتقرير، تعمل شركات مثل "Troveo AI" على تسهيل هذه الصفقات من خلال إدارة حقوق آلاف الساعات من الفيديو، حيث دفعت أكثر من 5 ملايين دولار لصناع المحتوى حتى الآن.

 

ومع ذلك، يرى الخبراء أن هذه الفرصة قد تكون مؤقتة، حيث سيقل الطلب على المحتوى الحصري بمجرد تطوير أنظمة الذكاء الاصطناعي بالشكل المطلوب.  




حماية العلامة الشخصية  



اختتم التقرير بتحذير من ضرورة ضمان حماية العلامات الشخصية لصناع المحتوى. وأكد أندرو غراهام، مدير الشراكات في وكالة "Creative Artists Agency"، أن الهدف الأساسي هو تحقيق تعويض عادل للمبدعين مع حماية سمعتهم وعدم تعريض علاماتهم الشخصية لأي ضرر.


 

هذا التقرير يعكس تغيرات جوهرية في العلاقة بين صناع المحتوى والتكنولوجيا الحديثة، حيث يوفر لهم سوق الذكاء الاصطناعي فرصة للاستفادة من محتواهم بطرق جديدة ومربحة.

المصدر: وكالات

المصدر: صحيفة الاتحاد

كلمات دلالية: تشات جي بي تي صناع المحتوى أوبن إي آي يوتيوب تيك توك الذكاء الاصطناعي جوجل إنستجرام شرکات الذکاء الاصطناعی لصناع المحتوى صناع المحتوى

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • الصدر يعلق على استخدام الذكاء الاصطناعي
  • الذكاء الاصطناعي يفك لغزاً علمياً استعصى على العلماء لعقد كامل
  • الصين تضع لوائح تنظم المحتوى المُنشَأ بالذكاء الاصطناعي
  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر