هل يستفيد يوتيوب من الذكاء الاصطناعي في الموسيقى دون عناء حقوق النشر
تاريخ النشر: 21st, August 2023 GMT
أصبح موقع YouTube سريعًا موطنًا للموسيقى التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، وتحاول الخدمة تحقيق توازن بين عشاق التكنولوجيا والشركات التي تتوق إلى حماية حقوق النشر الخاصة بهم. كشفت الشركة وشركاؤها مثل Universal Music Group (UMG) عن مجموعة من المبادئ لموسيقى الذكاء الاصطناعي. من الناحية النظرية ، يشجع هذا النهج على التبني مع الحفاظ على رواتب الفنانين.
للبدء ، يؤكد موقع YouTube أن "الذكاء الاصطناعي موجود هنا" وأنه يجب أن يكون لديه استراتيجية "مسؤولة". وفقًا لذلك ، يتم تشكيل حاضنة الذكاء الاصطناعي للموسيقى والتي ستؤثر على استراتيجية الشركة. ستساعد UMG والفنانين الذين تمثلهم (بما في ذلك Rosanne Cash و Yo Gotti و Frank Sinatra's Estate) في جمع الأفكار من تجارب الذكاء الاصطناعي على YouTube.
يقول موقع YouTube أيضًا أن موسيقى الذكاء الاصطناعي يجب أن تتضمن "الحماية المناسبة" ضد انتهاكات حقوق النشر ، كما يجب أن توفر "الفرص" للشركاء الذين يرغبون في المشاركة. على الرغم من أن شركة الفيديو العملاقة لم توضح بالتفصيل ما سيترتب على ذلك ، إلا أنها تشير إلى أنها ستبني على نظام معرف المحتوى الذي يساعد أصحاب الحقوق في الإبلاغ عن موادهم. علاوة على ذلك ، يزعم موقع YouTube أنه سيوسع سياسات المحتوى وهيكل الأمان للتكيف مع الذكاء الاصطناعي. تمتلك الشركة بالفعل أنظمة للقبض على انتهاك حقوق النشر والمعلومات الخاطئة وغيرها من الانتهاكات ، لكنها تعتزم ضخ المزيد من الموارد في هذه الأساليب.
المبادئ غامضة حاليًا ولا تفعل الكثير لتغيير موقف YouTube. من المقرر تقديم مزيد من التفاصيل في الأشهر المقبلة ، بما في ذلك السياسات والتقنيات الخاصة وتحقيق الدخل لمنشئي المحتوى.
تزداد شعبية الذكاء الاصطناعي التوليدي في عمليات التعاون والمزج غير المصرح بها (بما في ذلك فناني UMG مثل دريك وفرانك سيناترا) ، ولكنه يجد أيضًا استخدامات مشروعة. يستخدم أعضاء فرقة البيتلز الباقون على قيد الحياة الذكاء الاصطناعي لإنشاء أغنية "نهائية" من تسجيل جون لينون ، بينما غطت الفنانة الإلكترونية هولي هيرندون دوللي بارتون باستخدام صوت AI. UMG نفسها تستكشف مقاطع صوتية مصنوعة من الذكاء الاصطناعي. يمكن أن تساعد مبادئ YouTube في الاستفادة من المنتجات القانونية مع تفادي الدعاوى القضائية من الفنانين والعلامات التي تشعر بالقلق من عمليات الاحتيال.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی حقوق النشر
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.