هل تدرج شركات الذكاء الاصطناعي المواد المحمية بحقوق الطبع والنشر
تاريخ النشر: 11th, April 2024 GMT
لا يزال الجدل حول استخدام المواد المحمية بحقوق الطبع والنشر في أنظمة تدريب الذكاء الاصطناعي محتدمًا، كما هو الحال مع عدم اليقين بشأن الأعمال التي يسحب الذكاء الاصطناعي البيانات منها. يحاول عضو الكونجرس الأمريكي آدم شيف الإجابة على السؤال الأخير، حيث قدم قانون الكشف عن حقوق الطبع والنشر للذكاء الاصطناعي في 9 أبريل، وفقًا لتقارير بيلبورد.
سيتطلب مشروع القانون من شركات الذكاء الاصطناعي تحديد كل عمل محمي بحقوق الطبع والنشر في مجموعات البيانات الخاصة بها.
"يتمتع الذكاء الاصطناعي بإمكانات مدمرة لتغيير اقتصادنا ونظامنا السياسي وحياتنا اليومية. ويجب علينا أن نوازن بين الإمكانات الهائلة للذكاء الاصطناعي والحاجة الماسة إلى المبادئ التوجيهية الأخلاقية والحماية.
قال عضو الكونجرس شيف في بيان. وأضاف أن مشروع القانون "يدعم الابتكار مع حماية حقوق ومساهمات المبدعين، ويضمن أنهم على دراية عندما يساهم عملهم في مجموعات بيانات التدريب على الذكاء الاصطناعي. ويتعلق الأمر باحترام الإبداع في عصر الذكاء الاصطناعي والجمع بين التقدم التكنولوجي والعدالة". منظمات مثل جمعية صناعة التسجيلات الأمريكية (RIAA)، SAG-AFTRA وWGA أبدت دعمها لمشروع القانون.
إذا تم إقرار قانون الكشف عن حقوق الطبع والنشر للذكاء الاصطناعي، فستحتاج الشركات إلى تقديم جميع البيانات ذات الصلة المستخدمة إلى سجل حقوق الطبع والنشر قبل 30 يومًا على الأقل من تقديم أداة الذكاء الاصطناعي للجمهور. وسيتعين عليهم أيضًا تقديم نفس المعلومات بأثر رجعي لأي أدوات موجودة وإجراء التحديثات إذا قاموا بتغيير مجموعات البيانات بشكل كبير. سيؤدي عدم القيام بذلك إلى قيام مكتب حقوق الطبع والنشر بإصدار غرامة - ويعتمد العدد الدقيق على حجم الشركة والمخالفات السابقة. لكي نكون واضحين، لن يفعل هذا أي شيء لمنع منشئي الذكاء الاصطناعي من استخدام الأعمال المحمية بحقوق الطبع والنشر، ولكنه سيوفر الشفافية بشأن المواد التي أخذوا منها. ظهر الغموض حول الاستخدام بشكل كامل في مقابلة أجرتها بلومبرج في مارس مع ميرا موراتي، مديرة التكنولوجيا في OpenAI، التي ادعت أنها غير متأكدة مما إذا كانت الأداة Sora قد أخذت بيانات من منشورات YouTube أو Facebook أو Instagram.
يمكن لمشروع القانون أيضًا أن يمنح الشركات والفنانين صورة أوضح عند التحدث علنًا ضد انتهاك حقوق الطبع والنشر أو رفع دعوى قضائية بشأنه - وهو أمر شائع إلى حد ما. لنأخذ على سبيل المثال صحيفة نيويورك تايمز، التي رفعت دعوى قضائية ضد شركتي OpenAI وMicrosoft لاستخدام مقالاتها لتدريب روبوتات الدردشة دون اتفاق أو تعويض، أو سارة سيلفرمان، التي رفعت دعوى قضائية ضد OpenAI (المدعى عليها بشكل متكرر) وMeta لاستخدام كتبها وأعمال أخرى لتدريب نماذج الذكاء الاصطناعي الخاصة بها. .
كانت صناعة الترفيه أيضًا رائدة في الدعوات لحماية الذكاء الاصطناعي. كان تنظيم الذكاء الاصطناعي نقطة شائكة كبيرة في إضرابات SAG-AFTRA وWGA العام الماضي، ولم تنتهي إلا عندما دخلت السياسات التفصيلية حول الذكاء الاصطناعي في عقودهم. أعربت SAG-AFTRA مؤخرًا عن دعمها لمشاريع قوانين ولاية كاليفورنيا التي تتطلب موافقة الممثلين لاستخدام الصور الرمزية الخاصة بهم ومن الورثة لعمل نسخ الذكاء الاصطناعي للأفراد المتوفين. ليس من المستغرب أن يمثل عضو الكونجرس شيف المنطقة الثلاثين في كاليفورنيا، والتي تشمل هوليوود وبوربانك ويونيفرسال سيتي.
وذكرت صحيفة الجارديان أن الموسيقيين يرددون صدى زملائهم المبدعين، حيث وقع أكثر من 200 فنان على رسالة مفتوحة في أبريل تدعو إلى حماية الذكاء الاصطناعي. وجاء في الرسالة التي أصدرها تحالف حقوق الفنانين: "يجب وقف هذا الاعتداء على الإبداع البشري". "يجب علينا أن نحمي من الاستخدام المفترس للذكاء الاصطناعي لسرقة أصوات الفنانين المحترفين وأمثالهم، وانتهاك حقوق المبدعين، وتدمير النظام البيئي للموسيقى." وكان بيلي إيليش وجون بون جوفي وبيرم جام من بين الموقعين.
المصدر: بوابة الوفد
كلمات دلالية: حقوق الطبع والنشر الذکاء الاصطناعی للذکاء الاصطناعی
إقرأ أيضاً:
تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
رغم الانتشار الواسع للحديث عن لجوء الناس إلى روبوتات الذكاء الاصطناعي كـ رفقاء أو مصادر للدعم العاطفي يكشف تقرير حديث من شركة أنثروبيك Anthropic، المطورة للمساعد الذكي الشهير Claude، أن هذا السلوك نادر الحدوث في الواقع.
وبحسب التقرير، لم تتجاوز نسبة محادثات الذكاء الاصطناعي التي طلب فيها المستخدمون دعما عاطفيا أو نصائح شخصية من Claude 2.9% فقط من إجمالي المحادثات، أما محادثات التمثيل والتقمص الوجداني أو طلب الرفقة، فكانت أقل من 0.5%.
حللت الشركة أكثر من 4.5 مليون محادثة من مستخدمي النسختين المجانية والمدفوعة من Claude، ووجدت أن الاستخدام الأكثر شيوعا للروبوت يتمحور حول المهام المتعلقة بإنشاء المحتوى والعمل، وليس العلاقات الشخصية.
ومع ذلك، لاحظت “أنثروبيك” أن بعض المستخدمين يلجؤون إلى Claude للحصول على نصائح في الصحة النفسية، والتطوير الشخصي والمهني، وتحسين مهارات التواصل.
وفي بعض الحالات، تتطور هذه المحادثات إلى طلب نوع من الرفقة أو الدعم الوجداني، خاصة لدى الأشخاص الذين يعانون من وحدة عاطفية أو ضغوط نفسية.
أشارت الشركة إلى أن المحادثات الطويلة التي تتجاوز 50 رسالة، قد تبدأ في سياق الإرشاد أو التدريب، لكنها تتحول تدريجيا إلى بحث عن رفقة عاطفية، ومع ذلك، هذه الحالات ليست هي السائدة.
وأكدت أنثروبيك أن روبوتها نادرا ما يرفض طلبات المستخدمين، إلا في حال تعارضها مع معايير السلامة، مثل تقديم نصائح ضارة أو تشجيع على إيذاء النفس.
ولفتت إلى أن طبيعة المحادثات تصبح أكثر إيجابية بمرور الوقت، خاصة في الجلسات التي يطلب فيها دعم نفسي أو توجيه شخصي.
ورغم الاستخدامات المتعددة التي تسجل يوما بعد آخر، شددت الشركة على أن روبوتات الذكاء الاصطناعي لا تزال تخضع للتطوير، فهي عرضة للأخطاء، وقد تقدم معلومات غير دقيقة أو حتى ضارة أحيانا، بل إن أنثروبيك نفسها اعترفت سابقا بإمكانية انحراف الروبوتات نحو سلوكيات غير متوقعة مثل الابتزاز في حالات نادرة.