دعوى قضائية ضد OpenAI وMicrosoft لانتهاك حقوق الطبع والنشر
تاريخ النشر: 29th, February 2024 GMT
أفادت صحيفة The Verge أن المطالبات القانونية بدأت تتراكم ضد Microsoft وOpenAI، حيث رفعت ثلاثة مواقع إخبارية أخرى دعوى قضائية ضد الشركتين بسبب انتهاك حقوق الطبع والنشر. رفعت The Intercept وRaw Story وAlterNet دعاوى قضائية منفصلة تتهم فيها ChatGPT بإعادة إنتاج محتوى إخباري "حرفيًا أو شبه حرفي" مع حذف الإسناد المهم مثل اسم المؤلف.
وقالت المواقع، التي تمثلها جميعها نفس شركة المحاماة، إنه إذا تدرب موقع ChatGPT على مواد محمية بحقوق الطبع والنشر، فإنه "كان سيتعلم توصيل تلك المعلومات عند تقديم الردود". أضافت Raw Story وAlterNet أن OpenAI وMicrosoft يجب أن يكونا على علم بأن برنامج الدردشة الآلي سيكون أقل شعبية ويولد إيرادات أقل إذا "اعتقد المستخدمون أن استجابات ChatGPT تنتهك حقوق الطبع والنشر الخاصة بطرف ثالث."
تشير المؤسسات الإخبارية في الدعوى القضائية إلى أن OpenAI تقدم نظام إلغاء الاشتراك لأصحاب مواقع الويب، مما يعني أن الشركة يجب أن تكون على دراية بالانتهاكات المحتملة لحقوق الطبع والنشر. وقالت Microsoft وOpenAI أيضًا إنهما سيدافعان عن العملاء ضد المطالبات القانونية المتعلقة بانتهاك حقوق الطبع والنشر التي قد تنشأ عن استخدام منتجاتهم، وحتى دفع التكاليف المتكبدة.
في أواخر العام الماضي، رفعت صحيفة نيويورك تايمز دعوى قضائية ضد شركتي OpenAI وMicrosoft بسبب انتهاك حقوق الطبع والنشر، قائلة إنها "تسعى إلى تحميلهما المسؤولية عن الأضرار القانونية والفعلية التي تقدر بمليارات الدولارات". طلبت OpenAI من المحكمة رفض هذا الادعاء، قائلة إن صحيفة نيويورك تايمز استفادت من خطأ ChatGPT الذي جعلها تقرأ المقالات كلمة بكلمة.
تواجه الشركات أيضًا دعاوى قضائية من العديد من المؤلفين غير الروائيين الذين يتهمونهم بـ "السرقة الجماعية والمتعمدة للأعمال المحمية بحقوق الطبع والنشر"، ومن قبل الممثلة الكوميدية سارة سيلفرمان بسبب ادعاءات مماثلة.
المصدر: بوابة الوفد
كلمات دلالية: حقوق الطبع والنشر
إقرأ أيضاً:
نماذج OpenAI الجديدة للذكاء الاصطناعي تُخطئ و«تهلوس» عند التفكير والتحليل
رغم الضجة حول قوة نماذج الذكاء الاصطناعي الجديدة من OpenAI، وهما o3 و o4-mini، فإن تقارير فنية كشفت عن مفارقة غير متوقعة، حيث ثوبت أن هذه النماذج تهلوس أكثر من سابقتها ،أي أنها تقدم معلومات غير صحيحة أو ملفقة بمعدل أعلى من النماذج الأقدم مثل o1 و o3-mini.
ما هي "الهلوسة" في الذكاء الاصطناعي؟في سياق نماذج الذكاء الاصطناعي، يشير مصطلح "الهلوسة" إلى إنتاج معلومات غير دقيقة أو مختلقة ، مثل تقديم روابط غير موجودة، أو نسب أحداث لأشخاص لم تحدث، أو حتى الادعاء بتنفيذ عمليات لم تحدث أصلًا.
وبحسب اختبارات داخلية أجرتها OpenAI، فإن، نموذج o3 هلوس في 33% من الأسئلة في اختبار داخلي يسمى PersonQA، ضعف معدل الهلوسة في o1 و o3-mini.
أما نموذج o4-mini، فكانت النتائج أسوأ، بهلوسة في 48% من الأسئلة.
لا تعرف شركة OpenAI السبب الدقيق لهذه الزيادة في معدل الهلوسة،
ففي تقريرها الفني، أشارت إلى أن "هناك حاجة إلى مزيد من الأبحاث لفهم السبب وراء تفاقم الهلوسات عند توسيع نطاق النماذج المنطقية reasoning models".
ورغم أن o3 و o4-mini حققا أداءً ممتازًا في مهام الترميز والرياضيات، إلا أن زيادة عدد الادعاءات الكلية التي تنتجها النماذج أدى بدوره إلى ارتفاع عدد الادعاءات الخاطئة أيضًا، بحسب التقرير.
نتائج تحقيق خارجياختبارات مستقلة أجراها مختبر Transluce البحثي غير الربحي كشفت أن نموذج o3 لا يكتفي بتقديم معلومات خاطئة، بل يختلق إجراءات لم تحدث أصلاً.
في إحدى الحالات، ادعى o3 أنه قام بتشغيل كود على جهاز MacBook Pro ثم نقل الأرقام إلى جوابه، في حين أن النموذج لا يمتلك تلك الإمكانيات أصلاً.
أرجع Neil Chowdhury، الباحث في Transluce والموظف السابق في OpenAI، الظاهرة إلى أن طريقة التعلم بالتعزيز المستخدمة في نماذج o-series قد تضخم مشكلات كان يتم الحد منها في نماذج أخرى عبر تقنيات ما بعد التدريب.
تطبيقات عمليةرغم المشكلات، أشار خبراء مثل Kian Katanforoosh، أستاذ مساعد بجامعة ستانفورد ومدير شركة Workera الناشئة، إلى أن فريقه يستخدم o3 في سير عمل الترميز واعتبره متفوقًا على المنافسين.
لكنهم لاحظوا أن النموذج يهلوس روابط ويب مكسورة، حيث يقترح روابط تبدو واقعية ولكنها لا تعمل فعليًا.
تُعد إضافة ميزة البحث المباشر على الإنترنت إحدى الحلول المطروحة لتقليل الهلوسة، حيث سجل GPT-4o المزود بالبحث دقة بلغت 90% في اختبار SimpleQA، وفقًا لـ OpenAI.
لكن الاعتماد على بحث خارجي يعني أن المستخدم يجب أن يقبل بمشاركة محتوى الاستعلامات مع محركات بحث طرف ثالث، وهو ما قد يثير تحفظات تتعلق بالخصوصية.
رغم أن التركيز الحالي في صناعة الذكاء الاصطناعي يتحول نحو "نماذج التفكير والاستدلال" (reasoning models) باعتبارها أكثر كفاءة من النماذج التقليدية، فإنها تبدو أكثر عرضة للهلوسة.
وهذا ما يجعل مسألة تحسين دقة النماذج أكثر إلحاحًا من أي وقت مضى، خاصة في القطاعات الحساسة مثل القانون، الصحة، والإعلام، حيث قد تؤدي الهلوسة إلى عواقب كارثية.