أصبح من الصعب مواكبة الدعاوى القضائية المتعلقة بحقوق الطبع والنشر ضد الذكاء الاصطناعي التوليدي، مع رفع دعوى جماعية جديدة مقترحة إلى المحاكم الأسبوع الماضي. هذه المرة، رفع المؤلفون دعوى قضائية ضد شركة NVIDIA بسبب منصة الذكاء الاصطناعي NeMo، وهو نموذج لغة يسمح للشركات بإنشاء وتدريب روبوتات الدردشة الخاصة بها، حسبما أفاد Ars Technica.

يزعمون أن الشركة قامت بتدريبها على مجموعة بيانات مثيرة للجدل استخدمت كتبهم بشكل غير قانوني دون موافقة.

طالب المؤلفون عبدي ناظميان وبريان كين وستيوارت أونان بمحاكمة أمام هيئة محلفين وطلبوا من NVIDIA دفع تعويضات وتدمير جميع نسخ مجموعة بيانات Books3 المستخدمة لتشغيل نماذج اللغات الكبيرة NeMo (LLMs). يزعمون أن مجموعة البيانات نسخت مكتبة ظل تسمى Bibliotek تتكون من 196640 كتابًا مقرصنة.

وجاء في المطالبة: "باختصار، اعترفت NVIDIA بتدريب نماذج NeMo Megatron الخاصة بها على نسخة من مجموعة بيانات The Pile". "لذلك، قامت NVIDIA بالضرورة أيضًا بتدريب نماذج NeMo Megatron الخاصة بها على نسخة من Books3، لأن Books3 جزء من The Pile. بعض الكتب التي كتبها المدعين هي جزء من Books3 - بما في ذلك الأعمال المنتهكة - وبالتالي قامت NVIDIA بالضرورة بتدريب نماذج NeMo Megatron الخاصة بها على نسخة أو أكثر من الأعمال المخالفة، مما يشكل انتهاكًا مباشرًا لحقوق الطبع والنشر للمدعين.

ردًا على ذلك، قالت NVIDIA لصحيفة وول ستريت جورنال: "نحن نحترم حقوق جميع منشئي المحتوى ونعتقد أننا أنشأنا NeMo مع الامتثال الكامل لقانون حقوق الطبع والنشر".

في العام الماضي، تعرضت شركتا OpenAI وMicrosoft لدعوى قضائية بشأن حقوق الطبع والنشر من مؤلفين غير روائيين، زاعمين أن الشركتين كسبت أموالاً من أعمالهما لكنها رفضت دفعها. وتم إطلاق دعوى قضائية مماثلة في وقت سابق من هذا العام. هذا بالإضافة إلى دعوى قضائية رفعتها مؤسسات إخبارية مثل The Intercept وRaw Story، وبالطبع الإجراء القانوني الذي بدأ كل هذا من صحيفة نيويورك تايمز.

المصدر: بوابة الوفد

كلمات دلالية: حقوق الطبع والنشر دعوى قضائیة الخاصة بها بها على

إقرأ أيضاً:

DeepMind تقلب الموازين.. الذكاء الاصطناعي بحاجة لتجربة لا إلى تدريب فقط

يشهد عالم الذكاء الاصطناعي مؤخرًا تحولًا كبيرًا في فهم كيفية تطوير النماذج الذكية، حيث لم تعد اختبارات مثل "اختبار تورينج" الشهيرة كافية لقياس التقدم الحقيقي. 

فبينما تدّعي بعض النماذج تجاوز هذا الاختبار، يزداد الجدل حول ما إذا كانت هذه النماذج مصممة فقط لتحقيق نتائج جيدة في الاختبارات، وليس لتحقيق ذكاء حقيقي ومستدام.

تدريب الذكاء الاصطناعي محدودة وثابتة

لكن وفقًا لعلماء في وحدة DeepMind التابعة لشركة Google، فإن المشكلة لا تكمن في الاختبارات نفسها، بل في طريقة تطوير النماذج ذاتها، حيث يشيرون إلى أن البيانات المستخدمة لتدريب الذكاء الاصطناعي "محدودة وثابتة"، ولن تقود هذه النماذج إلى قدرات جديدة ومتقدمة.

وفي ورقة بحثية حديثة نشرتها DeepMind، ضمن كتاب مرتقب عن دار نشر MIT Press، يقترح العالمان الشهيران "ديفيد سيلفر" و"ريتشارد ساتون" أن الذكاء الاصطناعي يجب أن يُمنح نوعًا من "الخبرات التفاعلية"، ليتمكن من التفاعل مع العالم ووضع أهداف خاصة به بناءً على إشارات من البيئة المحيطة.

جوجل توضح : ميزة إعادة التشغيل التلقائي للحماية على أندرويد لم تبدأضربة مدوية لـ جوجل.. حكم قضائي يمهد لتفكيك إمبراطورية الإعلاناتبداية نهاية هيمنة عملاق التكنولوجيا.. القضاء الأمريكي يدين جوجل باحتكار سوق الإعلانات الرقمية4 مزايا مخفية في خرائط جوجل.. إليك كيفية استخدامهاجوجل تتيح ميزة مشاركة الشاشة والكاميرا في Gemini مجاناجوجل تطلق نموذج Veo 2 لتحويل النصوص إلى فيديوهات سينمائيةDolphinGemma .. الذكاء الاصطناعي من جوجل يحاول فك شيفرة لغة الدلافينلمنافسة ميتا.. جوجل تطور نسختها من النظارات المدعومة بالذكاء الاصطناعيالتعلم التعزيزي

وكتب الباحثان في ورقتهما المعنونة "مرحبًا بكم في عصر التجربة و القدرات المذهلة ستظهر بمجرد استغلال الإمكانات الكاملة للتعلم التجريبي".

الجدير بالذكر أن سيلفر هو العقل المدبر وراء AlphaZero، نموذج الذكاء الاصطناعي الذي تفوق على البشر في ألعاب الشطرنج وGo، بينما يعتبر ساتون أحد مطوري منهجية "التعلم التعزيزي" (Reinforcement Learning) الحاصلة على جائزة تورينج، والتي كانت أساسًا في تطوير AlphaZero.

ويقوم النهج الجديد الذي يدعوان إليه، والذي أطلقا عليه اسم "Streams"، على تطوير الذكاء الاصطناعي بما يتجاوز قدرات نماذج اللغة الحالية (LLMs) مثل ChatGPT، والتي تقتصر في جوهرها على الرد على أسئلة المستخدمين.

الذكاء الاصطناعي التوليدي

ويشير الباحثان إلى أن الانتقال من AlphaGo وAlphaZero إلى نماذج الذكاء الاصطناعي التوليدي (Gen AI) مثل ChatGPT، كان بمثابة تخلٍ عن التعلم التعزيزي، وهو ما وفر قدرات واسعة في التفاعل مع المستخدمين، لكنه تسبب في فقدان "قدرة النموذج على اكتشاف المعرفة ذاتيًا".

حُكم المستخدم

فبينما تعتمد النماذج التوليدية الحالية على "حُكم المستخدم" في صياغة الأسئلة أو التعليمات، فإن هذا النهج، حسب وصف الباحثين، "يفرض سقفًا لا يمكن للنموذج تجاوزه، لأنه لا يستطيع استكشاف استراتيجيات جديدة لم يقدّرها المستخدم أصلاً".

يعد هذا الطرح دعوة لإعادة التفكير في مستقبل الذكاء الاصطناعي، والتركيز على نماذج قادرة على التعلُّم الذاتي من خلال التجربة، وليس فقط من خلال التدريب التقليدي على بيانات قديمة.

مقالات مشابهة

  • جامعة هارفارد ترفع دعوى قضائية ضد تخفيضات ترامب في ميزانيتها
  • جامعة هارفارد ترفع دعوى قضائية ضد ترامب
  • رفع دعوى قضائية ضد شركة أوبر
  • دعوى قضائية جديدة لتنفيذ حكم ضد ورثة الموسيقار حلمي بكر لسداد 3 ملايين جنيه
  • “إكس” تتيح إنشاء التطبيقات بالذكاء الاصطناعي
  • تسلا تواجه دعوى قضائية بتهمة التلاعب بعداد المسافة تهربا من تكاليف الإصلاح
  • DeepMind تقلب الموازين.. الذكاء الاصطناعي بحاجة لتجربة لا إلى تدريب فقط
  • نماذج OpenAI الجديدة للذكاء الاصطناعي تُخطئ و«تهلوس» عند التفكير والتحليل
  • في حوار خاص مع "الفجر".. د. أكرم حسن: نعيد صياغة التعليم بالذكاء الاصطناعي والمعلم سيظل الركيزة الأساسية
  • الإعلانات مفبركة بالذكاء الاصطناعي.. أول رد من الدكتور جودة عواد على قرار غلق عيادته