دعوى قضائية ضد Microsoft وOpenAI لسرقة ملايين المقالات
تاريخ النشر: 1st, May 2024 GMT
رفعت مجموعة من الصحف بما في ذلك Chicago Tribune وNew York Daily News وOrlando Sentinel، دعوى قضائية ضد Microsoft وOpenAI، وفقًا لما أوردته The Verge.
تتهم الصحف الثمانية في هذه الدعوى القضائية، المملوكة جميعها لشركة Alden Capital Group (ACG)، الشركات بـ "سرقة الملايين" من مقالاتها المحمية بحقوق الطبع والنشر دون إذن ودون مقابل لتغذية تسويق منتجات الذكاء الاصطناعي التوليدية الخاصة بها، بما في ذلك ChatGPT ومساعد الطيار.
هذه ليست سوى أحدث دعوى قضائية مرفوعة ضد Microsoft وOpenAI لاستخدامهما مواد محمية بحقوق الطبع والنشر دون موافقة صريحة من الناشرين. كما رفعت صحيفة نيويورك تايمز دعوى قضائية ضد الشركات في أواخر العام الماضي، زاعمة أنها استخدمت "ما يقرب من قرن من المحتوى المحمي بحقوق الطبع والنشر".
وقالت الصحيفة إن منتجاتها يمكن أن تكرر مقالات التايمز حرفيا ويمكن أن "تحاكي أسلوبها التعبيري"، على الرغم من عدم وجود اتفاقية ترخيص مسبقة. وفي اقتراح يسعى إلى رفض الأجزاء الرئيسية من الدعوى القضائية، اتهمت مايكروسوفت صحيفة التايمز بعلم مستقبل يوم القيامة من خلال الادعاء بأن الذكاء الاصطناعي التوليدي يمكن أن يشكل تهديدًا للصحافة المستقلة.
تشكو صحف ACG من نفس الشيء، وهو أن روبوتات الدردشة الخاصة بالشركات تعيد إنتاج مقالاتها كلمة بكلمة بعد وقت قصير من نشرها دون رابط واضح للمصادر. وقد أدرجوا عدة أمثلة في شكواهم. بالإضافة إلى ذلك، يبدو أن روبوتات الدردشة تعاني من الهلوسة وتنسب تقارير غير دقيقة إلى منشورات ACG.
وجادل الناشر بأن المدعى عليهم يدفعون ثمن أجهزة الكمبيوتر والرقائق المتخصصة والكهرباء التي يستخدمونها لبناء وتشغيل منتجات الذكاء الاصطناعي التوليدية الخاصة بهم. ومع ذلك، فهم يستخدمون مقالات محمية بحقوق الطبع والنشر "دون إذن ودون دفع مقابل الامتياز" على الرغم من أنهم بحاجة إلى محتوى لتدريب نماذجهم اللغوية الكبيرة.
وأشار المدعون إلى اعتراف OpenAI السابق بأنه سيكون "من المستحيل تدريب نماذج الذكاء الاصطناعي الرائدة اليوم دون استخدام مواد محمية بحقوق الطبع والنشر".
وقال المدعون إن شركة OpenAI لم تعد شركة غير ربحية، وتبلغ قيمتها الآن 90 مليار دولار. وفي الوقت نفسه، أضاف ChatGPT وCopilot "مئات المليارات من الدولارات إلى القيمة السوقية لشركة Microsoft".
تسعى المنشورات للحصول على مبلغ غير محدد كتعويض عن الأضرار وتطلب من المحكمة أن تأمر المدعى عليهم بتدمير نماذج GPT وLLM التي تستخدم موادها.
المصدر: بوابة الوفد
كلمات دلالية: التايمز الذكاء الاصطناعي الذكاء الاصطناعي التوليدي روبوتات الدردشة الذکاء الاصطناعی دعوى قضائیة
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.