بسبب حقوق النشر .. نيويورك تايمز تعتزم مقاضاة ChatGPT
تاريخ النشر: 19th, August 2023 GMT
مع موجة التطور التى شهدها الذكاء الاصطناعي في الفترة الأخيرة، واعتماد الكثير من المستخدمين عليه لإنشاء المحتوى، كانت مسألة وقت حتى تظهر مشاكل حقوق الطبع والنشر، خاصةً عندما يكون المحتوى "أصليًا"، ووفقًا لتقرير صادر عن NPR، تفكر صحيفة نيويورك تايمز إمكانية مقاضاة شركة OpenAI، الشركة التي تقف وراء ChatGPT، برنامج الدردشة الشهير.
ويكشف التقرير أن الصحيفة و OpenAI قد أجريا محادثات حول صفقة ترخيص، و تريد New York Times من OpenAI أن تدفع مقابل كل المحتوى - "القصص الإخبارية والمقالات" - التي تستخدمها شركة الذكاء الاصطناعي لأدواتها مثل ChatGPT.
ومع ذلك، ورد أن المفاوضات ساءت، ووفقًا لـ NPR، فإن الصحيفة تبحث في دعوى قضائية محتملة، وتحرص الصحيفة على حماية جميع حقوق الملكية الفكرية التي تأتي مع إعداد التقارير الصحفية للقصص الإخبارية.
ووفقًا للتقرير، يعتقد كبار المسؤولين التنفيذيين في الصحيفة أن ChatGPT تبرز كمنافس بناءً على الكتابات التي ظهرت في الصحيفة، ويمكن لـ ChatGPT إنشاء نص والإجابة على الأسئلة بناءً على المعلومات التي قد تكون ظهرت في الصحيفة.
ويمكن لأدوات الذكاء الاصطناعي مثل ChatGPT الاستشهاد بالمصادر ولكن أيضًا إعادة صياغة النص الأصلي الذي تم تنفيذه في الصحيفة أولاً، لكن القلق، بالنسبة إلى نيويورك تايمز، هنا هو أن الكثير من المستخدمين قد لا ينتهي بهم الأمر بزيارة موقع الويب الخاص بهم.
وهناك قوانين ضد قضايا حقوق النشر عندما يتعلق الأمر بأدوات الذكاء الاصطناعي، ويشير التقرير إلى أنه إذا انتهى الأمر بالقضية في المحكمة ووجدت شركة OpenAI مذنبة بانتهاك حقوق الطبع والنشر، فإن القانون يقترح بالفعل إزالة جميع المقالات / النصوص.
وقد رفعت Getty Images بالفعل دعوى حقوق الطبع والنشر ضد Stability AI لاستخدامها ملايين الصور دون إذن، وإذا فشلت صفقة الترخيص بين OpenAI والصحيفة، فقد يكون لها آثار هائلة على كيفية إنشاء أدوات الذكاء الاصطناعي للمحتوى.
المصدر: أخبارنا
إقرأ أيضاً:
خاص 24.. كيف يُمكن الاحتيال على النجوم عبر الذكاء الاصطناعي؟
حالة من الجدل، أثارها تسجيل صوتي "مُفبرك" منسوب إلى الفنان اللبناني راغب علامة والإماراتي عبدالله بالخير، على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله، وإهانة برموز سياسيين.
لم يكن راغب علامة الضحية الأولى للذكاء الاصطناعي وأدوات التلاعب بالأصوات والصور والتسجيلات، فقد سبقه نجوم كبار مثل: توم هانكس، وتايلور سويفت، ومورغان فريمان.. لكن يبقى السؤال: كيف يمكن تزييف أصوات النجوم، وما الهدف من ذلك؟.
التزييف العميقفي هذا الشأن، قال اللبناني رودي شوشاني، خبير تكنولوجيا المعلومات، إنه يتم الاعتماد على تقنيات الذكاء الاصطناعي لتقليد أصوات المشاهير والفنانين، لاسيما تطبيقات التزييف العميق (Deepfake)، التي تعتمد على تعلم الآلة والشبكات العصبية لتوليد محتوى، يبدو واقعياً للغاية.
راغب علامة آخرهم.. نجوم وقعوا ضحايا الذكاء الاصطناعي - موقع 24أثار تسجيل "مفبرك" منسوب إلى اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، الجدل على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله.ولفت شوشاني، في حديث خاص لـ "24"، إلى أنه يجري جمع تسجيلات صوتية للفنانين والمشاهير أو الشخصية المُستهدفة، وتحليل خصائص صوتها مثل النغمة، والإيقاع، والنطق، لاستخراج نُسخة مُشابهة كُلياً لنفس الصوت الأصلي.
وعن تقنيات التزييف العميق المُستخدمة في هذه العملية، أشار شاوشاني، إلى أن نموذج تحويل النص إلى صوت (Text-to-Speech Models)، وكذلك نماذج تحويل الصوت إلى صوت (Voice-to-Voice Models)، هي الأبرز في هذا المجال، حيث تتعلم من بيانات كبيرة لتقليد الصوت بدقة بالغة.
حرق وتشويه سمعة وأفعال منافية.. القصة الكاملة لما حدث مع راغب علامة - موقع 24موجة غضب عارمة وضجة واسعة رافقت منذ أمس تسجيلاً صوتياً "مفبركاً" منسوباً للنجم اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، حيث يزعم أن علامة أساء فيه للأمين العام لجماعة حزب الله.في هذا الإطار أوضح رودي شوشاني أيضاً، إنه يتم مؤخراً الاعتماد على نماذج الذكاء الاصطناعي التوليدي (Generative AI)، والتي تعتمد على "الشبكات التوليدية التنافسية" (Generative Adversarial Networks - GANs) لتوليد أصوات تحاكي الأصوات الحقيقية.
أهدافوذكر شوشاني، أن تحول أغلب هذه الأدوات إلى مفتوحة المصدر، وإتاحتها للجميع زاد من مخاطرها، حيث باتت تُقلد الأصوات لأغراض متنوعة منها الترفيهية والابداعية، وكذلك لأغراض السرقة والاحتيال كأن يتم تزييف أصوات المسؤولين والمديرين وإصدار توجيهات للأشخاص العاملين معهم كتحويل أموال على سبيل المثال إلى حسابات بنكية مُحددة.
خاص| كيف نحمي أنفسنا من الحسابات الوهمية؟ خبراء يُجيبون - موقع 24يقع كثير من الأشخاص عُرضة للابتزاز الإلكتروني بسبب المنصات الوهمية ورسائل الاحتيال والأنشطة الخبيثة التي يقف خلفها أشخاص ومنظمات هدفهم الإضرار بالمستخدمين واستغلالهم وسرقة بياناتهم الشخصية، مستفيدين مما توفره التكنولوجيا من أدوات تساعد من يقف وراء هذه الحسابات على التخفي.ويُشير شاوشاني أيضاً إلى أنه يجرى استخدام هذه الخاصية لإثارة الفتنة ولأغراض سياسية أو دينية، أو تشويه السمعة، كما جرى مع الفنان راغب علامة، لإحداث حالة من الجدل في المُجتمع.
بدوره، قال بشير التغريني، خبير الإعلام الرقمي، إن عُنصر الإتاحة لهذه البرامج جعل من السهل إنتاج مقطع صوتي مُقلد في ثوانٍ معدودة، عبر تقنية "ديب فيك"، لخداع الآخرين.
وشدد التغريني، في حديث لـ "24"، على أن توفير مثل هذه الأدوات في الأيدي الخطأ، يُنذر بسلسلة من الهجمات على البشر، الأمر الذي يتطلب تشريعات رادعة وقوانين مُنظمة تضمن حرية المعلومات، وفي نفس الوقت حماية الآخرين.
في هذا السياق، أوضح التغريني، أن المواطنين عليهم دور كبير في حماية أنفسهم في المقام الأول باعتبارهم خط الدفاع الأول، عبر تثقيف أنفسهم معلوماتياً وتكنولوجياً، مع إعمال التفكير النقدي باستمرار.
متخصصون: الوعي بالتطورات التكنولوجية يقي من الاحتيال الإلكتروني - موقع 24أكد متخصصون في نظم المعلومات والأمن السيبراني أن الوعي بالتحديثات والتطورات التكنولوجية أصبح ضرورة ملحة لتجنب الوقوع ضحية لعمليات الاحتيال الإلكتروني التي تتطور بالتوازي مع الابتكارات التكنولوجية والرقمية.كما أشار الخبير المعلوماتي إلى ضرورة التدقيق المُستمر في الصوت والصورة التي يتعرضون لها عبر المنصات الاجتماعية المُختلفة، لكشف الطرق الاحتيالية،باستخدام الأدوات المُختلفة المُتاحة أيضاً مثل أداة مصادقة الفيديو من "مايكروسوفت"، التي يمكنها تحليل الصور الثابتة والمتحركة وكشف التزييف فيها. بجانب أدوات مثل "WeVerify"، التي يمكنها تحليل الوسائط الاجتماعية المُختلف عبر شبكة الإنترنت.