بوابة الوفد:
2025-03-16@19:37:17 GMT

OpenAI يستخدم محتوى Wired وVogue في ردود ChatGPT

تاريخ النشر: 21st, August 2024 GMT

أعلنت Condé Nast، وهي مجموعة إعلامية تمتلك منشورات مثل The New Yorker وVogue وWired، عن شراكة متعددة السنوات مع OpenAI لعرض محتوى من عناوين Condé Nast في ChatGPT بالإضافة إلى SearchGPT، محرك البحث الأولي للشركة الذي يعمل بالذكاء الاصطناعي.

 تأتي الشراكة وسط مخاوف متزايدة بشأن الاستخدام غير المصرح به لمحتوى الناشرين من قبل شركات الذكاء الاصطناعي.

في الشهر الماضي، أرسلت Condé Nast خطابًا لوقف وكف إلى شركة Perplexity الناشئة في مجال البحث بالذكاء الاصطناعي، متهمة إياها بالسرقة الأدبية لاستخدام محتواها لتوليد الإجابات.

كتب الرئيس التنفيذي لشركة Condé Nast، روجر لينش، إلى الموظفين في مذكرة تم الإبلاغ عنها لأول مرة من قبل ماكس تاني من Semafor: "على مدار العقد الماضي، واجهت وسائل الإعلام الإخبارية والرقمية تحديات كبيرة حيث أدت العديد من شركات التكنولوجيا إلى تآكل قدرة الناشرين على تحقيق الدخل من المحتوى، ومؤخرًا باستخدام البحث التقليدي". "بدأت شراكتنا مع OpenAI في تعويض بعض هذه الإيرادات، مما يسمح لنا بمواصلة حماية صحافتنا ومساعينا الإبداعية والاستثمار فيها". ليس من الواضح مقدار الأموال التي ستدفعها OpenAI لشركة Condé Nast مقابل الشراكة.

تجعل هذه الخطوة شركة Condé Nast أحدث شركة في سلسلة متنامية من الناشرين الذين أبرموا صفقات مع OpenAI. وتشمل هذه News Corp وVox وThe Atlantic وTIME وAxel Springer وغيرها. ولكن ليس الجميع على متن الفكرة. في العام الماضي، رفعت صحيفة نيويورك تايمز دعوى قضائية ضد OpenAI لاستخدام معلومات من مقالات الناشر في ردود ChatGPT.

كان لينش صريحًا بشأن هذه المخاوف. في يناير، حذر من أن "العديد" من شركات الإعلام قد تواجه الخراب المالي بحلول الوقت الذي قد يستغرقه انتهاء الدعاوى القضائية ضد شركات الذكاء الاصطناعي، ودعا الكونجرس إلى اتخاذ "إجراءات فورية" وتوضيح أن شركات الذكاء الاصطناعي يجب أن تعوض الناشرين عن التدريب والإنتاج إذا استخدموا محتواهم. في وقت سابق من هذا الشهر، قدم ثلاثة أعضاء في مجلس الشيوخ قانون COPIED ACT، وهو مشروع قانون يهدف إلى حماية الصحفيين والفنانين من قيام شركات الذكاء الاصطناعي بنسخ محتواهم دون إذنهم.

تخطط شركة Perplexity، التي اتهمتها مؤخرًا مجلة Forbes وWired بسرقة المحتوى، الآن لتقاسم جزء من عائدات الإعلان المحتملة مع الناشرين الذين يسجلون في برنامج الناشرين الذي تم إطلاقه حديثًا.

المصدر: بوابة الوفد

كلمات دلالية: شرکات الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • شركة صينية تطلق نموذجين للذكاء الاصطناعي
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر
  • الجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصي
  • الصين تدخل الذكاء الاصطناعي إلى مناهج الابتدائية