يتزايد عدد برامج الذكاء الاصطناعي بسرعة كبيرة في الآوانة الأخيرة، حيث تعمل الشركات على تطوير روبوتات الدردشة الخاصة بها والمدعمة بالذكاء الاصطناعي أو دمج قدراتها في خدماتها، ولكن هذه العملية أصعب بكثير مما تتخيل.

وذلك لأن تطوير نموذج الذكاء الاصطناعي لا يتطلب معرفة الأجهزة والبرمجيات فحسب، بل يتطلب أيضا تدريبه باستخدام مليارات المعلومات التي تم الحصول عليها من ملايين المصادر المختلفة.

ومع ذلك، فإن الوصول إلى هذه المعلومات لا يكون دائما سهلا ضمن الحدود القانونية، كما أوضحت الدعوى القضائية التي رفعتها صحيفة "نيويورك تايمز" ضد شركتي OpenAI مخترعة "تشات جي بي تي"، ومايكروسوفت، أبرز مستثمر فيها، بتهمة انتهاك حقوق الطبع والنشر.

نيويورك تايمز تتهم OpenAI ومايكروسوفت بشأن انتهاك حقوق الطبع والنشر

تدعي صحيفة "نيويورك تايمز" في الدعوي القضائية، أن الملايين من مقالاتها تم استخدامها دون إذن في تدريب نماذج اللغة مثل ChatGPT وMicrosoft Copilot، وإنهم قلقون بشأن التأثير على الصحافة لأن الذكاء الاصطناعي يمكنه إنشاء المحتوى بشكل أسرع بكثير من البشر.

وإذا استفاد الذكاء الاصطناعي من البيانات من منصات مثل صحيفة "نيويورك تايمز"، فقد يتسبب ذلك في ضرر مالي كبير لهذه المنشورات يقدر بملايين الدولارات.

وقالت المتحدثة باسم الصحيفة لوكالة "فرانس برس": "فإن مايكروسوفت وOpenAI استخدمتا عملنا لتطوير وتسويق منتجاتهما للذكاء الاصطناعي بدون إذن الصحيفة"، وتقدر الصحيفة الأضرار التي لحقت بها "بمليارات الدولارات".

وأضافت: "يعتمد الذكاء الاصطناعي التوليدي الخاص بالمتهمين على نماذج تعليمية ضخمة تم إنشاؤها عن طريق نسخ واستخدام الملايين من مقالات الصحيفة المحمية بحقوق الطبع والنشر".

وذكرت الشركة أنها اتصلت بكل من OpenAI ومايكروسوفت، في محاولة للتفاوض معهم من أجل تلقي تعويض مقابل استخدام مضمونها لكنها لم تتمكن من التوصل إلى اتفاق.

وعلى الرغم من التقدم الذي لا يمكن وقفه في تكنولوجيا الذكاء الاصطناعي، فإن صحيفة نيويورك تايمز محقة بشأن جوانب معينة، أولا، يعد استخدام المحتوى المحمي بحقوق الطبع والنشر لأغراض تجارية أمرا غير قانوني، وعلاوة على ذلك، يشكل المحتوى منخفض الجودة الذي أنشأه الذكاء الاصطناعي تهديدا حقيقيا للصحافة.

وفي حين أن محركات البحث مثل "جوجل" تعطي الأولوية للمحتوى الأصلي، فقد يكون من الصعب التمييز بين الذكاء الاصطناعي والمحتوى الذي يصنعه الإنسان، ويشكل الذكاء الاصطناعي تهديدا لمختلف المهن، حيث تبدو الصحافة واحدة من أكثر المهن عرضة للخطر، وبطبيعة الحال، فإن ما يخبئه المستقبل يظل غير مؤكد في الوقت الراهن. 

 

المصدر: أخبارنا

كلمات دلالية: الذکاء الاصطناعی نیویورک تایمز الطبع والنشر

إقرأ أيضاً:

اختراق أنظمة OpenAI.. هاكر يسرب معلومات حساسة حول تقنيات الذكاء الاصطناعي

تابع أحدث الأخبار عبر تطبيق

في تقرير حديث نشرته صحيفة نيويورك تايمز، تم الكشف عن تعرض شركة OpenAI لهجوم اختراق في مطلع عام 2023، حيث تمكن المخترق من الوصول إلى أنظمة المراسلة الداخلية وسرقة معلومات حساسة حول تقنيات الذكاء الاصطناعي الخاصة بالشركة. وأكدت الصحيفة أن OpenAI لم تقم بإبلاغ عملائها أو الجهات المعنية بهذا الاختراق، مكتفية بإعلام موظفيها فقط.

تفاصيل الاختراق

استطاع الهاكر الوصول إلى محادثات دارت في منتدى إلكتروني خاص بموظفي OpenAI، حيث كانت تتم مناقشات حول أحدث التقنيات التي تطورها الشركة. وعلى الرغم من ذلك، لم يتمكن المخترق من اختراق الأنظمة التي تستضيف نماذج GPT وتدربها، وهي الأنظمة الأساسية التي تشتهر بها OpenAI.

تحذيرات سابقة ومخاوف أمنية

نقلت الصحيفة عن مصدرين داخل الشركة أن بعض موظفي OpenAI كانوا قد حذروا سابقًا من إمكانية استغلال دول مثل الصين لمثل هذه الهجمات لسرقة تقنيات الذكاء الاصطناعي، مما قد يشكل تهديدًا للأمن القومي الأمريكي.

ردود فعل داخلية

أثار الحادث تساؤلات بين الموظفين حول جدية الشركة في التعامل مع مسألة الأمن الرقمي. وذكرت تقارير أخرى وجود انقسامات داخل الشركة بشأن المخاطر المحتملة للذكاء الاصطناعي. وفي هذا السياق، كتب ليوبولد آشينبرينر، مدير البرامج التقنية السابق في OpenAI، مذكرة إلى مجلس إدارة الشركة يتهمهم فيها بعدم بذل جهد كافٍ لمنع سرقة التقنيات السرية من "قوى أجنبية معادية".

تداعيات وتسريبات

تم فصل آشينبرينر لاحقًا بدعوى تسريب معلومات سرية، إلا أنه يزعم أن هذا الفصل كان بدافع سياسي. وتأتي هذه التسريبات لتضيف إلى المشاكل التي تواجه شركة OpenAI مؤخرًا، إذ واجه الرئيس التنفيذي للشركة، سام ألتمان، صراعًا مع مجلس الإدارة السابق، حيث أقاله المجلس ثم عاد إلى منصبه لاحقًا.

استقالات وخلافات

شهدت الشركة حديثًا استقالة العديد من الباحثين في مجال سلامة الذكاء الاصطناعي بسبب خلافات حول "التوافق الفائق" (Superalignment)، وهو مفهوم يهدف إلى إيجاد طرق لسيطرة البشر على الذكاء الاصطناعي الفائق.

 

تواجه OpenAI الآن تحديات كبيرة تتعلق بالأمن الرقمي واحتواء التسريبات، بالإضافة إلى ضرورة تعزيز الثقة بين الموظفين والإدارة. ومع استمرار التطور في مجال الذكاء الاصطناعي، تظل الشركة تحت ضغط كبير لضمان حماية تقنياتها والحفاظ على سمعتها في السوق العالمي.

 

مقالات مشابهة

  • بعد تسلل «هاكرز» لـ شركة OpenAI.. هل تعرض شات جي بي تي للاختراق؟
  • اختراق أنظمة OpenAI.. هاكر يسرب معلومات حساسة حول تقنيات الذكاء الاصطناعي
  • مخاوف أمريكية من الصين بعد سرقة أسرار شركة أوبن إيه آي للذكاء الاصطناعي
  • سرقة أسرار “أوبن إيه آي” تثير مخاوف متعلقة بالصين
  • تحقيق قضائي إسباني بشأن "ميتا" بسبب الذكاء الاصطناعي
  • قراصنة يخترقون الذكاء الاصطناعي
  • اختراق أمني خطير يكشف أسرار أكبر شركات الذكاء الاصطناعي في العالم
  • سرقة أسرار أوبن إيه آي تثير مخاوف متعلقة بالصين
  • سرقة أسرار أوبن إيه آي يثير مخاوف بشأن الصين
  • نيويورك تايمز: بايدن أخبر حليفا رئيسا أنه قد ينسحب من الانتخابات في هذه الحالة