دبي، الإمارات العربية المتحدة (CNN) --  يُستخدم نحو 200 ألف كتاب لتدريب أنظمة الذكاء الاصطناعي من قبل بعض أكبر الشركات في مجال التكنولوجيا، ولكن، تكمن المشكلة، في عدم إخبار مؤلفي تلك الكتب بذلك.

ويُطلق على النظام اسم "Books3"، وبحسب تحقيق أجرته مجلة "ذا أتلانتيك" (The Atlantic)، تعتمد مجموعة البيانات على مجموعة من الكتب الإلكترونية المقرصنة التي تغطي مختلف أنواعها، بدءًا من الخيال العلمي المثير وحتى الشعر النثري.

وتساعد الكتب أنظمة الذكاء الاصطناعي التوليدية في تعلّم كيفية توصيل المعلومات.

ويمكن استخلاص بعض النصوص التدريبية الخاصة بالذكاء الاصطناعي من المقالات التي تنشر على الإنترنت، لكن الذكاء الاصطناعي عالي الجودة يتطلب نصًا عالي الجودة لاستيعاب اللغة منه، وهنا يأتي دور الكتب وفقًا لمجلة "ذا أتلانتيك".

ويُعد نظام "Books3" بالفعل موضع دعاوى قضائية متعددة ضد شركة "ميتا" وغيرها من الشركات التي تستخدم النظام لتدريب الذكاء الاصطناعي.

الآن، بفضل قاعدة البيانات التي نشرتها مجلة "ذا أتلانتيك" الأسبوع الماضي، وسحبها نظام "Books3"، يمكن للمؤلفين معرفة ما إذا كانت كتبهم تُستخدم على وجه التحديد لتدريب أنظمة الذكاء الاصطناعي تلك.

وبعدما اكتشفت أن عملها قيد الاستخدام، اتجهت ماري تشوي لمنصات التواصل الاجتماعي لتعبّر عن غضبها قائلة: "أنا محبطة ومُحطّمة كليًّا. أنا غاضبة وفي الوقت ذاته أشعر بالعجز التام".

وعبرت تشوي، التي ظهرت روايتها الأولى بعنوان "Emergency Contact" في قاعدة البيانات، عن مشاعرها كذلك في رسالة بالبريد الإلكتروني.

ويعد الكتاب، الذي ييرز قصة امرأة كورية أمريكية شابة تخوض علاقة جديدة، "شخصيًا للغاية" بالنسبة لمؤلفته، وقد قيل لتشوي في البداية إن قصتها "هادئة للغاية وتخاطب فئة معينة ". وأصبح الكتاب لاحقًا من أكثر الكتب مبيعًا ضمن قائمة "نيويورك تايمز"، ونال إعجاب جماهير من مختلف أنحاء العالم.

وأعربت مين جين لي، مؤلفة روايات "باتشينكو" و"طعام مجاني للمليونيرات"، عن أفكار مماثلة على منصات التواصل الاجتماعي، واصفة صراحة استخدام كتبها بـ"السرقة".

وقالت: "لقد أمضيت ثلاثة عقود من حياتي في كتابة كتبي. إن نماذج اللغة الكبيرة للذكاء الاصطناعي لم تستوعب البيانات أو تستخرج منها. لقد سرقت شركات الذكاء الاصطناعي عملي ووقتي وإبداعي. لقد سرقوا قصصي لقد سرقوا جزءًا مني".

أما عن نورا روبرتس، وهي روائية المؤلفات الرومانسية غزيرة الإنتاج، فوجدت أن لديها 206 من كتبها مستخدمة في قاعدة بيانات "Books3"، وفقًا لمجلة "ذا أتلانتيك". وهذا الرقم يُعد الأعلى لأي مؤلف على قيد الحياة، ويأتي في المرتبة الثانية بعد ويليام شكسبير.

ووصفت قاعدة البيانات واستخدامها من قبل شركات التكنولوجيا بأنها "خطأ من كل النواحي".

وقالت روبرتس في بيان لـ CNN: "نحن بشر، نحن كتّاب، ويتم استغلالنا من قبل أشخاص يريدون استخدام أعمالنا، مرة أخرى من دون إذن أو تعويض، من أجل كتابة كتب ونصوص ومقالات لأنها وسيلة رخيصة وسهلة".

وهذا الاستغلال للكتّاب لم يصدم المؤلف نيك شارما، صاحب كتاب الطهي الخاص به وعنوانه "Season"، إذ كتب في منشور على منصات التواصل الاجتماعي: "أشعر بالرعب ولكني لست متفاجئًا من استغلالي. من الواضح أنه لم يُطلب حتى الحصول على إذن مني أو على أي تعويض مقابل استخدام عملي لتدريب الذكاء الاصطناعي".

وقال شارما لاحقًا في رسالة بالبريد الإلكتروني إن "الذكاء الاصطناعي أمر لا مفر منه،  لذلك لم أتفاجأ".

وتابع أن الأمر الأكثر إثارة للغضب هو أنه لم يتم التواصل مع أي شخص بشأن إذن الاستخدام أو دفع أي مقابل. وقال إن التعليم في نهاية المطاف ليس مجانيا في الولايات المتحدة؛ ويتم دفع أجور للمعلمين، كما يتم شراء الكتب المدرسية.

ولفت شارما إلى أن السياسة الحكومية بشأن استخدام تقنيات الذكاء الاصطناعي لا تزال في مهدها، مضيفا: "بالتالي، تستفيد شركات التكنولوجيا استفادة كاملة قدر استطاعتها". 

ولم تستجب شركة "ميتا"، التي استخدمت قاعدة بيانات "Books3" وفقًا لمجلة "ذا أتلانتيك"، لطلب التعليق.

وأشار متحدث باسم "بلومبيرغ" في بيان له إلى أن الشركة "استخدمت عددًا من مصادر البيانات المختلفة"، بما في ذلك "Books3"، لتدريب نموذج "BloombergGPT" الأولي، وهو نموذج للذكاء الاصطناعي للقطاع المالي. ولكن وفقًا لما قاله المتحدث الرسمي، فإن "بلومبيرغ لن تُدرج مجموعة بيانات Books3 ضمن مصادر البيانات المستخدمة لتدريب الإصدارات التجارية المستقبلية من BloombergGPT".

وعلى ما يبدو، ليس كل المؤلفين يشعرون بالانزعاج من استخدام الذكاء الاصطناعي لأعمالهم. إذ كتب جيمس تشابل، الذي استخدم كتابه الأكاديمي عن الكنيسة الكاثوليكية الحديثة في قاعدة البيانات، على منصات التواصل الاجتماعي إنه “لا يهتم لهذا الأمر على الإطلاق”، بل يريد أن يُقرأ كتابه.

ولم يستجب تشابل لطلب الحصول على مزيد من التعليقات.

وسرعان ما تحول الذكاء الاصطناعي، في أيدي الشركات الكبيرة، إلى مصدر قلق كبير للعديد من الكتّاب.

وقد قامت نقابة الكتاب الأمريكية بإضراب جزئي هذا الصيف للمطالبة بفرض قيود على استخدام الذكاء الاصطناعي في كتابة الأفلام والبرامج التلفزيونية.

وتستخدم أداة "شات جي بي تي" (ChatGPT) على وجه الخصوص في مختلف المجالات بدءًا من كتابة المهام وحتى الملخصات القانونية.

المصدر: CNN Arabic

كلمات دلالية: الذكاء الاصطناعي كتب التواصل الاجتماعی الذکاء الاصطناعی قاعدة البیانات

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • خبير: الصين تدخل الذكاء الاصطناعي في مناهجها الدراسية استعدادا لمستقبل رقمي متطور
  • برنامج تدريبي لتعزيز مهارات استخدام الذكاء الاصطناعي لطلاب جامعة قناة السويس
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر
  • الجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصي
  • الصين تدخل الذكاء الاصطناعي إلى مناهج الابتدائية
  • بريطانيا تعلن عن خطط لإعادة هيكلة الدولة وزيادة استخدام الذكاء الاصطناعي