أكدت حالات سجلت في الآونة الأخيرة ظاهرة الاستخدام المتزايد للذكاء الاصطناعي في إعداد المنشورات العلمية، على حساب جودتها، منها احتواء دراسات في بعض المجلات المتخصصة على عبارات تفضح إنتاجها بواسطة البرامج القائمة على هذه التكنولوجيا، أو ت ض م ن ها مثلا صورا تفتقر إلى الدقة.

ومع أن المتخصصين الذين استصرحتهم وكالة فرانس برس، أقر وا بأهمية استخدام أدوات مثل « تشات جي بي تي » للمساعدة في كتابة المحتوى، لا سيما في ما يتعلق بالترجمة للباحثين الذين لا تكون الإنكليزية لغتهم الأم، فإن سحب بعض المجلات العلمية في الآونة الأخيرة عددا من الدراسات التي نشرتها سلط الضوء على وجود ممارسات غير نزيهة.

وفي الشهر الفائت، سحبت دراسة أخرى لتضمنها صورة لساق بشرية تحوي عددا من العظام أكبر مما يفترض أن تحوي فعليا .

ولا يقتصر الأمر على هذه الصور المغلوطة، إذ يبدو أن المشاكل الأبرز في هذا القطاع متأتية من « تشات جي بي تي »، أداة المحادثة التي طورتها شركة « أوبن إيه آي » الأميركية والقائمة على الذكاء الاصطناعي.

ولاحظ عدد من المتخصصين في أحاديث لوكالة فرانس برس، إن هذه الأخطاء المحرجة التي سها عنها الخبراء المسؤولون عن قراءة الدراسات قبل نشرها، لا تزال نادرة، ولم تكن لتمر على لجان مراجعة الأبحاث في المجلات المرموقة.

وغالبا ما يصعب اكتشاف استخدام الذكاء الاصطناعي، ولكن يبدو بوضوح أنه يتزايد في الأدبيات العلمية.

وأجرى أمين مكتبة جامعة « يونيفيرسيتي كولدج » اللندنية أندرو غراي بحثا في ملايين المقالات العلمية عن كلمات تكثر أدوات الذكاء الاصطناعي من استخدامها، مثل « دقيق » أو « معقد » أو « جدير بالثناء ». وتبين له أن الذكاء الاصطناعي استخدم على الأرجح في 60 ألف مقال علمي عام 2023، أي بنسبة واحد في المئة من الإنتاج السنوي، متوقعا « زيادة كبيرة » في هذه الأرقام سنة 2024.

أما جمعية « ريتراكشن ووتش » الأميركية، فلاحظت أن حالات سحب المقالات العلمية بلغت رقما قياسيا عام 2023 هو 13 ألفا . ورأى إيفان أورانسكي، وهو أحد مؤسسيها، أن الذكاء الاصطناعي بات يوفر ما يشبه « المصانع » لإصدار الدراسات « الزائفة » بكثافة.

وتنتج هذه الجهات عددا كبيرا من المقالات الرديئة الجودة أو المنحولة أو الكاذبة، على ما أفادت عالمة الأحياء الدقيقة الهولندية المتخصصة في الكشف عن الصور المزيفة إليزابيث بيك.

ويعتقد أن هذه « المصانع » التي يدفع لها الباحثون الذين يتم حضهم على إنتاج المزيد، هي مصدر نحو 2 في المئة من الدراسات المنشورة سنويا ، لكن هذا الرقم يشهد زيادة كبيرة بفعل استخدام الذكاء الاصطناعي، وفقا للخبيرة نفسها.

ورأى إيفان أورانسكي أن الذكاء الاصطناعي يفاقم « مشكلة ساحقة »، تتمثل في كون طلب الناشرين والجامعات النهم على المقالات يشكل ضغطا على الباحثين الذين ي صنفون وفقا لإنتاجهم، مما يؤدي تاليا إلى « حلقة مفرغة ».

وفي الوقت نفسه، لا تزال الضوابط الهادفة إلى مكافحة « مصانع » الدراسات غير كافية.

وكان استحواذ شركة « وايلي » الأميركية على دار « هنداوي » للنشر عام 2021 العامل الأبرز في كشف مشكلة عمليات الاحتيال الضخمة، إذ أعقبه سحب نحو 11300 مقال سبق أن نشرتها « هنداوي ». وسعيا إلى حل هذه المشكلة المتنامية، وفرت « وايلي » خدمة « رصد مصانع المقالات » لكشف إساءة استخدام الذكاء الاصطناعي، وهذه الخدمة نفسها قائمة على الذكاء الاصطناعي.

إلا أن باحثا أميركيا اكتشف الأسبوع الفائت في مجلة « وايلي » ما يبدو أنه نسخة من أحد مقالاته أعيدت كتابتها بواسطة « تشات جي بي تي ».

وقال أستاذ المعلوماتية الحيوية في جامعة بريغهام يونغ الأميركية سامويل باين لوكالة فرانس برس، إنه كلف في مارس الفائت التحقق من صحة هذه الدراسة. وعندما أدرك أنها عبارة عن « سرقة أدبية » لدراسته التي أعيدت كتابتها بواسطة الذكاء الاصطناعي، رفض الموافقة على النشر.

وأضاف باين أنه صدم عندما اكتشف أن مجلة أخرى تولت نشر الدراسة المسروقة بدلا من سحبها.

(أ ف ب)

كلمات دلالية الذكاء الإصطناعي مسروقة منشورات

المصدر: اليوم 24

كلمات دلالية: الذكاء الإصطناعي مسروقة منشورات الذکاء الاصطناعی

إقرأ أيضاً:

تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية

كشفت دراسة جديدة عن مشكلة جوهرية في أدوات البحث بالذكاء الاصطناعي، حيث تبين أنها تقدم إجابات خاطئة بمعدل مرتفع يصل إلى 60% من الاستفسارات، مما يثير مخاوف حول مدى دقتها وموثوقيتها (Marcin).

أجرت Columbia Journalism Review (CJR) الدراسة، حيث قدمت لثمانية أدوات ذكاء اصطناعي مقطعًا من مقال، وطلبت منها تحديد عنوان المقال الأصلي، الناشر، تاريخ النشر، ورابط المصدر. ووجدت الدراسة أن معظم الأدوات قدمت إجابات غير صحيحة بنسبة كبيرة، بما في ذلك اختلاق روابط أو مصادر، أو تقديم إجابات غير دقيقة، وأحيانًا الإشارة إلى نسخ مسروقة من المقالات الأصلية (Marcin).


وذكرت CJR في تقريرها: "معظم الأدوات التي اختبرناها قدمت إجابات غير دقيقة بثقة مقلقة، نادرًا ما استخدمت عبارات مثل "يبدو أن" أو "من المحتمل"، كما لم تعترف بفجوات معرفتها بعبارات مثل "لم أتمكن من العثور على المقال الدقيق'" (Marcin).

 

 

هذه النتائج تعزز الشكوك حول قدرة أدوات البحث المدعومة بالذكاء الاصطناعي على تقديم معلومات دقيقة، خاصة مع تزايد استخدامها. وفقًا للتقرير، ربع الأميركيين يستخدمون الذكاء الاصطناعي للبحث بدلاً من محركات البحث التقليدية.

 

أخبار ذات صلة وداعاً لمساعد جوجل.. "جيميني" يستعد للحلول مكانه هذا العام "التجارة الأميركية" تحظر "ديب سيك" على الأجهزة الحكومية


يأتي ذلك في وقت تدفع فيه Google بقوة نحو تعزيز الاعتماد على الذكاء الاصطناعي في البحث، حيث أعلنت هذا الشهر عن توسيع نطاق ميزات الذكاء الاصطناعي في البحث، وبدأت اختبار نتائج بحث تعتمد بالكامل على الذكاء الاصطناعي.


 

 

تشير الدراسة إلى أن هذه ليست المرة الأولى التي تُظهر فيها أدوات الذكاء الاصطناعي ثقة زائدة رغم تقديمها معلومات خاطئة، ما يثير تساؤلات حول مستقبل هذه التقنيات ومدى تأثيرها على دقة المعلومات التي يحصل عليها المستخدمون.


إسلام العبادي(أبوظبي)

مقالات مشابهة

  • تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
  • الصدر يعلق على استخدام الذكاء الاصطناعي
  • الذكاء الاصطناعي الصيني يهدد بيانات المستخدمين لشركة أمريكية
  • غوغل تعلن عن نماذجها الجديدة للذكاء الاصطناعي
  • شركة صينية تطلق نموذجين للذكاء الاصطناعي
  • مع اشتداد المنافسة.. "بايدو" الصينية تطلق نموذجين للذكاء الاصطناعي
  • اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
  • من الابتدائية إلى الثانوية.. بكين تقدم حصصاً مخصصة للذكاء الاصطناعي
  • فتح باب التسجيل في التحدي الدولي للذكاء الاصطناعي في دبي
  • التحدي الدولي للذكاء الاصطناعي ينطلق في دبي 22 إبريل بجوائز مليون درهم