جريدة الوطن:
2024-11-22@22:53:32 GMT

«تشات جي بي تي» مؤلفًا لأوراق بحثية!

تاريخ النشر: 17th, February 2024 GMT

«تشات جي بي تي» مؤلفًا لأوراق بحثية!

 

«تشات جي بي تي» مؤلفًا لأوراق بحثية!

 

 

 

 

بعدما ذاع صيته واجتاح العالم في لمح البصر، ها هو روبوت الدردشة «تشات جي بي تي» ChatGPT، القائم على الذكاء الاصطناعي، يسجِّل أول حضور رسمي له في الأدبيات العلمية، باعتماده مؤلفًا فيما لا يقل عن أربعة أبحاث منشورة ومسوَّدات بحثية ماثلة للنشر.

ويدور الجدل حاليًا بين محرري الدوريات والباحثين والناشرين حول موقع تلك الأدوات القائمة على الذكاء الاصطناعي من المجال البحثي، وما إن كان مناسبًا إدراج الروبوت في قائمة المؤلفين للدراسات.

وفي الأثناء، يتسابق الناشرون لوضع السياسات التي من شأنها وضع الضوابط اللازمة لاستخدام الأدوات على شاكلة «تشات جي بي تي»، الذي صدر كأداة متاحة للاستخدام مجانًا في نوفمبر الماضي من قبل شركة التقنية «أوبن إيه آي» OpenAI، ومقرها سان فرانسيسكو بولاية كاليفورنيا الأمريكية.

و«تشات جي بي تي» هو واحد من تلك النماذج اللغوية الكبيرة (LLMs)، يعمل على تأليف وتوليد جُملٍ مُقنعة، عبر محاكاة الأنماط الإحصائية للُّغة في قاعدة بيانات ضخمة، تحوي نصوصًا مجمّعة من شبكة الإنترنت. وقد أصاب هذا الروبوت عديدًا من المجالات والأوساط، ومنها الوسط الأكاديمي، بالبلبلة والارتباك. وتحديدًا، أثار هذا الروبوت عددًا من التساؤلات حول مستقبل الواجبات المدرسية والجامعية، وعملية الإنتاج البحثي برُمَّتها.

وقد تواصل فريق الأخبار بدورية Nature مع عدد من الناشرين ومالكي خوادم المسودات العلمية، وأجمعت الآراء على أن أدوات الذكاء الاصطناعي، ومنها «تشات جي بي تي»، لا تستوفي المعايير اللازم توافرها في مؤلّف الدراسات العلمية؛ فأداةٌ كهذه لا تستطيع تحمل المسؤولية عن المحتوى، ومدى سلامة البحث ونزاهته من الناحية العلمية. إلا أن بعض الناشرين أوضحوا بأن مساهمة الذكاء الاصطناعي في صياغة الأبحاث العلمية يمكن إقرارها، وإدراجها في موضع آخر، بخلاف قائمة المؤلفين. (يُذكر أن فريق الأخبار بدورية Nature مستقل من الناحية التحريرية عن الفريق الصحفي، وعن ناشر الدورية، «سبرينجر نيتشر» Springer Nature).

وفي إحدى الحالات، أفاد أحد المحررين، في تصريحاتٍ أدلى بها للدورية، بأن «تشات جي بي تي» قد أُدرج في قائمة المؤلفين على سبيل الخطأ، وأن الدورية التي يعمل بها تداركت ذلك الخطأ.

 

مؤلف اصطناعي

أُدرج روبوت الدردشة «تشات جي بي تي» ضمن اثني عشر مؤلفًا على إحدى المسودات البحثية1 حول استخدام تلك الأداة في التعليم الطبي، وهي المسودة التي نُشرت على خادم «ميد آركايف» medRxiv للمسودات البحثية الطبية في ديسمبر من العام الماضي.

 

ويناقش الفريق الذي يدير هذا الخادم، إلى جانب موقعه الشقيق «بايو آركايف» bioRxiv، ما إذا كان مناسبًا استخدام أدوات الذكاء الاصطناعي، وتسميتها مؤلفًا للدراسات، حسبما يقول الشريك والعضو المؤسس ريتشارد سيفر، وهو مساعد مدير دار النشر «كولد سبرينج هاربور لابوراتوري برس» Cold Spring Harbor Laboratory Press في نيويورك، مضيفًا أن الأعراف قد تتغير.

يقول سيفر: “نحن بحاجة إلى التفرقة ما بين الدور الرسمي لمؤلف ورقة بحثية، والمفهوم الأعمّ للمؤلف الذي يكتب مستندًا ما”، موضحًا أن المؤلفين يتحملون مسؤولية قانونية عن أعمالهم، ولذلك يجب وضع أسماء الأشخاص فقط. وأضاف: “بطبيعة الحال، قد يحاول الكثيرون دسّ الأمر خلسة – وهو ما حدث بالفعل على خادم «ميد آركايف» – تمامًا كما وضع آخرون فيما مضى أسماء حيوانات أليفة وشخصيات خيالية، ونحو ذلك، ودسُّوا هذه الأسماء في قائمة مؤلفي أبحاث منشورة بدوريات علمية؛ على أنَّ هذه المسألة تتعلق بآليات التحقق أكثر مما تتعلَّق بسياسات النشر”. (أرسلنا طلبًا للتعقيب على ذلك إلى فيكتور تسينج، المؤلف المراسل المسؤول عن المسودة البحثية، والمدير الطبي لمؤسسة «أنسيبل هيلث» Ansible Health في ماونتن فيو بولاية كاليفورنيا الأمريكية، إلا أننا لم نتلق منه أي رد).

وفي افتتاحية دورية «نيرس إيديوكيشن إن براكتيس» Nurse Education in Practice، في عددها الصادر في فبراير 2023، سُمِّيت أداة ذكاء اصطناعي مؤلفًا مشاركًا، جنبًا إلى جنب مع شيفان أوكونور، الباحث المتخصص في التقنيات الصحية بجامعة مانشستر بالمملكة المتحدة. وعن ذلك الأمر، علّق روجر واتسون، رئيس تحرير الدورية المذكورة، قائلاً إنه خطأ حدث سهوًا، وسوف يتم تدارُكُه عاجلاً. وأضاف: “كان ذلك سهوًا من جانبي، لأن الافتتاحيات تمر عبر منظومة إدارية مختلفة عن الأوراق البحثية”.

كما وضع أليكس زافورونكوف، الرئيس التنفيذي لشركة «إنسيليكو ميديسين» Insilico Medicine، وهي شركة متخصصة في الاستكشافات الدوائية المستندة إلى الذكاء الاصطناعي في هونج كونج، الروبوت «تشات جي بي تي» مؤلفًا مشاركًا لمراجعة بحثية3 في دورية «أونكوساينس» Oncoscience في يناير الماضي. ويعلق على هذا بقوله إن شركته نشرت أكثر من 80 ورقة بحثية أصدرتها أدوات الذكاء الاصطناعي التوليدية، مضيفًا: “لسنا حديثي عهد بهذا المجال”.

كما أوضح أن دورية «أونكوساينس» راجعت تلك الورقة البحثية بنظام مراجعة الأقران، بعد أن طَلب من محررها القيام بذلك. وقد طلبت Nature تعقيبًا من الدورية على ذلك، إلا أننا لم نتلق ردًا حتى الآن.

وهناك بحث رابع، من المقرر نشره قريبًا في إحدى الدوريات المُحكَّمة، شارك في كتابته روبوت الدردشة في نسخته الأقدم، التي تحمل اسم «جي بي تي 3» GPT-3، ونُشر على الخادم الفرنسي للمسودات البحثية «هال» HAL في يونيو 2022، حسبما صرّحت المؤلفة المشاركة ألميرا أوسمانوفيتش ثانستروم، المتخصصة في البيولوجيا العصبية بمستشفى جامعة سالجرينسكا في جوتنبيرج بالسويد. وأضافت ثانستروم أن إحدى الدوريات رفضت الورقة البحثية بعد مراجعتها، إلا أنها قُبلت من دورية أخرى بعد إدراج الروبوت «جي بي تي 3» مؤلفًا مشاركًا، بعد أن أعادت صياغة المقال استجابةً لطلبات المُراجِع.

 

سياسات الناشر

وقد شدَّد رئيسا تحرير دوريتَي Nature و«ساينس» Science، في تصريحاتٍ أدلي بهالفريق الأخبار بدورية Nature، على أن الروبوت «تشات جي بي تي» لا يستوفي المعايير الواجب توفُّرها في المؤلفين. وعن هذا الأمر، تحدثت ماجدالينا سكيبر، رئيسة تحرير Nature في لندن، قائلة: “نسبة النصوص إلى مؤلفيها تحمل في طياتها المسؤولية عن العمل، وهو ما قد يتعذر تطبيقه بكفاءة على النماذج اللغوية الضخمة”. وأضافت كسيبر أن المؤلفين الذين يستخدمون تلك النماذج اللغوية أثناء إعدادهم ورقة بحثية، أيًّا ما كان شكل هذا الاستخدام، يتوجب عليهم توثيق ذلك في قسم المنهجية، أو الشكر والتقدير، متى كان ذلك مناسبًا.

أما هولدن ثورب، رئيس تحرير عائلة دوريات «ساينس» في واشنطن دي سي، فيعلق على ذلك بالقول: “لن نسمح بوضع الذكاء الاصطناعي مؤلفًا على ورقة بحثية تُنشر لدينا، كما أن استخدام نص من تأليف الذكاء الاصطناعي دون وضع الاستشهاد المناسب قد يرقى إلى مرتبة السرقة العلمية”.

أما سابينا ألم، مديرة أخلاقيات النشر والنزاهة البحثية لدى شركة النشر «تايلور آند فرانسيس» Taylor & Francis، ومقرُّها العاصمة البريطانية لندن، فقد ذكرت أن الشركة تعكف حاليًا على مراجعة سياساتها. وتوافق ألم على ضرورة أن يكون المؤلفون مسؤولين عن صحة أعمالهم البحثية، ونزاهتها، وأنهم يتوجب عليهم وضع معلومات الاستشهاد الملائمة لدى أي استخدام للنماذج اللغوية الضخمة في قسم “الشكر والتقدير”، إلا أن الشركة لم تتلق حتى الآن أي أوراق مقدمة تنسب حقوق التأليف إلى الروبوت «تشات جي بي تي»، بوصفه مؤلفًا مشاركًا.

ومن جانبه، أجرى مجلس إدارة خادم المسودات البحثية للعلوم الفيزيائية «أركايف» arXiv نقاشات داخلية، وبدأ يتشكَّل إجماع حول اتباع منهج معين، يقضي باستخدام الذكاء الاصطناعي التوليدي، وفق ما صرح به المدير العلمي ستاين سيجوردسون، وهو عالم فلك بجامعة ولاية بنسلفانيا بمدينة يونيفرسيتي بارك. ويتفق سيجوردسون على أن الأداة البرمجية لا يمكن أن تسمَّى مؤلفًا لورقة بحثية، والسبب في ذلك يعود جزئيًا إلى أن تلك الأداة لا يمكنها الموافقة على شروط الاستخدام، والحق في توزيع المحتوى. ويقول سيجوردسون إنه، على حد علمه، لا توجد أي مسودات بحثية على خادم «أركايف» تضع «تشات جي بي تي» في قائمة مؤلفيها، مضيفًا أنه من المقرر إصدار تعليمات إرشادية للمؤلفين قريبًا.

 

أخلاقيات الذكاء الاصطناعي التوليدي

هناك بالفعل مبادئ إرشادية واضحة بخصوص المؤلفين، من شأنها ألا تجيز إدراج هذا الروبوت مؤلفًا مشاركًا للأبحاث، حسبما يوضح مات هودجكينسون، مدير النزاهة البحثية في «مكتب النزاهة البحثية بالمملكة المتحدة» ومقره لندن، متحدثًا بصفته الشخصية.

واحدٌ من تلك المبادئ، حسبما يذكر هودجكينسون، ينص على ضرورة أن يقدم المؤلف المشارك “إسهامًا علميًا مهمًا” بالبحث؛ وهو ما قد يكون ممكنًا مع أدوات الذكاء الاصطناعي على شاكلة «تشات جي بي تي». إلا أنه يجب أن تكون لديه القدرة على أن يوافق على أن يكون مؤلفًا مشاركًا، وأن يتحمل المسؤولية عن الدراسة، أو، على الأقل، عن الجزء الذي ساهم به. ويرى هودجكينسون أن “هذا الشق الأخير هو بالفعل ما يضع فكرة تسمية أداة الذكاء الاصطناعي مؤلفًا مشاركًا أمام طريق مسدود”.

عن دورية نيتشر

 

 

 


المصدر: جريدة الوطن

إقرأ أيضاً:

الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب

تابع أحدث الأخبار عبر تطبيق

في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.

ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
 

نقاط البحث الأساسية:

• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.

• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
 

الفرضية الأساسية للدراسة:

افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:

1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.

2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.

اختبار النماذج اللغوية الكبيرة:

• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.

• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.

• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.

نتائج البحث:

1. عدم الفهم الحقيقي للسياق

النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.

2. إجابات مضللة

أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.

3. الوهم الذكي

النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.

أمثلة توضيحية من البحث:

سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.

الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.

دلالات البحث:

• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.

• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.

التحديات المستقبلية:

• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.

• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.

• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.

مقالات مشابهة

  • استخدام الذكاء الاصطناعي في ميكنة قصر العيني
  • جامعة دبي تستضيف مؤتمر الذكاء الاصطناعي وإنترنت الأشياء
  • مختص: بشكل كبير جدًا قد يحل الذكاء الاصطناعي محل الحكم في مباريات كرة القدم
  • بيل غيتس يلقي محاضرة عن الذكاء الاصطناعي
  • روبوت صغير يخدع 12 روبوتا كبيرا ويختطفهم باستخدام الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد في الحفاظ على الحشرات
  • الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
  • الذكاء الاصطناعي يهدد شركات الأزياء
  • رئيس الوزراء: مصر بالتصنيف «أ» دوليا في تطبيقات الذكاء الاصطناعي
  • كيف يواجه الذكاء الاصطناعي أزمة نقص الكوادر في الأمن السيبراني؟