دراسة تكشف علاقة غريبة بين (ChatGPT) وفقدان الذاكرة
تاريخ النشر: 28th, March 2024 GMT
بغداد اليوم- متابعة
يلجأ الطلاب إلى روبوت الدردشة ChatGPT الذي يعد أداة ذكاء اصطناعي توليدية، عندما يواجهون زيادة في عبء العمل الأكاديمي وقيود الوقت، إلا أن دراسة جديدة كشفت تأثيراً سلبياً وغير متوقع لذلك.
فقد كشف دراسة نُشرت في الدورية الدولية لتكنولوجيا التعليم في التعليم العالي علاقة بين الاعتماد على ChatGPT بالتسويف وفقدان الذاكرة وانخفاض الأداء الأكاديمي.
وسلطت نتائج الدراسة الضوء على دور الذكاء الاصطناعي التوليدي في التعليم، ما يشير إلى استخدامه على نطاق واسع وعيوبه المحتملة، بحسب ما نشره موقع PsyPost.
بدوره أوضح محمد عباس، الباحث الرئيسي في الدراسة من الجامعة الوطنية للكمبيوتر والعلوم الناشئة في باكستان، أن اهتمامه بهذا الموضوع "ينبع من الانتشار المتزايد للذكاء الاصطناعي التوليدي في الأوساط الأكاديمية وتأثيره المحتمل على الطلاب".
وأضاف أنه "في العام الماضي، تم ملاحظة زيادة في اعتماد الكثير من الطلاب بشكل عشوائي على أدوات الذكاء الاصطناعي التوليدية في المهام والمشاريع المختلفة"، ما دفع فريق الباحثين إلى التعمق أكثر في فهم الأسباب والعواقب الكامنة وراء استخدامات الذكاء الاصطناعي التوليدي من جانب الطلاب.
سلبيات الاستخدام المفرط
واكتشف عباس وزملاؤه أن المستويات العالية من عبء العمل الأكاديمي وضغط الوقت كانت من العوامل المهمة، التي تنبئ بزيادة استخدام ChatGPT، ما يشير إلى أن الطلاب الذين يعانون من ضغط أكاديمي كبير هم أكثر عرضة للجوء إلى أدوات الذكاء الاصطناعي التوليدية للحصول على المساعدة.
إلى ذلك كشفت الدراسة عن آثار سلبية كبيرة لاستخدام ChatGPT على النتائج الشخصية والأكاديمية للطلاب. وارتبط الاعتماد المتزايد على ChatGPT بمستويات أعلى من التسويف وفقدان الذاكرة، وتأثير سلبي على الأداء الأكاديمي.
كما ينعكس في متوسط درجات الطلاب وتشير هذه النتائج إلى أنه على الرغم من أن ChatGPT يمكن أن يكون موردًا قيمًا في ظل ظروف معينة، إلا أن استخدامه المفرط قد يؤدي إلى آثار ضارة على سلوكيات التعلم ونتائجه.
تأثير مزدوج
ومن المثير للاهتمام أن الدراسة لم تجد علاقة ذات دلالة إحصائية بين الحساسية للجودة واستخدام ChatGPT، مما يشير إلى أن المخاوف بشأن جودة العمل الأكاديمي لا تؤثر بالضرورة على قرار استخدام أدوات الذكاء الاصطناعي.
تسلط النتائج الضوء على التأثير المزدوج المحتمل لـ ChatGPT في الأوساط الأكاديمية، حيث يعمل كأداة مفيدة تحت الضغط الأكاديمي وكخطر محتمل على النزاهة الأكاديمية ونتائج تعلم الطلاب.
المهارات المعرفية والصحة العقلية
يفتح البحث الباب أمام دراسة التأثيرات الأوسع لاستخدام ChatGPT على نتائج تعلم الطلاب وصحتهم. يمكن أن تتعمق الأبحاث المستقبلية في كيفية تأثير الاعتماد على أدوات الذكاء الاصطناعي التوليدية على المهارات المعرفية والصحة العقلية وتجارب التعلم الشاملة.
المصدر: وكالة بغداد اليوم
كلمات دلالية: أدوات الذکاء الاصطناعی
إقرأ أيضاً:
تحديات جوهرية تواجه تطور الذكاء الاصطناعي
#سواليف
أظهر استطلاع حديث لخبراء في مجال #الذكاء_الاصطناعي أن توسيع نماذج اللغات الكبيرة (LLMs) لن يؤدي إلى تحقيق الذكاء الاصطناعي العام (AGI).
يعدّ AGI بمثابة النقلة النوعية التي تمكّن الأنظمة من التعلم بشكل فعّال كالذكاء البشري أو أفضل منه.
وأكد 76% من 475 باحثا في المجال، أنهم يرون أن هذا التوسع “غير مرجح” أو “غير مرجح جدا” أن يحقق هذا الهدف المنشود.
مقالات ذات صلة إعداد بسيط في هاتفك قد يجعلك تبدو أصغر بـ10 سنوات! 2025/04/01وتعتبر هذه النتيجة انتكاسة كبيرة للصناعات التكنولوجية التي توقعت أن تحسينات بسيطة في النماذج الحالية من خلال مزيد من البيانات والطاقة ستؤدي إلى الذكاء الاصطناعي العام.
ومنذ #طفرة الذكاء الاصطناعي التوليدي في 2022، كانت التوقعات تركز على أن زيادة الموارد كافية لتجاوز #الذكاء_البشري. لكن مع مرور الوقت، وبالرغم من الزيادة الكبيرة في الإنفاق، فإن التقدم قد تباطأ بشكل ملحوظ.
وقال ستيوارت راسل، عالم الحاسوب في جامعة كاليفورنيا، بيركلي، والذي شارك في إعداد التقرير: “منذ إصدار GPT-4، أصبح واضحا أن التوسع في النماذج كان تدريجيا ومكلفا. الشركات قد استثمرت أموالا ضخمة بالفعل، ولا يمكنها التراجع بسبب الضغوط المالية”.
وفي السنوات الأخيرة، ساهمت البنية الأساسية المبتكرة المسماة “المحولات” (Transformers)، التي ابتكرها علماء غوغل عام 2017، في تحسن قدرات نماذج الذكاء الاصطناعي. وتستفيد هذه النماذج من زيادة البيانات لتوليد استجابات أدق. ولكن التوسع المستمر يتطلب موارد ضخمة من الطاقة والمال.
وقد استقطب قطاع الذكاء الاصطناعي المولّد نحو 56 مليار دولار في رأس المال المغامر عام 2024، مع تكريس جزء كبير من هذه الأموال لبناء مراكز بيانات ضخمة تسببت في زيادة انبعاثات الكربون ثلاث مرات منذ 2018.
ومع استنفاد البيانات البشرية القابلة للاستخدام بحلول نهاية هذا العقد، فإن الشركات ستضطر إما لاستخدام البيانات التي أنشأها الذكاء الاصطناعي نفسه أو جمع بيانات خاصة من المستخدمين، ما يعرض النماذج لمخاطر أخطاء إضافية. وعلى الرغم من ذلك، لا يقتصر السبب في محدودية النماذج الحالية على الموارد فقط، بل يتعدى ذلك إلى القيود الهيكلية في طريقة تدريب هذه النماذج.
كما أشار راسل: “المشكلة تكمن في أن هذه النماذج تعتمد على شبكات ضخمة تمثل مفاهيم مجزّأة، ما يجعلها بحاجة إلى كميات ضخمة من البيانات”.
وفي ظل هذه التحديات، بدأ الباحثون في النظر إلى نماذج استدلالية متخصصة يمكن أن تحقق استجابات أكثر دقة. كما يعتقد البعض أن دمج تقنيات الذكاء الاصطناعي مع أنظمة تعلم آلي أخرى قد يفتح آفاقا جديدة.
وفي هذا الصدد، أثبتت شركة DeepSeek الصينية أن بإمكانها تحقيق نتائج متميزة بتكاليف أقل، متفوقة على العديد من نماذج الذكاء الاصطناعي التي تعتمد عليها شركات التكنولوجيا الكبرى في وادي السيليكون.
ورغم التحديات، ما يزال هناك أمل في التقدم، حيث يقول توماس ديتريش، الأستاذ الفخري لعلوم الحاسوب في جامعة ولاية أوريغون: “في الماضي، كانت التطورات التكنولوجية تتطلب من 10 إلى 20 عاما لتحقيق العوائد الكبيرة. وهذا يعني أن هناك فرصة للابتكار بشكل كبير في مجال الذكاء الاصطناعي، رغم أن العديد من الشركات قد تفشل في البداية”.