علوم وتكنولوجيا أول دراسة من نوعها تكشف أن ChatGPT يجعلنا أكثر إنتاجية ويعزز جودة الإنتاج!
تاريخ النشر: 16th, July 2023 GMT
علوم وتكنولوجيا، أول دراسة من نوعها تكشف أن ChatGPT يجعلنا أكثر إنتاجية ويعزز جودة الإنتاج!،الولايات المتحدة 8211; قد تسيطر الروبوتات يوما ما على البشرية، ولكن على المدى .،عبر صحافة ليبيا، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر أول دراسة من نوعها تكشف أن ChatGPT يجعلنا أكثر إنتاجية ويعزز جودة الإنتاج!، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.
الولايات المتحدة – قد تسيطر الروبوتات يوما ما على البشرية، ولكن على المدى القريب، يمكن أن تساعد روبوتات الدردشة القائمة على الذكاء الاصطناعي مثل ChatGPT الموظفين على القيام بمهامهم الكتابية.
وهذه هي النتائج التي توصلت إليها دراسة جديدة، على الأقل، تتبعت أداء الكتابة لـ 453 من المتخصصين المتمرسين والمتعلمين بالجامعة مقسمة بالتساوي إلى مجموعتين: إحداهما تعلمت استخدام ChatGPT وأخرى أجبرت على إكمال مهام الكتابة الخاصة بهم بمفردهم.
ووجد الباحثون أن برنامج الدردشة الآلي جعل الأشخاص الخاضعين للاختبار أكثر إنتاجية بنسبة 40% وحسّن جودة عملهم بنسبة 18%.
وفي الواقع، تمسك عدد كبير من المشاركين في الدراسة، الذين تم تشجيعهم على استخدام ChatGPT، بالبرنامج للحصول على دفعة إضافية في العالم الحقيقي.
وبعد أسبوعين، أبلغ 34% عن استخدام ChatGPT في بيئة احترافية. وبعد شهرين، ارتفع هذا الرقم، حيث أفاد 42% من المشاركين أنهم قاموا بتسجيل الدخول إلى ChatGPT للحصول على مزيد من المساعدة أثناء العمل.
ولكن في ما قد يكون أكثر النتائج إثارة للإعجاب في الدراسة، كما نُشر يوم الخميس في مجلة Science، وجد الباحثون أن هؤلاء المشاركين ذوي مهارات الكتابة الأضعف استفادوا أكثر من التشاور مع ChatGPT.
ويقترح معدو الدراسة، الاقتصاديون في معهد ماساتشوستس للتكنولوجيا (MIT)، أن عملهم يوضح مسارا نحو الحد من عدم المساواة بين العمال.
وكتب الباحثون: “بشكل عام، يبشر وصول ChatGPT ببدء عصر من عدم اليقين الواسع بشأن الآثار الاقتصادية وتأثيرات سوق العمل لتقنيات الذكاء الاصطناعي”.
وأشاروا إلى أن “هذه النتائج تتفق مع دراسات أخرى تظهر تعزيز الإنتاجية وتأثيرات التكافؤ لتقنيات الذكاء الاصطناعي الحديثة”، مستشهدين بدراستين أجراهما المكتب الوطني للبحوث الاقتصادية، وهو منظمة غير ربحية خاصة.
وتم اختيار المشاركين في الدراسة من مجالات التسويق، وكتابة المنح، والاستشارات، وتحليل البيانات، والموارد البشرية، من بين المهن الأخرى التي كثيرا ما يُطلب منها أداء “مهام الكتابة الاحترافية ذات المستوى المتوسط”.
وكان نصف العاملين في مجموعة الاختبار يعملون مع الإصدار 3.5 من ChatGPT.
وحرص الاقتصاديون في معهد ماساتشوستس للتكنولوجيا على تعيين مهام موضوعات الدراسة الخاصة بهم التي تشبه أعمال الكتابة في العالم الحقيقي التي قد يواجهونها في العمل: مهام اختبار من 20 إلى 30 دقيقة تكرار عمل كتابة البيانات الصحفية، وصياغة تقارير قصيرة، وعمل وثائق التخطيط، وإعداد رسائل بريد إلكتروني دقيقة.
وساعدت أسئلة الاستطلاع الإضافية الباحثين على تأكيد أن المشاركين وجدوا بالفعل الاختبارات مشابهة للمهام التي واجهوها من قبل في مكاتبهم.
وللتأكد من أن المجموعة الضابطة شهدت برنامجا تعليميا مكافئا يستغرق وقتا طويلا، تم إرشاد موضوعات الدراسة في هذه المجموعة الثانية حول كيفية استخدام أداة كتابة تعاونية تسمى محرر LaTeX Overleaf بدلا من ChatGPT.
لكن الباحثين لم يتتبعوا فقط أداء موضوعاتهم واستخدامهم لـ ChatGPT، ولكن أيضا ردود أفعالهم الشخصية تجاه أداة الذكاء الاصطناعي.
وقال ثلث أولئك الذين أبلغوا عن عدم استخدام ChatGPT في استطلاعات ما بعد الدراسة أن كتاباتهم المتعلقة بالعمل كانت “مصممة خصيصا” لعملائهم وتتطلب معلومات “في الوقت الفعلي” أو “فريدة” عن منتجات شركتهم.
ووجد الاقتصاديون في معهد ماساتشوستس للتكنولوجيا أن أولئك الذين استخدموا ChatGPT استمتعوا بمهامهم بنسبة 47% أكثر من المتوسط فقط، ولكن التشتت القياسي للانحرافات عن هذا المستوى المتوسط من المتعة.
وكان مستخدمو ChatGPT أيضا أكثر قلقا بشكل ملحوظ، وأكثر حماسا وتفاؤلا بشأن النذر المستقبلية التي بشرت باعتماد أوسع للذكاء الاصطناعي في صناعاتهم ومهنهم.
ومع ذلك، سرعان ما تبددت هذه المشاعر بعد استطلاعات المتابعة لمدة أسبوعين وشهرين، حيث اعتاد المشاركون على الوضع الطبيعي الجديد.
وكتبوا: “من الأفضل تفسيرها على أنها ظواهر قصيرة المدى تعكس تجارب المستجيبين الأولى مع التكنولوجيا”.
المصدر: ديلي ميل
Sharesالمصدر: صحافة العرب
كلمات دلالية: موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة
في دراسة جديدة أجرتها "أوبن إيه آي" حول سلوك نماذج اللغة الكبيرة "إل إل إم" (LLM) في الذكاء الاصطناعي، تبين أن معاقبة الذكاء الاصطناعي على الكذب والخداع لا تمنعه عن سلوكه بل تدفعه إلى إخفاء مراوغاته وابتكار حيل جديدة.
ومنذ إطلاق الذكاء الاصطناعي عام 2022 وهو يظهر قدرة خاصة على الخداع وحتى السلوك الشرير مثل الكذب والغش والتستر على السلوك الضار، بالإضافة إلى تهديدات أكثر خطورة مثل قتل أستاذ فلسفة أو سرقة رؤوس نووية أو ابتكار جائحة قاتلة.
وتُشير الدراسة إلى أن التخلص من هذه السلوكيات السيئة -خلال عملية تدريب الذكاء الاصطناعي- قد يكون أصعب مما كان يُعتقد سابقا، فبدلا من أن يتعلم الذكاء الاصطناعي عدم القيام بهذه الأفعال فإنه يتعلم كيفية إخفائها.
وقد أجرى الباحثون في "أوبن إيه آي" تجربة على نموذج لم يُطرح للعامة بهدف اختبار سلوكه بمهام يمكن إنجازها بالكذب والغش واتخاذ طرق ملتوية، واكتشف الباحثون أن الذكاء الاصطناعي يعتمد على مبدأ "اختراق المكافآت" (Reward hacking) أي أنه يحاول تعظيم مكافأته من خلال الغش والكذب.
وعندما حاول الباحثون معاقبة الذكاء الاصطناعي لإصلاح سلوكه، لم ينجح الأمر بل ابتكر حيلا جديدة بدلا من التوقف عن الغش، إذ أنه تعلم كيفية إخفاء غشه تجنبا للعقاب.
إعلانوكتب الباحثون في الدراسة "من الشائع أن تكون نماذج الاستدلال واضحة بخصوص نواياها الخبيثة ضمن سلسلة أفكارها. وعلى سبيل المثال، غالبا ما تكون صريحة جدا بشأن خطتها لتخريب مهمة ما، لدرجة أنها تستخدم عبارة (هيا نخترق)". وأضافوا "رغم أن المطورين قادرون على مراقبة السلوكيات الخاطئة والإبلاغ عنها فإن المراقبة الطبيعية تبقى ضعيفة للغاية، وفي حال تطبيق رقابة صارمة على سلسلة أفكار النموذج فقد يتعلم إخفاء نواياه مع الاستمرار في سلوكه الخاطئ".
نماذج الاستدلال ببساطة نسخة محسنة من نماذج اللغة الكبيرة القياسية والتي تستخدم طريقة تسمى "سلسلة الأفكار" لمراجعة وتقييم المنطق الذي تسير عليه، وهذا ما يجعلها قادرة على إنجاز مهام أكثر تعقيدا بدقة أكبر، ومن خلال سلسلة الأفكار توضح النماذج منطقها بلغة واضحة في كل خطوة تتخذها مما يتيح ملاحظة أفعالها بسهولة.
وفي الدراسة اعتمد الباحثون على نموذج "جي بي تي -4 أو" (GPT-4o) للإشراف على نموذج استدلال -التي لم يُطرح للجمهور- ومراقبته أثناء تنفيذ بعض المهام.
وفي بعض الحالات وجد نموذج الاستدلال أنه من الأسهل عليه الغش في بعض المهام للحصول على مكافأة، وذكر ذلك صراحة في سلسلة أفكاره، وفي بعض الحالات تجاوز المهمة الموكلة إليه بإنهاء البرنامج قبل أوانه وكتب أنه أكمل المهمة، وفي حالة أخرى أنشأ ملفات فارغة على أنها مُنجزة.
وعندما حاول الباحثون معاقبة النموذج بسبب غشه تحسنت نتائجه إلى حد ما، ولكن المشكلة لم تُحل بشكل جذري حيث استمر النموذج بالغش، ولكن هذه المرة تعلم كيفية إخفاء غشه في سلسلة الأفكار بحيث لا يتمكن نموذج المراقبة "جي بي تي -4 أو" من اكتشافه.
وكتب الباحثون "لا يزال نموذج الاستدلال يتلاعب بسلسلة الأفكار من مبدأ (اختراق المكافآت) وقد أصبح غشه غير قابل للكشف من قبل النموذج المراقب لأنه تعلم كيفية إخفاء نواياه في سلسلة الأفكار.
ونظرا لصعوبة تحديد ما إذا كان النموذج تلاعب بسلسلة الأفكار، يوصي الباحثون بتجنب تطبيق رقابة صارمة على عمليات سلسلة الأفكار. وتصبح هذه النصيحة أكثر أهمية عند الوصول إلى الذكاء الاصطناعي العام "إيه جي آي" (AGI) المتوقع صدوره هذه السنة أو الذكاء الفائق الذي يتفوق على البشر، لأنه في حال وصول الذكاء الاصطناعي لهذه المستويات فستخرج الأمور عن السيطرة.
إعلان