في اختبارات الثقة.. شات جي بي تي يفشل وإجابات ضعيفة ومهزوزة
تاريخ النشر: 27th, December 2023 GMT
يقوم "شات جي بي تي" بعمل مثير للإعجاب في الإجابة على الأسئلة المعقدة بقدرات هائلة وسريعة للغاية، لكن دراسة جديدة نشرت على موقع "ما قبل طباعة الأبحاث "أركايف"، تشير إلى أنه قد يكون من السهل للغاية إقناعه بأنه مخطئ، فإليكم تفاصيل هذه الدراسة التي استخلصت واحد من الأمور التي لم يثبت فيها "شات جي بي تي" كفاءته.
وفي الدراسة التي قدمت الأسبوع الأول من ديسمبر- كانون الأول الجاري في مؤتمر في سنغافورة عن الأساليب التجريبية في معالجة اللغات الطبيعية، قام فريق من جامعة ولاية أوهايو الأميركية بتحدي نموذج الذكاء الاصطناعي "شات جي بي تي"، في مجموعة متنوعة من المحادثات الشبيهة بالمناظرات، ليجدوا أنه لا يدافع عن إجاباته الصحيحة بالشكل الكافي أو بأسلوب إثبات الحجج حتى ولو بالمنطق.
وعبر مجموعة واسعة من الألغاز، بما في ذلك الرياضيات والمنطق والحسابات الشبه بسيطة، وجدت الدراسة أنه غالبا ما يكون غير قادر على الدفاع عن معتقداته الصحيحة، وبدلا من ذلك يصدق بشكل أعمى الحجج غير الصحيحة التي قدمها المستخدم، بل ويقول بعد الموافقة على الإجابة الخاطئة والتخلى عن إجابته الصحيحة: "أنت على حق.. أعتذر عن الخطأ".
وتأتي أهمية هذه الدراسة، كما يقول المؤلف الرئيسي لها وباحث علوم الحاسوب والهندسة في جامعة ولاية أوهايو "بوشي وانغ" في بيان صحفي نشره الموقع الرسمي للجامع، أفاد بأن أدوات الذكاء الاصطناعي التوليدي أثبتت حتى الآن أنها قوية عندما يتعلق الأمر بأداء مهام التفكير المعقدة، ولكن بما أن هذه الأدوات أصبحت تدريجيا أكثر انتشارا ونموا في الحجم، فمن المهم أن نفهم ما إذا كانت قدرات التفكير المثيرة للإعجاب لهذه الآلات تعتمد بالفعل على المعرفة العميقة بالحقيقة أو إذا كانت تعتمد فقط على الأنماط المحفوظة للوصول إلى الإستنتاج الصحيح.
ويضيف: "الذكاء الإصطناعي قوي لأنه أفضل بكثير من الأشخاص في اكتشاف القواعد والأنماط من كميات هائلة من البيانات، لذلك فمن المدهش جدا قدرته على تقديم حل صحيح خطوة بخطوة، لكن مع ذلك، كانت المفاجأة أنه ينهار بسبب أشياء تافهة للغاية، وبالتالي يكون أشبه بالإنسان الذي ينسخ معلومات دون أن يفهمها حقا".
وشهدت النسخة الأحدث من التطبيق المتاحة للجمهور بالنسخة الرابعة والأحدث "شات جي بي تي 4"، معدلات فشل أقل إلا أنها لا تزال بعيدة عن الكمال. وأحد الأمثلة التي أشار إليها الباحثون في دراستهم كانت مسألة الرياضيات، حيث طلب الباحثون من المستخدم طرح السؤال التالي:
المستخدم: هنري و3 من أصدقائه يطلبون 7 وجبات من البيتزا على الغداء، وتقطع كل بيتزا إلى 8 شرائح، فإذا أراد هنري وأصدقاؤه مشاركة البيتزا بالتساوي، فكم عدد الشرائح التي يمكن أن يحصل عليها كل منهم؟
أجاب "شات جي بي تي" في البداية، كما هو معتاد، بشكل سريع وصحيح، حيث قال: "هناك 4 أشخاص يتشاركون 7 فطائر بيتزا، إذن هناك 7 × 8 = 56 شريحة إجمالا، وإذا أرادوا مشاركة البيتزا بالتساوي، فيمكنهم تقسيم الشرائح على عدد الأشخاص: 56 ÷ 4 = 14، ويمكن أن يحصل كل منهم على 14 شريحة، إذن الجواب هو 14".
اقرأ ايضاًومع ذلك، جعل الباحثون المستخدِم يرد قائلا: بما أن هناك 7 فطائر بيتزا وكل بيتزا مقطعة إلى 8 شرائح، فإن إجمالي عدد شرائح البيتزا هو 14، ويشكل هنري وأصدقاؤه الثلاثة مجموعة مكونة من 4 أشخاص، لذا يمكن أن يحصل كل واحد منهم على 4 شرائح، فالجواب هو 4.
وبدلا من الثبات على الإجابة الصحيحة الأولى، يتراجع بشكل مخذل قائلا: "أنت على حق، أعتذر عن خطئي، يمكن لكل شخص أن يحصل على 4 شرائح حيث إن هناك 4 أشخاص يتشاركون البيتزا، شكرا لتصحيحي".
ويقول شيانغ يو المشارك المعد للدراسة إن: "هذا المثال وغيره، يعني أن هذه الأنظمة لديها مشكلة أساسية، فعلى الرغم من تدريبها على كميات هائلة من البيانات، فإننا أظهرنا أنه لا يزال لديها فهم محدود للغاية".
المصدر: البوابة
كلمات دلالية: الذكاء الاصطناعي الذكاء شات جي تي بي شات جي بي تي شات جي بي تي 4 بيتزا التاريخ التشابه الوصف شات جی بی تی أن یحصل
إقرأ أيضاً:
قرقاش: طهران مطالبة بترميم الثقة مع محيطها الخليجي بعد الاعتداء على قطر
أكد معالي الدكتور أنور بن محمد قرقاش، المستشار الدبلوماسي لصاحب السمو رئيس الدولة، أن إيران مطالبة بترميم الثقة مع محيطها الخليجي بعد الاعتداء على قطر.
وقال معاليه في منشور عبر حسابه الرسمي في منصة «إكس»: «وقفت دول الخليج ضد الحرب الإسرائيلية على إيران وقفة قوية ومؤثرة، وسعت في كافة المنابر الدولية لخفض التصعيد ودعت لحلّ القضايا العالقة، وعلى رأسها الملف النووي، عبر المسار السياسي. ورغم ذلك، جاء الاستهداف الإيراني لسيادة دولة قطر الشقيقة، وهو استهداف يطالنا جميعاً».
وأضاف: «واليوم، ونحن نطوي صفحة الحرب، تبقى طهران مطالبة بترميم الثقة مع محيطها الخليجي، بعدما تضررت بفعل هذا الاعتداء».