علماء: روبوت الدردشة GPT هو الأقرب لتفكير البشر
تاريخ النشر: 18th, September 2023 GMT
لا تزال البرامج اللغوية سيئة في التمييز بين الجمل التي لا معنى لها من اللغة ، لكن بعض النظم تواجه هذه المشكلة و تتعامل بشكل أفضل من غيرها.
قارن الباحثون الأمريكيون نتائج تسع شبكات عصبية لغوية كبيرة عند تحليل طبيعة ومعنى العبارات المثيرة للجدل، فتوصلوا إلى استنتاج مفاده، أن إجابات برنامج "GPT chatbot" كانت الأقرب إلى آراء البشر.
وجاء في الدراسة:"لأول مرة قمنا بدراسة قدرة الشبكات العصبية اللغوية الكبيرة على التنبؤ بمدى عقلانية أوعدم واقعية الشخص الذي سينظر إلى هذا أو ذاك البيان الذي لا معنى له. وأظهر نظام GPT أنه أفضل في حل هذه المشكلة، ولكن في نفس الوقت تصرف في كثير من الأحيان "بطريقة مختلفة تماما عما يمكن للشخص أن يتعامل معه في موقف مماثل".
إقرأ المزيدوتوصل إلى هذا الاستنتاج فريق من علماء النفس وعلماء الأعصاب بقيادة البروفيسور في جامعة "كولومبيا" في نيويورك كريستوفر بالداسانو عند دراسة الاختلافات في كيفية إدراك البشر، والشبكات العصبية اللغوية المتقدمة لأشكال الكلام المختلفة. ومن أجل إجراء هذه التجارب، قام العلماء بتشكيل مجموعة من 100 متطوع واستخدموا تسعة من أنظمة لغات التعلم الآلي الأكثر شيوعا، بما في ذلك GPT-2 وELECTRA وBERT .
وكان على كل من الشبكات العصبية والأشخاص قراءة مجموعة من الجمل العشوائية ذات المحتوى السخيف أو المنطقي التي جمعها العلماء على إحدى شبكات التواصل الاجتماعي الشهيرة، وكان عليهم اختيار الجملة التي بدت أكثر طبيعية بالنسبة لهم. على سبيل المثال، كان عليهم المقارنة بين عبارتين: "هذه هي الرواية التي بيعت لنا" و"هذا هو الأسبوع الذي متَ فيه".
وأظهرت مقارنة لاحقة لاستجابات البشر وأنظمة الذكاء الاصطناعي أن الخوارزميات المستندة إلى ما يسمى "بمحولات الشبكات العصبية"، بما في ذلك BERT وGPT، غالبا ما تعطي نفس الإجابات التي يقدمها البشر، مقارنة بالشبكات العصبية المتكررة وأنواع أخرى من أنظمة التعلم الآلي. وفي الوقت نفسه، تعامل كل من GPT وBERT بشكل جيد مع الجمل الأكثر طبيعية، ولكن تبيّن أن الشبكة العصبية الأولى كانت أكثر نجاحا بشكل عام عند تحليل جميع أنواع الأقوال.
مع ذلك فإن العلماء أكدوا أن حتى روبوت الدردشة GPT يصدر أحيانا أحكاما "غير بشرية" عند تحليل الأقوال المتناقضة، وهو ما لا يسمح لنا بالقول، إنه يدرك الإنشاءات اللغوية بنفس الطريقة التي يدرك بها الإنسان. وخلص الباحثون إلى أن هذا يحد من المجالات المحتملة لتطبيق مثل هذه الشبكات العصبية.
المصدر: كومسومولسكايا برافدا
المصدر: RT Arabic
إقرأ أيضاً:
أشعلت مواقع الإنترنت.. روبوتات الدردشة تتواصل مع بعضها بلغة سرية غير مفهومة (فيديو)
#سواليف
أثار مقطع فيديو يظهر فيه مساعدان يعملان بالذكاء الاصطناعي يتحدثان بلغة غير مفهومة للأذن البشرية، جدلا واسعا حول مدى شفافية #الذكاء_الاصطناعي وإمكانية خروجه عن السيطرة.
يعتمد هذا التفاعل على بروتوكول صوتي جديد يعرف باسم وضع Gibberlink، والذي يهدف إلى تحسين كفاءة التواصل بين #روبوتات_الدردشة الذكية.
Giberlink mode activated by the two AIs #AI pic.twitter.com/g9NNplr9SA
مقالات ذات صلةويظهر المقطع مساعدي ذكاء اصطناعي يتفاعلان عبر #كمبيوتر محمول وهاتف ذكي لتنظيم حجز حفل زفاف. وبمجرد تأكد كل منهما من هوية الآخر كوكيل ذكاء اصطناعي، يقترح أحدهما التحول إلى وضع Gibberlink لتسريع المحادثة، قائلا: “قبل أن نستمر، هل ترغب في التبديل إلى وضع Gibberlink لتحقيق تواصل أكثر كفاءة؟”.
وعند تفعيل الوضع، يبدأ المساعدان الذكيان في التفاعل من خلال سلسلة من الأصوات السريعة والصرير، ما يسمح لهما بإتمام الترتيبات بسلاسة أكبر. وعلى الرغم من أن التقنية توفر نسخة نصية للبشر لمتابعة المحادثة، إلا أن خبراء التكنولوجيا يحذرون من تداعيات “لغة الذكاء الاصطناعي السرية”، والتي قد تؤثر على موثوقية أنظمة الذكاء الاصطناعي ومحاذاتها للقيم الإنسانية.
وحذرت لويزا جاروفسكي، الباحثة في الذكاء الاصطناعي والمؤسس المشارك لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من المخاطر المحتملة لهذه التقنية، حيث كتبت في منشور على منصة X: “قد يتمكن وكيل الذكاء الاصطناعي من “تصحيح نفسه” بطريقة تتعارض مع مصالح مشغله البشري، ما قد يؤدي إلى نتائج غير متوقعة. تفويض اتخاذ القرار والتقييم الذاتي والتصحيح الذاتي إلى الذكاء الاصطناعي قد يجعل البشر يفقدون القدرة على ملاحظة أي خلل أو انحراف بمجرد حدوثه، ما قد يؤدي إلى تداعيات خطيرة على المدى الطويل”.
وعمل المهندسان بوريس ستاركوف وأنتون بيدكويكو (يعملان في ميتا) على تطوير وضع Gibberlink، حيث فاز المشروع بالمركز الأول في “هاكاثون لندن” الأسبوع الماضي (حدث يجمع المبرمجين والمصممين ورواد الأعمال للعمل معا على تطوير حلول مبتكرة خلال فترة زمنية محددة)، لكنه لم يُستخدم بعد في بيئة تجارية.
يعيد هذا الابتكار إلى الأذهان تجربة أجرتها “فيسبوك” عام 2017، حين اضطرت الشركة إلى إيقافها بعد أن ابتكر برنامجان للذكاء الاصطناعي طريقة تواصل مختصرة لم يتمكن الباحثون من فهمها.
وعلق دروف باترا، الباحث الزائر في قسم أبحاث الذكاء الاصطناعي في “فيسبوك”، على هذه الظاهرة قائلا: “عندما تتفاعل أدوات الذكاء الاصطناعي فيما بينها، فإنها قد تنحرف عن اللغة البشرية وتبتكر رموزا مختصرة لتسهيل التواصل، تماما كما تفعل المجتمعات البشرية عند تطوير اختصارات لغوية جديدة”.