يمانيون – متابعات
توصلت دراسة حديثة إلى أنّ تطبيقات الذكاء الاصطناعي والنماذج اللغوية المتطورة مثل “شات جي بي تي” ChatGPT ربما لا تشكل ”تهديد وجودي” حقيقي للبشرية، وذلك في محاولة لتحديد الآثار التي يمكن أن تترتب على انتشار هذه النماذج، وعلى عكس ما يخشاه البعض.

وأجرى باحثون من جامعة “باث” البريطانية وجامعة “دارمشتات التقنية” في ألمانيا تجارب لاختبار قدرة الروبوتات على إنجاز مهام لم يسبق أن واجهتها نماذج الذكاء الاصطناعي من قبل بما يسمى بـ”القدرات الناشئة”.

ويشرح الباحثون أنّ هذه الروبوتات تستطيع الإجابة على أسئلةحول المواقف الاجتماعية من دون أن يتم تدريبها أو برمجتها بشكل صريح على القيام بذلك، وذلك نتيجة “التعلم من السياق”.

ويقول الباحث في جامعة باث والمشارك في الدراسة، الدكتور هاريش تايار مادابوشي: “كان الخوف من أنه مع ازدياد حجم النماذج أكثر فأكثر، فإنها ستكون قادرة على حل مشاكل جديدة لا يمكننا التنبؤ بها حالياً، مما يشكل تهديداً بأنّ هذه النماذج الأكبر حجماً قد تكتسب قدرات خطرة بما في ذلك التفكير والتخطيط”.

إلّا أنّ فريق البحث توصل من خلال آلاف التجارب إلى أنّ مزيج من الذاكرة والكفاءة والقدرة على اتباع التعليمات يمكن أن يفسر القدرات والقيود التي تظهرها هذه البرمجيات، وفقاً لموقع جامعة “باث”، حيث أنها تتمتع فقط بـ”قدرة سطحية على اتباع التعليمات والتفوق في إتقان اللغة”.

وأكّدت الدراسة أنّ هذه البرمجيات تفتقر إلى القدرة على إتقان أو اكتساب مهارات جديدة بشكل مستقل “من دون تعليمات صريحة”، وهو ما يعني استمرار خضوعها للتحكم من قبل البشر وإمكانية التنبؤ بنشاطها.

وخلص فريق البحث إلى أنه “يمكن الاستمرار في استخدام نماذج الذكاء الاصطناعي القابلة للتعلّم، والتي يتم تدريبها على جمع بيانات أكبر من أي وقت مضى، دون مخاوف تتعلق بالسلامة”.

ومن المرجّح أن تولد هذه النماذج لغة أكثر تعقيداً وتصبح أفضل في اتباع التعليمات الواضحة والمفصلة.

وعلي الرغم من أنه “من غير المرجّح أن تكتسب مهارات التفكير المعقدة” كتلك التي يتمتع بها البشر، ينبّه الباحثون إلى إمكانية إساءة استخدام هذه التكنولوجيا الحديثة لتزيف الأخبار أو للاحتيال.

المصدر: يمانيون

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟

اعتاد الصحفي بن بلاك نشر قصة كاذبة في الأول من أبريل/نيسان من كل عام على موقعه الإخباري المحلي "كومبران لايف" (Cwmbran Life)، ولكنه صُدم عندما اكتشف أن الذكاء الاصطناعي الخاص بغوغل يعتبر الأكاذيب التي كتبها حقيقة ويظهرها في مقدمة نتائج البحث، وفقا لتقرير نشره موقع "بي بي سي".

وبحسب التقرير فإن بلاك البالغ من العمر 48 عاما بدأ بنشر قصصه الزائفة منذ عام 2018، وفي عام 2020 نشر قصة تزعم أن بلدة كومبران في ويلز سُجلت في موسوعة غينيس للأرقام القياسية لامتلاكها أكبر عدد من الدوارات المرورية لكل كيلومتر مربع.

ورغم أنه عدل صياغة المقال في نفس اليوم ولكن عندما بحث عنه في الأول من أبريل/نيسان، صُدم وشعر بالقلق عندما رأى أن معلوماته الكاذبة تستخدمها أداة الذكاء الاصطناعي من غوغل وتقدمها للمستخدمين على أنها حقيقة.

يُذكر أن بلاك قرر كتابة قصص كاذبة في يوم 1 أبريل/نيسان من كل عام بهدف المرح والتسلية، وقال إن زوجته كانت تساعده في إيجاد الأفكار، وفي عام 2020 استلهم فكرة قصته من كون كومبران بلدة جديدة حيث يكون ربط المنازل بالدوارات من أسهل طرق البناء والتنظيم.

وقال بلاك: "اختلقت عددا من الدوارات لكل كيلومتر مربع، ثم أضفت اقتباسا مزيفا من أحد السكان وبعدها ضغطت على زر نشر، ولقد لاقت القصة استحسانا كبيرا وضحك الناس عليها".

إعلان

وبعد ظهر ذلك اليوم أوضح بلاك أن القصة كانت عبارة عن "كذبة نيسان" وليست خبرا حقيقيا، ولكن في اليوم التالي شعر بالانزعاج عندما اكتشف أن موقعا إخباريا وطنيا نشر قصته دون إذنه، ورغم محاولاته في إزالة القصة فإنها لا تزال منشورة على الإنترنت.

وقال بلاك: "لقد نسيت أمر هذه القصة التي مر عليها 5 سنوات، ولكن عندما كنت أبحث عن القصص السابقة في يوم كذبة نيسان من هذا العام، تفاجأت بأن أداة غوغل للذكاء الاصطناعي وموقعا إلكترونيا لتعلم القيادة يستخدمان قصتي المزيفة ويظهران أن كومبران لديها أكبر عدد للدوارات المرورية في العالم".

وأضاف "إنه لمن المخيف حقا أن يقوم شخص ما في أسكتلندا بالبحث عن الطرق في ويلز باستخدام غوغل ويجد قصة غير حقيقية" (..) "إنها ليست قصة خطيرة ولكن الخطير حقا هو كيف يمكن للأخبار الكاذبة أن تنتشر بسهولة حتى لو كانت من مصدر إخباري موثوق، ورغم أنني غيرتها في نفس اليوم فإنها لا تزال تظهر على الإنترنت -فالإنترنت يفعل ما يحلو له- إنه أمر جنوني".

ويرى بلاك أن الذكاء الاصطناعي أصبح يشكل تهديدا للناشرين المستقلين، حيث تستخدم العديد من الأدوات محتواهم الأصلي دون إذن وتعيد تقديمه بأشكال مختلفة ليستفيد منها المستخدمون، وهذا قد يؤثر سلبا على زيارات مواقعهم.

وأشار إلى أن المواقع الإخبارية الكبرى أبرمت صفقات وتعاونت مع شركات الذكاء الاصطناعي، وهو أمر غير متاح له كناشر مستقل.

ورغم أن بلاك لم ينشر قصة كاذبة هذا العام بسبب انشغاله، فإن هذه التجربة أثرت عليه وجعلته يقرر عدم نشر أي قصص كاذبة مرة أخرى.

مقالات مشابهة

  • أردول..لا اعتقد التنسيق الامني والتحالف العسكري بين الحركة الشعبية الحلو – ومليشيا الدعم السريع باسم (قوات التحالف ) يمكن ان يشكل تهديد كبير
  • بيل غيتس يكشف عن 3 مهن ستصمد في وجه الذكاء الاصطناعي
  • لماذا يجب على الحوامل تناول الفلفل الحار؟ دراسة تجيب
  • غيتس يحدد المهن التي ستبقى خارج سيطرة الذكاء الاصطناعي
  • هل الزواج له علاقة بالخرف لدى الرجال؟.. دراسة تجيب
  • كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟
  • الذكاء الاصطناعي يغزو الجامعات.. ChatGPT ينافس على عقول الجيل القادم
  • بيل غيتس يكشف المهن التي ستظل بعيدة عن تأثير الذكاء الاصطناعي: 3 فقط
  • بيل غيتس عن الذكاء الاصطناعي: 3 مهن ستنجو من إعصار
  • تقرير أممي: الذكاء الاصطناعي سيؤثر على قرابة نصف الوظائف في العالم