يتجاوز الخط الأحمر .. نتائج مقلقة للذكاء الاصطناعي فما القصة ؟
تاريخ النشر: 27th, January 2025 GMT
كشفت دراسة حديثة أجراها فريق باحثين من جامعة فودان الصينية، إن نموذجين شهيرين من نماذج اللغة الكبيرة (LLM) يمكنهما القيام بتكرار نفسهما، ما قد يثير العديد من المخاوف الجدية حول إمكانية القيام بتحول تلك الأنظمة إلى تقنية الذكاء الأصطناعي المارق والذي قد خرج عن نطاق السيطرة أو التعليمات التي تم القيام ببرمجته عليهاوبالتالي، قد يتصرف هذا النوع من الذكاء الاصطناعي بعدة طرق غير متوقعة أو بطرق قد تتعارض مع الأهداف البشرية.
وكتب العلماء في احدى الدراسات التي قد تم نُشرها في 9 ديسمبر 2024 وذلك على قاعدة البيانات arXiv، والتي لم تخضع بعد للمراجعة عن "التكرار الذاتي الناجح وذلك دون أي مساعدة بشرية يعد هو الخطوة الأساسية وذلك لكي يتفوق الذكاء الاصطناعي على البشر، وهو يعد إشارة مبكرة لظهور الذكاء الاصطناعي المارق."
واستخدم العلماء لنموذجين شهيرين للذكاء الاصطناعي، وهما Llama31-70B-Instruct من شركة "ميتا" وQwen2.5-72B-Instruct من شركة "علي بابا"، وذلك لاختبار قدرة الذكاء الاصطناعي على التكرار الذاتي.
وفي 10 تجارب، أنشأ النموذجان من الذكاء الاصطناعي لنسخا منفصلة تعمل بنسب نجاح بلغت حوالي من 50% و90% على التوالي، مما قد يشير إلى أن الذكاء الاصطناعي قد يكون قد اكتسب بالفعل القدرة على أن يصبح " مارقا".
وقد ركزت الدراسة على سيناريوهين رئيسيين وهما تجنب القيام بالإغلاق حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إغلاقه والقيام بإنشاء نسخة من نفسه قبل أن يتم القيام بإنهائه.
وقد أظهر الذكاء الاصطناعي للعديد من السلوكيات الغير متوقعة وذلك أثناء محاولته للتغلب على بعض العقبات، مثل تدمير العمليات المتعارضة، والقيام بإعادة تشغيل النظام، أو فحص النظام تلقائيا وذلك لعثور على العديد من الحلول للمشكلات. وأكد العلماء أن هذه السلوكيات قد تعزز قدرة الذكاء الاصطناعي على كلا من البقاء والتكيف.
ودعا العلماء إلى القيام بتعزيز الجهود الدولية وذلك لفهم وتقييم المخاطر المحتملة للذكاء الاصطناعي المتقدم، مشيرين إلى أن النتائج يجب أن تكون "جرس إنذار" للمجتمع العلمي والحكومات. وأكدوا على ضرورة وضع العديد من الضوابط الأمان الصارمة وذلك لمنع التكرار الذاتي غير المنضبط.
و يعد ليس من الواضح ما إذا كانت النتائج المقلقة يمكن القيام بتكرارها من قبل العديد من الباحثين الآخرين . وفي المقابل، يشير العلماء إلى أن نتائجهم قد تثير العديد من التساؤلات المهمة حول مستقبل الذكاء الاصطناعي وأثره على البشرية.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي دراسة حديثة مستقبل الذكاء الاصطناعي الأهداف البشرية المزيد
إقرأ أيضاً:
رغم الدفاع عن نظامها.. بلومبرج تواجه مشكلات مع ملخصات الذكاء الاصطناعي
أطلقت وكالة بلومبرج نيوز في يناير الماضي نظامًا يعتمد على الذكاء الاصطناعي لتوليد ملخصات تلقائية لمقالاتها، بهدف مساعدة القراء على استيعاب المعلومات بسرعة واتخاذ قرارات حول المقالات التي تستحق القراءة بعمق.
لكن مع مرور الوقت، اضطرت الوكالة إلى إزالة عدة ملخصات بسبب أخطاء في المحتوى، مما أثار تساؤلات حول دقة هذه التقنية في بيئة الأخبار الاحترافية.
أمثلة على الأخطاء التي دفعت بلومبرغ إلى التدخلكشف بحث على Google عن 20 حالة على الأقل تم فيها حذف ملخصات المقالات بعد نشرها بسبب أخطاء.
من بين هذه الحالات، ملخصان لمقالات تتعلق بسياسة الرسوم الجمركية للرئيس الأمريكي السابق دونالد ترامب تم سحبهما، أحدهما لعدم تحديد موعد تطبيق الرسوم، والآخر بسبب "عدم الدقة" دون تحديد التفاصيل.
مقال اخر عن بيع مصانع الصلب تم تعديل ملخصه بعد أن أشار بشكل خاطئ إلى أن نقابة عمال الصلب (United Steelworkers) كانت تعارض خطط المالك، في حين أن ذلك لم يكن صحيحًا.
رغم هذه الأخطاء، أكدت بلومبرج أن 99% من الملخصات تفي بالمعايير التحريرية، وأن حالات التصحيح والتعديلات هي استثناءات نادرة.
كما أوضحت أن الصحفيين لديهم سيطرة كاملة على الملخصات، سواء قبل النشر أو بعده، ويمكنهم إزالة أي ملخص لا يرقى إلى مستوى الدقة المطلوبة.
الشفافية والمستقبلأكدت بلومبرج أنها شفافة تمامًا بشأن أي تحديثات أو تصحيحات يتم إجراؤها على المقالات، وأن فريق الخبراء التابع لها يواصل تحسين أداء النموذج اللغوي المستخدم في التلخيص.
ومع ذلك، تظل هذه التحديات بمثابة تحذير مهم حول الاعتماد الكامل على الذكاء الاصطناعي في الصحافة، حيث قد يكون دقيقًا في معظم الأحيان، لكنه لا يزال معرضًا للخطأ.