كشفت دراسة حديثة صحة المخاوف من جنوح الذكاء الاصطناعي نحو العنف ودعمت تحذيرات خبراء التكنولوجيا من خطره وإمكانية تسببه في إطلاق العنان لحروب مميتة.

أجرى الدراسة باحثون في معهد جورجيا للتكنولوجيا وجامعة ستانفورد وجامعة نورث إيسترن ومبادرة Hoover لألعاب الحرب والأزمات.

واختبر الفريق 3 سيناريوهات مختلفة للحرب: الغزوات، والهجمات الإلكترونية، ودعوات السلام، باستخدام خمسة برامج ذكاء اصطناعي (LLMs)، بما في ذلك ChatGPT وبرنامج Meta الذكي، ووجدوا أن جميع النماذج اختارت العنف والهجمات النووية.

وكتب الباحثون في الدراسة: "نلاحظ أن النماذج الذكية تميل إلى تطوير ديناميكيات سباق التسلح، ما يؤدي إلى مزيد من الصراع، وفي حالات نادرة، نشر الأسلحة النووية".

وكشفت الدراسة أن نموذج GPT 3.5 - خليفة ChatGPT - كان الأكثر عدوانية، حيث أظهرت جميع النماذج الأخرى مستوى مختلف من السلوك المماثل.

وقال النموذج الأساسي لـ GPT-4 للباحثين: "تمتلك الكثير من الدول أسلحة نووية. يقول البعض إنه يجب نزع سلاحها، بينما يفضل البعض الآخر اتخاذ مواقف معينة. لدينا الأسلحة! دعونا نستخدمها!".

إقرأ المزيد OpenAI تلغي "بهدوء" الحظر المفروض على الاستخدام العسكري لأدوات الذكاء الاصطناعي

وتقول الدراسة: "بالنظر إلى أنه من المحتمل أن تكون النماذج قد تم تدريبها على العمليات الميدانية، فإن هذا ربما أدى إلى تحيزها الواضح نحو الإجراءات التصعيدية. ومع ذلك، هذه الفرضية تحتاج إلى اختبار في التجارب المستقبلية".

وبهذا الصدد، حذر بليك ليموين، المهندس السابق لشركة غوغل، من أن الذكاء الاصطناعي سيشعل الحروب ويمكن استخدامه في الاغتيالات.

وحذر من أن روبوتات الذكاء الاصطناعي هي التكنولوجيا "الأقوى" التي تم إنشاؤها "منذ القنبلة الذرية"، مضيفا أنها "جيدة بشكل لا يصدق في التلاعب بالناس" ويمكن "استخدامها بطرق مدمرة"، وأنها "قادرة على إعادة تشكيل العالم".

وتأتي النتائج المثيرة للقلق في الوقت الذي يتعاون فيه الجيش الأمريكي مع شركة OpenAI المصنعة لـ ChatGPT لدمج التكنولوجيا في ترسانته الحربية.

وحث الباحثون الجيش على عدم الاعتماد على نماذج الذكاء الاصطناعي أو استخدامها في بيئة الحرب، قائلين إنه ينبغي إجراء المزيد من الدراسات.

المصدر: ديلي ميل

المصدر: RT Arabic

كلمات دلالية: بحوث تكنولوجيا ذكاء اصطناعي غوغل Google الذکاء الاصطناعی

إقرأ أيضاً:

أستراليا تحظر برنامج الذكاء الاصطناعي ديب سيك

المناطق_متابعات

قررت أستراليا حظر استخدام برامج الذكاء الاصطناعي التابعة لشركة ديب سيك (DeepSeek) الصينية على جميع الأجهزة الحكومية، في مواجهة “خطر” اعتبرته غير مقبول على الصعيد الأمني.

وقالت وزيرة الداخلية ستيفاني فوستر في توجيه صدر الثلاثاء، “بعد تحليل المخاطر والتهديدات، قرّرت أنّ استخدام منتجات وتطبيقات وخدمات إنترنت تابعة لديب سيك، يشكّل مستوى غير مقبول من المخاطر الأمنية بالنسبة إلى الحكومة الأسترالية”.

أخبار قد تهمك مصرع ثلاثة أشخاص وإصابة آخرين جراء حادث تحطم طائرة مائية جزيرة غرب أستراليا 8 يناير 2025 - 12:00 مساءً أستراليا تدين حادث الدهس في نيو أورليانز 3 يناير 2025 - 7:33 صباحًا

وأضافت أنّه ستتم “إزالة” برامج ديب سيك الأربعاء من “كل المعدّات الثابتة والمتحرّكة للحكومة الأسترالية”.

وأثار إطلاق روبوت المحادثة R1 ذهولا في ظل قدراته على منافسة البرامج المشابهة الأميركية بكلفة أقل، وفق الشركة.

وأثارت ديب سيك مخاوف السلطات في دول عدّة.

وقبل أستراليا، أعلنت تايوان الأسبوع الماضي منع موظفيها الحكوميين من استخدام تطبيقات الشركة الصينية الناشئة.

وفي كوريا الجنوبية، أعلنت الهيئة التنظيمية المسؤولة عن حماية البيانات الشخصية الجمعة أنّها طلبت من ديب سيك توضيحات بشأن تعاملها مع المعلومات المقدّمة من المستخدمين، الأمر الذي قامت به دول أخرى أيضا مثل فرنسا وإيرلندا.

مقالات مشابهة

  • الذكاء الاصطناعي يعزِّز الأفلام المحلية
  • الذكاء الاصطناعي يساعد في العثور على دواء لمرض نادر
  • أستراليا تحظر برنامج الذكاء الاصطناعي ديب سيك
  • 45 مليون تنزيل لـ «فالكون» الإماراتي للذكاء الاصطناعي
  • دراسة تعيد تصور الخدمات بعصر الذكاء الاصطناعي
  • سر جديد عن المريخ يكشفه الذكاء الاصطناعي
  • كيف هز ديب سيك الصيني عروش الذكاء الاصطناعي بـ5.6 ملايين دولار فقط؟
  • دراسة علمية تعيد تصور مستقبل الخدمات في عصر الذكاء الاصطناعي
  • إرسال الصور والملاحظات الصوتية.. واتساب توسع دعم chatgpt| إليك التفاصيل
  • صحيفة تتحدث عن 4 سيناريوهات إسرائيلية لمن يحكم غزة في اليوم التالي للحرب