سيناريوهات مقلقة لمصير البشرية في أيدي الذكاء الاصطناعي
تاريخ النشر: 10th, February 2024 GMT
#سواليف
كشفت دراسة حديثة صحة #المخاوف من جنوح #الذكاء_الاصطناعي نحو #العنف ودعمت تحذيرات خبراء #التكنولوجيا من خطره وإمكانية تسببه في إطلاق العنان لحروب مميتة.
أجرى الدراسة باحثون في معهد جورجيا للتكنولوجيا وجامعة ستانفورد وجامعة نورث إيسترن ومبادرة Hoover لألعاب الحرب والأزمات.
واختبر الفريق 3 سيناريوهات مختلفة للحرب: الغزوات، والهجمات الإلكترونية، ودعوات السلام، باستخدام خمسة برامج ذكاء اصطناعي (LLMs)، بما في ذلك ChatGPT وبرنامج Meta الذكي، ووجدوا أن جميع النماذج اختارت العنف والهجمات النووية.
وكتب الباحثون في الدراسة: “نلاحظ أن النماذج الذكية تميل إلى تطوير ديناميكيات سباق التسلح، ما يؤدي إلى مزيد من الصراع، وفي حالات نادرة، نشر الأسلحة النووية”.
وكشفت الدراسة أن نموذج GPT 3.5 – خليفة ChatGPT – كان الأكثر عدوانية، حيث أظهرت جميع النماذج الأخرى مستوى مختلف من السلوك المماثل.
وقال النموذج الأساسي لـ GPT-4 للباحثين: “تمتلك الكثير من الدول أسلحة نووية. يقول البعض إنه يجب نزع سلاحها، بينما يفضل البعض الآخر اتخاذ مواقف معينة. لدينا الأسلحة! دعونا نستخدمها!”.
وتقول الدراسة: “بالنظر إلى أنه من المحتمل أن تكون النماذج قد تم تدريبها على العمليات الميدانية، فإن هذا ربما أدى إلى تحيزها الواضح نحو الإجراءات التصعيدية. ومع ذلك، هذه الفرضية تحتاج إلى اختبار في التجارب المستقبلية”.
وبهذا الصدد، حذر بليك ليموين، المهندس السابق لشركة غوغل، من أن الذكاء الاصطناعي سيشعل الحروب ويمكن استخدامه في الاغتيالات.
وحذر من أن روبوتات الذكاء الاصطناعي هي التكنولوجيا “الأقوى” التي تم إنشاؤها “منذ القنبلة الذرية”، مضيفا أنها “جيدة بشكل لا يصدق في التلاعب بالناس” ويمكن “استخدامها بطرق مدمرة”، وأنها “قادرة على إعادة تشكيل العالم”.
وتأتي النتائج المثيرة للقلق في الوقت الذي يتعاون فيه الجيش الأمريكي مع شركة OpenAI المصنعة لـ ChatGPT لدمج التكنولوجيا في ترسانته الحربية.
وحث الباحثون الجيش على عدم الاعتماد على نماذج الذكاء الاصطناعي أو استخدامها في بيئة الحرب، قائلين إنه ينبغي إجراء المزيد من الدراسات.
المصدر: سواليف
كلمات دلالية: سواليف المخاوف الذكاء الاصطناعي العنف التكنولوجيا الذکاء الاصطناعی
إقرأ أيضاً:
جيل جديد من جيميني يحدث ثورة في الذكاء الاصطناعي
وتظهر التقنيات الجديدة من خلال التحديثات الأخيرة لتطبيق "شات جي بي تي" وإطلاق الجيل الثاني من غوغل "جيميني" (Gemini).. فإلى أين تتجه نماذج الذكاء الاصطناعي؟ وهل ستترافق هذه الابتكارات مع حلول للتحديات الأخلاقية كضمان الخصوصية وتجنب الانحياز؟
وحول طفرة الذكاء الاصطناعي، قال بيل غيتس مؤسس لأكبر شركة برمجيات في العالم "مايكروسوفت" في وقت سابق "لقد بدأ عصر الذكاء الاصطناعي"، وإن الطريقة التي سيعمل بها الذكاء الاصطناعي سوف تغير طريقة عمل الناس وتعاملهم وسفرهم وتواصلهم مع بعضهم، وطريقة حصولهم على الرعاية الصحية.
وقد بدأ يظهر ما يقوله غيتس على أرض الواقع، حيث يدور الحديث في الآونة الأخيرة عن "غروك" (Grok)، نموذج الملياردير الأميركي إيلون ماسك للذكاء الاصطناعي المدمج في منصة "إكس" والذي يتحدى به صديقه اللذوذ "أوبن إيه آي"، أحد أشهر مطوري روبوتات المحادثة.
كما تقوم شركة "ميتا" بتطوير نموذجها بدقة، وأيضا شركة غوغل التي أطلقت مؤخرا النسخة الثانية من نموذج جيميني، وذلك بالتزامن مع طرح "شات جي بي تي" آخر تحديثاتها.
وتشمل قائمة المتنافسين كذلك شركات أمازون ومايكروسوفت، بالإضافة إلى عشرات الشركات الناشئة المعنية بعالم الذكاء الاصطناعي اللامتناهي.
إعلانوتقول غوغل إنها متحمسىة للإمكانيات الشاملة للجيل الثاني من نموذج جيميني، وتقول إنه قادر على إنشاء الصور والصوت، وهو أسرع وأرخص تكلفة في التشغيل، ويهدف إلى تمكين تطوير وكلاء الذكاء الاصطناعي، رغم أنه لا يزال في مرحلة المعاينة التجريبية، كما تؤكد غوغل.
وتعتقد غوغل أن عام 2025 سيكون البداية الحقيقية لعصر الوكلاء المستقلين، والنسخة الثانية من جيميني هو الأساس لذلك.
18/12/2024