سيناريوهات مقلقة لمصير البشرية في أيدي الذكاء الاصطناعي
تاريخ النشر: 8th, February 2024 GMT
كشفت دراسة حديثة صحة المخاوف من جنوح الذكاء الاصطناعي نحو العنف ودعمت تحذيرات خبراء التكنولوجيا من خطره وإمكانية تسببه في إطلاق العنان لحروب مميتة.
أجرى الدراسة باحثون في معهد جورجيا للتكنولوجيا وجامعة ستانفورد وجامعة نورث إيسترن ومبادرة Hoover لألعاب الحرب والأزمات.
واختبر الفريق 3 سيناريوهات مختلفة للحرب: الغزوات، والهجمات الإلكترونية، ودعوات السلام، باستخدام خمسة برامج ذكاء اصطناعي (LLMs)، بما في ذلك ChatGPT وبرنامج Meta الذكي، ووجدوا أن جميع النماذج اختارت العنف والهجمات النووية.
وكتب الباحثون في الدراسة: "نلاحظ أن النماذج الذكية تميل إلى تطوير ديناميكيات سباق التسلح، ما يؤدي إلى مزيد من الصراع، وفي حالات نادرة، نشر الأسلحة النووية".
وكشفت الدراسة أن نموذج GPT 3.5 - خليفة ChatGPT - كان الأكثر عدوانية، حيث أظهرت جميع النماذج الأخرى مستوى مختلف من السلوك المماثل.
وقال النموذج الأساسي لـ GPT-4 للباحثين: "تمتلك الكثير من الدول أسلحة نووية. يقول البعض إنه يجب نزع سلاحها، بينما يفضل البعض الآخر اتخاذ مواقف معينة. لدينا الأسلحة! دعونا نستخدمها!".
إقرأ المزيد OpenAI تلغي "بهدوء" الحظر المفروض على الاستخدام العسكري لأدوات الذكاء الاصطناعيوتقول الدراسة: "بالنظر إلى أنه من المحتمل أن تكون النماذج قد تم تدريبها على العمليات الميدانية، فإن هذا ربما أدى إلى تحيزها الواضح نحو الإجراءات التصعيدية. ومع ذلك، هذه الفرضية تحتاج إلى اختبار في التجارب المستقبلية".
وبهذا الصدد، حذر بليك ليموين، المهندس السابق لشركة غوغل، من أن الذكاء الاصطناعي سيشعل الحروب ويمكن استخدامه في الاغتيالات.
وحذر من أن روبوتات الذكاء الاصطناعي هي التكنولوجيا "الأقوى" التي تم إنشاؤها "منذ القنبلة الذرية"، مضيفا أنها "جيدة بشكل لا يصدق في التلاعب بالناس" ويمكن "استخدامها بطرق مدمرة"، وأنها "قادرة على إعادة تشكيل العالم".
وتأتي النتائج المثيرة للقلق في الوقت الذي يتعاون فيه الجيش الأمريكي مع شركة OpenAI المصنعة لـ ChatGPT لدمج التكنولوجيا في ترسانته الحربية.
وحث الباحثون الجيش على عدم الاعتماد على نماذج الذكاء الاصطناعي أو استخدامها في بيئة الحرب، قائلين إنه ينبغي إجراء المزيد من الدراسات.
المصدر: ديلي ميل
المصدر: RT Arabic
كلمات دلالية: بحوث تكنولوجيا ذكاء اصطناعي غوغل Google الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي قد يودي بحياة 1300 أمريكي سنوياً
تشير الأبحاث إلى أن مراكز البيانات التي تدعم صناعة الذكاء الاصطناعي قد تترتب عليها تكاليف بيئية ضخمة، بالإضافة إلى خسائر بشرية، مما يضيف عبئاً جديداً على الصحة العامة.
يحذر العلماء من أن تلوث الهواء، الناتج عن مراكز البيانات العديدة في جميع أنحاء الولايات المتحدة، في وفاة ما يصل إلى 1300 شخص سنوياً، في سن مبكرة، بحلول 2030، وفقاً لتقرير نشرته صحيفة "اندبندنت".
"الخرف الرقمي".. نتائج تقلب الموازين حول قدرات الذكاء الاصطناعي - موقع 24في الوقت الذي يتحدث فيه خبراء التكنولوجيا وصناعها عن القدرات الهائلة لنماذج الذكاء الاصطناعي، لا سيما برامج الدردشة الآلية وإمكانية إحلالها محل الأطباء البشريين في القريب العاجل، أظهرت دراسة حديثة اتجاهاً مُخالفاً كلياً حولها، وضعفاً إدراكياً مشابهاً لأعراض "الخرف المُبكر/ الشيخوخة" لدى ...وتم تضمين هذه النتائج في تقرير حديث شارك في تأليفه مدير علوم وتقنيات المعلومات في معهد كاليفورنيا للتكنولوجيا (كالتك)، آدم ويرمان، مع علماء من معهد كاليفورنيا للتكنولوجيا وجامعة كاليفورنيا في ريفرسايد (UC Riverside)، والذي لم يتم مراجعته بعد.
وقال آدم ويرمان: "عندما نتحدث عن تكاليف الذكاء الاصطناعي، كان هناك الكثير من التركيز على قياسات مثل استخدام الكربون والمياه. وعلى الرغم من أهمية هذه التكاليف، فإنها ليست ما سيؤثر على المجتمعات المحلية حيث يتم بناء مراكز البيانات".
من الوكلاء إلى الهلوسات.. هكذا تطور الذكاء الاصطناعي في 2024 - موقع 24شهد عام 2024 تطورات بارزة في مجال الذكاء الاصطناعي، خاصة في نماذج اللغة التي أصبحت أكثر دقة وكفاءة؛ فمن النماذج الصغيرة ذات القدرات المذهلة إلى معالجة الهلوسات وصولاً إلى ظهور وكلاء الذكاء الاصطناعي، يبرز هذا العام بوصفه نقطة تحول كبيرة في هذا المجال.وتتطلب الطاقة اللازمة لتشغيل أنظمة الحوسبة وخوادم الذكاء الاصطناعي كمية ضخمة من الكهرباء.
وتتضاعف القدرة الحاسوبية المخصصة للذكاء الاصطناعي كل 100 يوم، وفقاً لتقديرات المنتدى الاقتصادي العالمي في أبريل (نيسان) الماضي.
ويستخدم جزء كبير من إنتاج الكهرباء الوقود الأحفوري الملوث بالغازات المسببة للاحتباس الحراري.
وفي العام الماضي فقط، أنتجت مراكز البيانات على الأقل 106 مليون طن متري من الانبعاثات، وهو ما يعادل تقريبا انبعاثات صناعة الطيران التجارية المحلية، وفقا للباحثين في هارفارد وجامعة كاليفورنيا في لوس أنجلوس (UCLA).
وأشار التقرير إلى أن توليد الكهرباء اللازمة لتدريب النموذج اللغوي الكبير للذكاء الاصطناعي Llama-3.1 التابع لشركة "ميتا" أسفر عن تلوث هواء يعادل أكثر من 10 آلاف رحلة ذهاب وعودة بالسيارة بين لوس أنجليس ونيويورك.
وأوصى القائمون على الدراسة بأن يتم إلزام شركات التكنولوجيا بالإبلاغ عن تلوث الهواء الناتج عن توليد الطاقة واستخدامها، بالإضافة إلى تعويض المجتمعات التي قد تتأثر بشدة بتلوث الهواء من مراكز البيانات.
وأشاروا إلى أن تلوث الهواء الناتج عن الذكاء الاصطناعي سيؤثر بشكل غير متناسب على بعض المجتمعات ذات الدخل المنخفض، على الرغم من أن التلوث ينتقل عبر حدود المقاطعات والولايات.