خبراء يحذرون من خطر الذكاء الاصطناعي في تطوير الأسلحة الإرهابية
تاريخ النشر: 27th, October 2023 GMT
لندن
كشفت ورقة حكومية بريطانية، وضعها أكثر من 50 خبيراً، أنه بحلول عام 2025 يمكن استخدام الذكاء الاصطناعي لارتكاب عمليات احتيال وشن هجمات إلكترونية.
كما بينت أنه بحلول ذلك الوقت سيكون لدى هذه التقنية القدرة على “تعزيز القدرات الإرهابية” في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية، وفق صحيفة The Times.
و شملت مجموعة المخاطر الأكثر فتكاً التي يمكن أن تنشأ بحلول 2030، “التضليل الجماعي” و”أزمة البطالة” حيث يستولي الذكاء الاصطناعي على وظائف منخفضة المهارات، واستخدام التكنولوجيا لمساعدة الإرهابيين على تطوير أسلحة بيولوجية.
وأشارت الورقة الصادرة عن المكتب الحكومي للعلوم، إلى أنه لا توجد أدلة كافية لاستبعاد تهديد الذكاء الاصطناعي للإنسانية.
وأضافت: “بالنظر إلى عدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي، إلا أنه لا توجد أدلة كافية لاستبعاد أنه إذا تم ضبط أنظمة الذكاء الاصطناعي ذات القدرة العالية، بشكل غير صحيح أو لم يتم التحكم فيها بشكل كاف، يمكن أن تشكل تهديداً وجودياً”.
وأبانت، أن الذكاء الاصطناعي يمكنه بالفعل أداء “العديد من المهام المفيدة اقتصادياً” مثل تلخيص المستندات الطويلة وتحليل البيانات.
المصدر: صحيفة صدى
كلمات دلالية: أسلحة إرهابية الذكاء الاصطناعي هجمات إلكترونية الذکاء الاصطناعی
إقرأ أيضاً:
«ميتا» تختبر روبوتات الذكاء على إنستجرام
البلاد ــ وكالات
بدأت شركة ميتا اختباراتها بعرض شخصيات الذكاء الاصطناعي، التي صنعها المبدعون من خلال استوديو الذكاء الاصطناعي AI studio عبر تطبيق إنستجرام. وفي ذات الوقت، تطرح شركة روبوتات الدردشة Character.AI قدرة المستخدمين على التحدث مع الصور الرمزية للذكاء الاصطناعي عبر مكالمة.وأكد الرئيس التنفيذي لشركة ميتا أن هذه الروبوتات تميز بوضوح على أنها ذكاء اصطناعي، وتهدف لتوعية المستخدمين بطبيعة هذه الروبوتات.
كما يتيح الاستوديو لمنشئي المحتوى التفاعل مع المعجبين من خلال الذكاء الاصطناعي، ويمكن استخدامه أيضًا للتفاعل مع العملاء.
وتسعى ميتا لتحسين منتجاتها بهذا الإصدار من أنظمة الذكاء الاصطناعي، كما سيتم توسيع الاختبارات لتشمل عددًا أكبر من الأشخاص خلال الشهرين المقبلين؛ بهدف تمكين الشركات من بناء روبوتات دردشة مخصصة.