غوتيريش محذرا من الذكاء الاصطناعي: من الممكن استخدامه بـ"نية خبيثة" ويسبب ضررا واسعا
تاريخ النشر: 18th, July 2023 GMT
شاهد المقال التالي من صحافة الصحافة العربية عن غوتيريش محذرا من الذكاء الاصطناعي من الممكن استخدامه بـ نية خبيثة ويسبب ضررا واسعا، الأمم المتحدة سبوتنيك. وقال غوتيريش في ملاحظاته خلال نقاش مجلس الأمن بشأن الذكاء الاصطناعي يمكن أيضا استخدام أدوات الذكاء الاصطناعي من قبل .،بحسب ما نشر سبوتنيك، تستمر تغطيتنا حيث نتابع معكم تفاصيل ومعلومات غوتيريش محذرا من الذكاء الاصطناعي: من الممكن استخدامه بـ"نية خبيثة" ويسبب ضررا واسعا، حيث يهتم الكثير بهذا الموضوع والان إلى التفاصيل فتابعونا.
الأمم المتحدة - سبوتنيك. وقال غوتيريش في ملاحظاته خلال نقاش مجلس الأمن بشأن الذكاء الاصطناعي: "يمكن أيضا استخدام أدوات الذكاء الاصطناعي من قبل أصحاب النوايا الخبيثة، ويمكن لنماذج الذكاء الاصطناعي أن تساعد الناس على إيذاء أنفسهم وبعضهم بعضا على نطاق واسع".وواصل غوتيريش شرح سبب اعتقاده أن الأمم المتحدة هي المكان المناسب لوضع اللوائح.وأوضح أن "تأكيد ميثاق [الأمم المتحدة] على حماية الأجيال المقبلة، يمنحنا تفويضا واضحا لجمع جميع أصحاب المصلحة معا حول التخفيف الجماعي للمخاطر العالمية الطويلة الأجل، ويشكل الذكاء الاصطناعي مثل هذا الخطر".وأضاف أن "الأمم المتحدة ترحب بدعوات الدول الأعضاء لإنشاء كيان جديد للأمم المتحدة لدعم الحاجة إلى اللوائح".ووفقا لغوتيريش، فإن "جهاز الأمم المتحدة الجديد يمكن أن يكون مستوحى من نماذج، مثل الوكالة الدولية للطاقة الذرية أو منظمة الطيران المدني الدولي".وسبق للأمين العام للأمم المتحدة، أنطونيو غوتيريش، أن حذر من الذكاء الاصطناعي، بعد أن أكد الشهر الماضي، أنه أصبح يمثل خطرا على العالم لا يقل عن الخطر الذي تمثله الحرب النووية.ويعارض العديد من عمالقة التكنولوجيا انتشار استخدام تكنولوجيا الذكاء الاصطناعي، وأبرزهم رئيس شركة "تسلا" إيلون ماسك، الذي وقّع على رسالة مفتوحة، تدعو الشركات إلى إيقاف تجارب الذكاء الاصطناعي مؤقتا لمدة 6 أشهر، لإعادة التفكير في الآثار المتعلقة ببروتوكولات السلامة والأخلاقيات الخاصة بعملها.وخلال الأشهر الماضية، انتشرت مخاوف من برنامج الذكاء الاصطناعي "شات جي بي تي"، وسط تحذيرات من أنه ربما يقود لسرقة الملكية الفكرية على نطاق واسع ونشر معلومات مضللة، إضافة إلى إمكانية استخدامه في الوصول إلى بيانات حساسة وتسببه في القضاء على العنصر البشري في العديد من الوظائف.
المصدر: صحافة العرب
كلمات دلالية: الذكاء الذكاء الذكاء موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الأمم المتحدة من الممکن
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.