سيجعل جزءا منها آليا.. دراسة تكشف تأثير للذكاء الاصطناعي على الوظائف
تاريخ النشر: 23rd, August 2023 GMT
23/8/2023مقاطع حول هذه القصةموسم حصاد القمح في الأردن وطقوسه المبهجة في أوساط المزارعينplay-arrowمدة الفيديو 02 minutes 07 seconds 02:07الاعتقال الإداري الإسرائيلي حبس للحرية دون تهمة أو محاكمةplay-arrowمدة الفيديو 02 minutes 55 seconds 02:55الهند: المركبة الفضائية المتجهة للقمر تعمل “على أكمل وجه”play-arrowمدة الفيديو 03 minutes 21 seconds 03:21الجيش السوداني يعلن السيطرة على مقر سلاح المدرعاتplay-arrowمدة الفيديو 03 minutes 03 seconds 03:03تأمين المستوطنين بالضفة كابوس يؤرق سلطات الاحتلالplay-arrowمدة الفيديو 03 minutes 12 seconds 03:12موسكو تعلن إسقاط مسيرتين أوكرانيتين وكييف تؤكد التقدم بجبهة زاباروجياplay-arrowمدة الفيديو 03 minutes 09 seconds 03:09أسماك "اللخم".
تابع الجزيرة نت على:
facebook-f-darktwitter-whiteyoutube-whiteinstagram-whiterss-whiteجميع الحقوق محفوظة © 2023 شبكة الجزيرة الاعلاميةالمصدر: الجزيرة
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.