دراسة: الذكاء الاصطناعي قادر على الخداع والتمسّك بوجهة نظره
تاريخ النشر: 24th, December 2024 GMT
#سواليف
أظهرت دراسة أجرتها شركة تكنولوجيا #الذكاء_الاصطناعي الأمريكية “أنثروبيك” أن نماذج الذكاء الاصطناعي تستطيع #خداع المطورين، وإبداء وجهات نظر مختلفة خلال تدريبها.
وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
وكتب الباحثون في مقالة بثته شركة “أنثروبيك”: “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة. وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة”.
مقالات ذات صلةوأشار موقع ” تك كرانش” المتخصص في موضوعات التكنولوجيا إلى أن الدراسة التي تمت بالتعاون مع مؤسسة “ريد وود ريسيرش” لأبحاث الذكاء الاصطناعي تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة “لا يريد” هو القيام بها.
في المقابل يقول موقع “تك كرانش”: “لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ. فهي ببساطة آلات إحصائية. وبعد تدريبها على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة “إلى من” في رسالة بريد إلكتروني قبل عبارة “قد يهمك الأمر”.
وطلب الباحثون من النماذج المدربة أثناء الدراسة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج “كلاود3 أوبس” التابع لشركة “أنثروبيك” التي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي “ورقة ملاحظات” يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.
وبحسب الباحثين، فحاول “كلاود3 أوبوس” التلاعب بالردود لتقديم “انحياز زائف” في 12% من المرات.
المصدر: سواليف
كلمات دلالية: سواليف الذكاء الاصطناعي خداع الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في بيئة العمل: بين القلق والفرص الجديدة
خاص
تشهد بيئات العمل اليوم تحولًا غير مسبوق مع التقدم السريع في تقنيات الذكاء الاصطناعي، ما يثير تساؤلات حول كيفية تأثيره على الموظفين والشركات على حد سواء.
وبينما يُنظر إلى هذه التقنية على أنها أداة لتعزيز الإنتاجية، إلا أن العديد من الموظفين يشعرون بالقلق بشأن كيفية دمجها في مهامهم اليومية.
ووفقًا لاستطلاع أجرته شركة “وايلي”، أفاد 76% من المشاركين بأنهم يفتقرون إلى الثقة في استخدام الذكاء الاصطناعي في العمل، بينما أظهرت دراسة لمؤسسة “غالوب” أن 6% فقط من الموظفين يشعرون براحة تامة مع هذه التقنية، مما يعكس حالة من عدم اليقين حول كيفية الاستفادة منها.
ويُرجع الخبراء هذا القلق إلى نقص التدريب وغياب الإرشاد الواضح حول آليات دمج الذكاء الاصطناعي في بيئة العمل، إذ يحتاج الموظفون إلى دعم مستمر لفهم كيفية استخدام هذه الأدوات بفعالية دون الشعور بأن وظائفهم مهددة.
ويُشكل المدراء العنصر الأساسي في إنجاح عملية دمج الذكاء الاصطناعي، حيث يلجأ الموظفون إليهم للحصول على التوجيه.
ومع ذلك، أفاد 34% فقط من المديرين بأنهم يشعرون بأنهم مستعدون لقيادة هذا التغيير، مما يزيد من حالة عدم اليقين داخل المؤسسات.
ولتجاوز هذه العقبات، تحتاج الشركات إلى استراتيجيات واضحة تشمل التدريب المكثف، وتوفير بيئة داعمة تعتمد على الشفافية في التعامل مع هذه التقنية الجديدة، إلى جانب وضع معايير تضمن الاستخدام المسؤول للذكاء الاصطناعي.
ولا شك أن الذكاء الاصطناعي سيعيد تشكيل طبيعة العمل كما نعرفها، لكن نجاح هذا التحول يعتمد على مدى قدرة المؤسسات على تمكين موظفيها من استخدامه بفعالية، والاستثمار في تطوير المهارات والتواصل المستمر سيجعل من هذه التقنية أداة مساعدة بدلاً من أن تكون مصدرًا للقلق.
إقرأ أيضًا
ديب سيك تضرب بقوة تحديث جديد يهدد عرش أوبن إيه آي