يمكن للمؤسسات التي تستخدم الذكاء الاصطناعي لمراقبة سلوك الموظفين وإنتاجيتهم أن تتوقع منهم أن يشتكوا أكثر، وأن يكونوا أقل إنتاجية، ويرغبوا في الاستقالة أكثر، ما لم يتم تأطير التكنولوجيا، وذلك وفق ما توصّلت إليه أبحاث في جامعة كورنيل، بحسب الباحث جيمس دين.

ووفقا للبحث نفسه، فإن أدوات المراقبة، التي يتم استخدامها بشكل متزايد لتتبع وتحليل النشاط البدني، وتعبيرات الوجه، والنبرة الصوتية والتواصل اللفظي والكتابي، تجعل الناس يشعرون بفقدان أكبر للاستقلالية مقارنة بالرقابة من قبل البشر.



يقول الباحثون، إن "الشركات والمنظمات الأخرى التي تستخدم التقنيات سريعة التغيّر لتقييم ما إذا كان الأشخاص يتراخون أو يعاملون العملاء بشكل جيد، أو يحتمل تورطهم في الغش أو أي مخالفات أخرى، يجب أن تأخذ في الاعتبار عواقبها غير المقصودة، التي قد تؤدي إلى المقاومة، وتضر بالأداء".

واقترح عدد من الباحثين ما وصفوه بـ"فرصة لكسب التأييد، إذا شعر الأشخاص الخاضعون للمراقبة أن الأدوات موجودة لمساعدتهم بدلا من الحكم على أدائهم؛ في تقييمات يخشون أنها سوف تفتقر إلى السياق والدقة".

وقالت إميلي زيتيك، وهي الأستاذة المشاركة في السلوك التنظيمي في كلية ILR في جامعة كورنيل: "عندما يتم تطبيق الذكاء الاصطناعي والتقنيات المتقدمة الأخرى لأغراض تنموية، فإن الناس يحبّون أن يتعلموا منه ويحسنوا أدائهم. تحدث المشكلة عندما يشعرون أن التقييم يحدث تلقائيا، مباشرة من البيانات، ولا يكونون قادرين على وضعه في سياقه بأي شكل من الأشكال".

شاركت زيتيك في تأليف دراسة "المراقبة الخوارزمية مقابل المراقبة البشرية تؤدي إلى تصورات أقل للاستقلالية وزيادة المقاومة"، التي نُشرت في 6 حزيران/ يونيو في مجلة Communications Psychology. راشيل شلوند، دكتوراه '24، هي المؤلف الأول.

وتشير إلى أن المراقبة الخوارزمية تسبّبت بالفعل في ردود فعل عكسية. خلال عام 2020، حيث تخلّى أحد البنوك الاستثمارية بسرعة عن برنامج تجريبي لاختبار برامج الإنتاجية لمراقبة نشاط الموظفين، بما في ذلك تنبيههم إذا أخذوا فترات راحة كثيرة. وأثارت مراقبة المدارس للاختبارات الافتراضية في أثناء الوباء احتجاجات ودعاوى قضائية، حيث قال الطلاب إنهم يخشون إساءة تفسير أي حركة على أنها غش.


من ناحية أخرى، قد يرى الناس أن الخوارزميات أكثر كفاءة وموضوعية. وقد وجدت الأبحاث أن الناس يصبحون أكثر تقبّلا لأنظمة تتبع السلوك مثل الشارات الذكية أو الساعات الذكية عندما تقدم هذه الأنظمة تعليقاتها مباشرة، بدلا من تقديم تلك التعليقات من خلال شخص قد يشكل أحكاما سلبية حول البيانات.

إلى ذلك، في أربع تجارب شملت ما يقرب من 1200 مشارك، قامت شلوند وزيتيك بالتحقيق فيما إذا كان من المهم أن يقوم الأشخاص أو الذكاء الاصطناعي والتقنيات ذات الصلة بالمراقبة، وما إذا كان السياق الذي يُستخدم فيه لتقييم الأداء أو دعم التنمية يؤثر على التصورات.

في دراسة أولى، عندما طُلب من المشاركين أن يتذكروا ويكتبوا عن الأوقات التي تم فيها رصدهم وتقييمهم من خلال أي من نوعي المراقبة، أفاد المشاركون بأنهم يشعرون بقدر أقل من الاستقلالية في ظل الذكاء الاصطناعي، وكانوا أكثر عرضة للانخراط في "سلوكيات مقاومة".

بعد ذلك، من خلال محاكاة المراقبة في العالم الحقيقي، طلبت دراستان من المشاركين العمل كمجموعة لتبادل الأفكار حول متنزه ترفيهي، ثم توليد أفكار بشكل فردي حول جزء واحد من المتنزه. وقيل لهم إن عملهم ستتم مراقبته من قبل مساعد أبحاث أو الذكاء الاصطناعي، ويتم تمثيل الأخير في مؤتمرات الفيديو عبر منصة "زوم" باسم "موجز تكنولوجيا الذكاء الاصطناعي".

وبعد عدة دقائق، قام المساعد البشري أو "الذكاء الاصطناعي" بنقل رسائل مفادها أن المشاركين لم يتوصلوا إلى أفكار كافية، ويجب عليهم بذل المزيد من الجهد. في الدراسات الاستقصائية التي أعقبت إحدى الدراسات، انتقد أكثر من 30 في المئة من المشاركين مراقبة الذكاء الاصطناعي، مقارنة بحوالي 7 في المئة انتقدوا المراقبة البشرية.


وكتب أحد المشاركين: "إن التعزيز من الذكاء الاصطناعي جعل الوضع أكثر إرهاقا وأقل إبداعا".
وبعيدا عن الشكاوى والانتقادات، وجد الباحثون أن أولئك الذين اعتقدوا أنهم يخضعون للمراقبة بواسطة الذكاء الاصطناعي، ولدوا أفكارا أقل، ما يشير إلى أداء أسوأ.

وقالت زيتيك: "على الرغم من أن المشاركين حصلوا على نفس الرسالة في كلتا الحالتين بأنهم بحاجة إلى توليد المزيد من الأفكار، فإنهم نظروا إليها بشكل مختلف عندما جاءت من الذكاء الاصطناعي بدلا من مساعد الأبحاث. لقد تسببت مراقبة الذكاء الاصطناعي في أدائهم بشكل أسوأ في دراسات متعددة."

وفي دراسة رابعة، تم إخبار المشاركين الذين تخيلوا أنهم يعملون في مركز اتصال أن البشر أو الذكاء الاصطناعي سوف يحللون عينة من مكالماتهم. بالنسبة للبعض، سيتم استخدام التحليل لتقييم أدائهم، وللآخرين، لتقديم ردود الفعل التنموية. في السيناريو التنموي، لم يعد المشاركون ينظرون إلى المراقبة الخوارزمية على أنها تنتهك استقلاليتهم أكثر، ولم يبلغوا عن نية أكبر للانسحاب.


تشير النتائج إلى وجود فرصة أمام المنظمات لتنفيذ المراقبة الخوارزمية بطرق يمكن أن تكسب ثقة الأشخاص بدلا من إثارة المقاومة.

وقالت زيتيك: "المنظمات التي تحاول تنفيذ هذا النوع من المراقبة بحاجة إلى التعرف على الإيجابيات والسلبيات. يجب عليهم أن يفعلوا ما في وسعهم لجعل الأمر أكثر تطورا أو التأكد من أن الناس يمكنهم إضافة السياق. إذا شعر الناس أنهم لا يتمتعون بالاستقلالية، فلن يكونوا سعداء".

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي الخوارزميات الساعات الذكية الذكاء الاصطناعي الخوارزميات الساعات الذكية المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی بدلا من

إقرأ أيضاً:

الذكاء الاصطناعي يُهدد النساء ويعرضها لخطر الابتزاز الإلكتروني

تابع أحدث الأخبار عبر تطبيق

نعيش الآن عصرا جديدا من التقدم السريع للتكنولوجيا والذكاء الاصطناعي، ورغم كم المساعدات التي يقدمها التطور التكنولوجي والفوائد التى تعود على المجتمع من خلاله، إلا أن هناك الكثير من السلبيات التي تهدد المجتمع بشكل عام والمرأة بشكل خاص.

ومن بين تلك السلبيات استخدام تقنيات متطورة للقيام بتهديد المرأة وابتزازها إلكترونيا، حيث يستخدم الذكاء الاصطناعي بشكل متزايد في أغراض الابتزاز الإلكتروني، مما يؤدي إلى تعريض المرأة لمخاطر عديدة وخطيرة.

ولذلك يجب على المجتمع أن يعمل على ضرورة تعزيز الوعي بين النساء وتوفير الحماية القانونية والتكنولوجية الكافية لمواجهة هذه التحديات، وتستعرض «البوابة» بعض الأضرار والمخاطر، التي قد تواجه النساء في ظل التطور التكنولوجي.

استغلال الصور الشخصية: يمكن للذكاء الاصطناعي الحصول على الصور الشخصية الخاصة واستخدامها لابتزاز النساء عبر وسائل التواصل الاجتماعي والإنترنت، حيث يتم تهديدهن بنشر هذه الصور إذا لم يتم تنفيذ ما يطلب منهن

فبركة محتوى مزيف: الذكاء الاصطناعي يمكنه إنشاء محتوى مزيف يظهر النساء بشكل غير لائق وفي مواقف مخلة بالآداب، مما يمكن استخدامه ضدهن كوسيلة للابتزاز الإلكتروني لتنفيذ مطالبهم سواء كانت مادية أم جنسية.

اختراق الحسابات: هناك بعض الهاكر يستغلون التكنولوجيا لاختراق حسابات النساء على منصات التواصل الاجتماعي أو البريد الإلكتروني، واستخدام هذه الحسابات لنشر معلومات خاصة لا يجب الاطلاع عليها ونشرها بهدف إهانتهن وابتزازهن.

التلاعب بالهوية الحقيقة: تستخدم بعض التقنيات الحديثة لتوليد معلومات شخصية مزيفة عن النساء، مما يمكن استخدامها في الابتزاز أو الضغط عليهن للقيام بأى شىء ضد المبادئ والقيم.

التهديدات المتكررة: يستطيع الذكاء الاصطناعي إنشاء أنماط تهديد متكررة ومستمرة ضد الضحايا، مما يزيد من حالة الضغط النفسي والاضطراب لديهن.

التأثيرات النفسية على المرأة: يؤدي الابتزاز الإلكتروني إلى تأثيرات سلبية كبيرة على حياة النساء، منها الخوف من المجتمع والانعزال وفقدان الثقة بالنفس والاضطراب النفسي.

صعوبة التتبع والمحاسبة القانونية: يعد الكشف عن المبتزين ومحاسبتهم صعب للغاية فى عالم التطور التكنولوجي، نظرًا للتكنولوجيا المتقدمة التي يمكن استخدامها لإخفاء الهوية وتشويه المعلومات.
 

مقالات مشابهة

  • العمل الإسلامي .. تعديلات نظامي الموارد البشرية وديوان الخدمة تنعكس سلباً على أداء القطاع العام
  • آبل تتجه لدمج جيمينى لنظام التشغيل iOS 18
  • «الذكاء الاصطناعي» يدخل عصر «الروبوتات القاتلة»
  • الصين تتصدر براءات الإختراع في مجال الذكاء الاصطناعي التوليدي عالميًا
  • صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟
  • قراصنة يخترقون الذكاء الاصطناعي
  • الذكاء الاصطناعي يُهدد النساء ويعرضها لخطر الابتزاز الإلكتروني
  • مناقشة آلية استخدام تقنيات الذكاء الاصطناعي لتحقيق ميزة تنافسية وتحسين الأداء في السوق العقاري
  • هذا ما يحصل عندما يراقب الذكاء الإصطناعي أداء الموظفين.. تزداد الشكاوى ويسوء الأداء