يمكن للمؤسسات التي تستخدم الذكاء الاصطناعي لمراقبة سلوك الموظفين وإنتاجيتهم أن تتوقع منهم أن يشتكوا أكثر، وأن يكونوا أقل إنتاجية، ويرغبوا في الاستقالة أكثر، ما لم يتم تأطير التكنولوجيا، وذلك وفق ما توصّلت إليه أبحاث في جامعة كورنيل، بحسب الباحث جيمس دين.

ووفقا للبحث نفسه، فإن أدوات المراقبة، التي يتم استخدامها بشكل متزايد لتتبع وتحليل النشاط البدني، وتعبيرات الوجه، والنبرة الصوتية والتواصل اللفظي والكتابي، تجعل الناس يشعرون بفقدان أكبر للاستقلالية مقارنة بالرقابة من قبل البشر.



يقول الباحثون، إن "الشركات والمنظمات الأخرى التي تستخدم التقنيات سريعة التغيّر لتقييم ما إذا كان الأشخاص يتراخون أو يعاملون العملاء بشكل جيد، أو يحتمل تورطهم في الغش أو أي مخالفات أخرى، يجب أن تأخذ في الاعتبار عواقبها غير المقصودة، التي قد تؤدي إلى المقاومة، وتضر بالأداء".

واقترح عدد من الباحثين ما وصفوه بـ"فرصة لكسب التأييد، إذا شعر الأشخاص الخاضعون للمراقبة أن الأدوات موجودة لمساعدتهم بدلا من الحكم على أدائهم؛ في تقييمات يخشون أنها سوف تفتقر إلى السياق والدقة".

وقالت إميلي زيتيك، وهي الأستاذة المشاركة في السلوك التنظيمي في كلية ILR في جامعة كورنيل: "عندما يتم تطبيق الذكاء الاصطناعي والتقنيات المتقدمة الأخرى لأغراض تنموية، فإن الناس يحبّون أن يتعلموا منه ويحسنوا أدائهم. تحدث المشكلة عندما يشعرون أن التقييم يحدث تلقائيا، مباشرة من البيانات، ولا يكونون قادرين على وضعه في سياقه بأي شكل من الأشكال".

شاركت زيتيك في تأليف دراسة "المراقبة الخوارزمية مقابل المراقبة البشرية تؤدي إلى تصورات أقل للاستقلالية وزيادة المقاومة"، التي نُشرت في 6 حزيران/ يونيو في مجلة Communications Psychology. راشيل شلوند، دكتوراه '24، هي المؤلف الأول.

وتشير إلى أن المراقبة الخوارزمية تسبّبت بالفعل في ردود فعل عكسية. خلال عام 2020، حيث تخلّى أحد البنوك الاستثمارية بسرعة عن برنامج تجريبي لاختبار برامج الإنتاجية لمراقبة نشاط الموظفين، بما في ذلك تنبيههم إذا أخذوا فترات راحة كثيرة. وأثارت مراقبة المدارس للاختبارات الافتراضية في أثناء الوباء احتجاجات ودعاوى قضائية، حيث قال الطلاب إنهم يخشون إساءة تفسير أي حركة على أنها غش.


من ناحية أخرى، قد يرى الناس أن الخوارزميات أكثر كفاءة وموضوعية. وقد وجدت الأبحاث أن الناس يصبحون أكثر تقبّلا لأنظمة تتبع السلوك مثل الشارات الذكية أو الساعات الذكية عندما تقدم هذه الأنظمة تعليقاتها مباشرة، بدلا من تقديم تلك التعليقات من خلال شخص قد يشكل أحكاما سلبية حول البيانات.

إلى ذلك، في أربع تجارب شملت ما يقرب من 1200 مشارك، قامت شلوند وزيتيك بالتحقيق فيما إذا كان من المهم أن يقوم الأشخاص أو الذكاء الاصطناعي والتقنيات ذات الصلة بالمراقبة، وما إذا كان السياق الذي يُستخدم فيه لتقييم الأداء أو دعم التنمية يؤثر على التصورات.

في دراسة أولى، عندما طُلب من المشاركين أن يتذكروا ويكتبوا عن الأوقات التي تم فيها رصدهم وتقييمهم من خلال أي من نوعي المراقبة، أفاد المشاركون بأنهم يشعرون بقدر أقل من الاستقلالية في ظل الذكاء الاصطناعي، وكانوا أكثر عرضة للانخراط في "سلوكيات مقاومة".

بعد ذلك، من خلال محاكاة المراقبة في العالم الحقيقي، طلبت دراستان من المشاركين العمل كمجموعة لتبادل الأفكار حول متنزه ترفيهي، ثم توليد أفكار بشكل فردي حول جزء واحد من المتنزه. وقيل لهم إن عملهم ستتم مراقبته من قبل مساعد أبحاث أو الذكاء الاصطناعي، ويتم تمثيل الأخير في مؤتمرات الفيديو عبر منصة "زوم" باسم "موجز تكنولوجيا الذكاء الاصطناعي".

وبعد عدة دقائق، قام المساعد البشري أو "الذكاء الاصطناعي" بنقل رسائل مفادها أن المشاركين لم يتوصلوا إلى أفكار كافية، ويجب عليهم بذل المزيد من الجهد. في الدراسات الاستقصائية التي أعقبت إحدى الدراسات، انتقد أكثر من 30 في المئة من المشاركين مراقبة الذكاء الاصطناعي، مقارنة بحوالي 7 في المئة انتقدوا المراقبة البشرية.


وكتب أحد المشاركين: "إن التعزيز من الذكاء الاصطناعي جعل الوضع أكثر إرهاقا وأقل إبداعا".
وبعيدا عن الشكاوى والانتقادات، وجد الباحثون أن أولئك الذين اعتقدوا أنهم يخضعون للمراقبة بواسطة الذكاء الاصطناعي، ولدوا أفكارا أقل، ما يشير إلى أداء أسوأ.

وقالت زيتيك: "على الرغم من أن المشاركين حصلوا على نفس الرسالة في كلتا الحالتين بأنهم بحاجة إلى توليد المزيد من الأفكار، فإنهم نظروا إليها بشكل مختلف عندما جاءت من الذكاء الاصطناعي بدلا من مساعد الأبحاث. لقد تسببت مراقبة الذكاء الاصطناعي في أدائهم بشكل أسوأ في دراسات متعددة."

وفي دراسة رابعة، تم إخبار المشاركين الذين تخيلوا أنهم يعملون في مركز اتصال أن البشر أو الذكاء الاصطناعي سوف يحللون عينة من مكالماتهم. بالنسبة للبعض، سيتم استخدام التحليل لتقييم أدائهم، وللآخرين، لتقديم ردود الفعل التنموية. في السيناريو التنموي، لم يعد المشاركون ينظرون إلى المراقبة الخوارزمية على أنها تنتهك استقلاليتهم أكثر، ولم يبلغوا عن نية أكبر للانسحاب.


تشير النتائج إلى وجود فرصة أمام المنظمات لتنفيذ المراقبة الخوارزمية بطرق يمكن أن تكسب ثقة الأشخاص بدلا من إثارة المقاومة.

وقالت زيتيك: "المنظمات التي تحاول تنفيذ هذا النوع من المراقبة بحاجة إلى التعرف على الإيجابيات والسلبيات. يجب عليهم أن يفعلوا ما في وسعهم لجعل الأمر أكثر تطورا أو التأكد من أن الناس يمكنهم إضافة السياق. إذا شعر الناس أنهم لا يتمتعون بالاستقلالية، فلن يكونوا سعداء".

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي الخوارزميات الساعات الذكية الذكاء الاصطناعي الخوارزميات الساعات الذكية المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی بدلا من

إقرأ أيضاً:

OpenAI تستعد لإطلاق وكلاء الذكاء الاصطناعي باشتراك 20 ألف دولار شهريا

أفادت أحدث التقارير إلى أن شركة OpenAI تعتزم تكثيف جهودها لإطلاق العديد من منتجات وكلاء الذكاء الاصطناعي كأحد العوامل الرئيسية لنمو الإيرادات.

ووفقا لتقرير من The Information، تسعى شركة الذكاء الاصطناعي المطورة لـ ChatGPT إلى فرض رسوم تصل إلى 20,000 دولار شهريا على "وكلاء الذكاء الاصطناعي" المتخصصين والمصممين لتنفيذ مهام محددة تتعلق بهندسة البرمجيات والبحث.

OpenAI توسع إتاحة ميزة البحث العميق لمشتركي الخطط المأجورةOpenAI تقلب الموازين.. حظر حسابات صينية في ChatGPT يثير الجدل

وبحسب التقرير، تخطط OpenAI لإطلاق وكيل موجه للعاملين في المعرفة ذوي الدخل المرتفع، الذي سيكون الوصول إليه مقابل 2,000 دولار شهريا، كما يقال إن وكيل مطور البرمجيات القادم سيكلف 10,000 دولار شهريا.

أما الوكيل الأغلى لدى الشركة، الذي يصمم لتنفيذ "أبحاث على مستوى الدكتوراه"، فمن المتوقع أن يبلغ سعره 20,000 دولار شهريا.

بينما لا يزال من غير الواضح متى ستطلق OpenAI هذه الأدوات المعتمدة على الوكلاء الذكاء الاصطناعي، أفادت The Information بأن مستثمرها Softbank، قد تعهد بإنفاق 3 مليارات دولار على منتجات الوكلاء الذكاء الاصطناعي لشركة OpenAI هذا العام فقط.

وفي فبراير من هذا العام، أطلقت OpenAI أداة ذكاء اصطناعي جديدة تسمى Deep Research، التي قادرة على جمع المعلومات من جميع أنحاء الإنترنت ودمجها لإنشاء تقرير شامل على مستوى محلل الأبحاث.

كما تم إطلاق نموذج GPT-4.5 من الشركة الأسبوع الماضي، مع تحسينات في القدرة على التعرف على الأنماط وتوليد الأفكار الإبداعية دون الحاجة إلى التفكير المنطقي.

مايكروسوفت تنافس OpenAI

تسارع مايكروسوفت من جهودها لمنافسة OpenAI، من خلال تطوير نماذج ذكاء اصطناعي قوية خاصة بها واستكشاف بدائل لمنتجات مدعومة بالذكاء الاصطناعي مثل Microsoft Copilot.

وفقا لتقارير إعلامية، طورت مايكروسوفت نماذج "تفكير" للذكاء الاصطناعي مماثلة لنماذج OpenAI مثل O1 و O3-MINI. 

ويقال أن OpenAI رفضت طلبات مايكروسوفت للحصول على تفاصيل فنية حول كيفية عمل O1، مما يشير إلى وجود توترات بين الشركتين.

أفادت وكالة "بلومبرج" أن مايكروسوفت قامت أيضا بتطوير مجموعة نماذج تسمى MAI تنافس نماذج OpenAI الخاصة، ويقال إنها تفكر في تقديمها من خلال واجهة برمجة التطبيقات API في وقت لاحق من هذا العام.

بالتوازي مع هذه الجهود، يقال إن مايكروسوفت تختبر نماذج ذكاء اصطناعي بديلة من XAI و META و Deepseek كبدائل محتملة لتقنية OpenAI في Copilot.

وقد اتخذت مايكروسوفت، التي استثمرت حوالي 14 مليار دولار في OpenAI حتى الآن، خطوات للتحوط من استثماراتها في OpenAI بعدة طرق، بما في ذلك توظيف مؤسس DeepMind، مصطفى سليمان، لقيادة جهود الذكاء الاصطناعي في الشركة.

مقالات مشابهة

  • آبل تواجه تحديات تقنية .. تأجيل تحديثات الذكاء الاصطناعي لـ Siri حتى 2026
  • ياسين السقا.. احدث أبناء النجوم المشاركين في دراما رمضان 2025
  • «أبل» تؤجل دمج أحد خدماتها بـ«الذكاء الاصطناعي» حتى 2026.. ما السبب؟
  • آبل تؤجل تحديثات الذكاء الاصطناعي لـ Siri إلى عام 2026
  • OpenAI تستعد لإطلاق وكلاء الذكاء الاصطناعي باشتراك 20 ألف دولار شهريا
  • واتساب يحصل على أكبر ميزات وتحديث منذ سنوات يشمل الذكاء الاصطناعي Meta AI
  • نجم الزمالك السابق يوضح سبب الأداء المتواضع أمام مودرن سبورت
  • الأهلي يسخر من قرعة الذكاء الاصطناعي
  • شركة “كيرنو” تعقد شراكة استراتيجية مع DDN لتطوير الذكاء الاصطناعي والحوسبة عالية الأداء في الإمارات
  • ذبح الخنازير.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟