المستشار الروبوتي في صناعة القرار .. الفرص والتحديات
تاريخ النشر: 29th, April 2025 GMT
ظهر المستشار الروبوتي في عالم الأعمال مؤخرا، وحقق نجاحات واسعة في المجالات المالية من خلال توفير تحليلات البيانات الآنية، والرؤى الاستشرافية، والتوقعات المالية، ومختلف أدوات ضمان دقة وسرعة صناعة القرارات الاستثمارية الكبرى. وتسعى الأوساط الإدارية إلى استنساخ فكرة هذا المستشار الروبوتي ليشمل مختلف ممارسات القيادة التنظيمية.
ولكن التأثير العميق للذكاء الاصطناعي على عمليات صناعة القرار، وفعالية القيادة لا تزال بحاجة إلى وقفة متأنية لفهم تأثيراتها على النطاق الأوسع للهياكل التنظيمية، والكفاءات البشرية، والعمليات المؤسسية، والثقافة المهنية.
فإذا تأملنا واقع عمل المؤسسات، نجد بأن ظهور الذكاء الاصطناعي قد أحدث تحولات جذرية في المشهد التنظيمي، وذلك من حيث الممارسات العملية، وأدوار العاملين في مختلف المستويات الإدارية. وفي المجمل، قد ساهمت أدوات الذكاء الاصطناعي في تسريع التحول في الاستراتيجيات التنظيمية، وذلك من خلال إعادة تشكيل عملية التخطيط الاستراتيجي، وإدارة المخاطر، وبناء السمعة والهوية، والحفاظ على المزايا التنافسية.
ويُعد تأثير الذكاء الاصطناعي في عالم المؤسسات اليوم عميقا وتحويلا في آنٍ واحد، إذ لم يقتصر أثره على تحسين العمليات، وتبسيط الإجراءات الداخلية وحسب، بل امتد تأثيره إلى الجوانب التنفيذية مثل إعادة تعريف التعاونات الاستراتيجية البينية، وطريقة تفاعل المؤسسات مع نظيراتها، والمنافسين لها، مما أدى في نهاية المطاف إلى ظهور جيل مختلف من المؤسسات، وثقافة عمل مغايرة تماما للسمات التقليدية المعتادة.
وعلى الرغم من أن التركيز الراهن لدور المستشار الروبوتي، وغيره من التقنيات المتقدمة في عالم الأعمال والمؤسسات ينصب - بشكل كبير - حول تأثير الأتمتة، والتطور الرقمي على فرص العمل، إلا أن الذكاء الاصطناعي في المجمل يُدخل تغييرا هائلا على مشهد القيادة، والإدارة التنظيمية، وذلك من حيث تمكين عملية صناعة القرارات بغية التحول من النهج القائم على الحدس الإداري والخبرة إلى استراتيجيات أكثر اعتمادا على الأدلة.
مما يعني بأن الدوائر المؤسسية على أعتاب التحول الكبير في نماذج القيادة التقليدية إلى نماذج أكثر حداثة وعملية، ومعززة بأدوات الذكاء الاصطناعي، وتسمح للقادة بتطوير العمليات مع الاستجابة الذكية للمستجدات المتغيرة، وذلك بفضل إمكانية الوصول إلى مجموعات البيانات الضخمة، والاطلاع على التحليلات المتقدمة للاتجاهات، والبدائل الاستراتيجية، والذي بدوره يتيح الخيارات الداعمة لاتخاذ القرارات في الوقت الفعلي، وبالدقة المطلوبة بناء على النماذج التنبئية، وهي قدرات قد تستغرق وقتا أطول إذا اقتصر الاعتماد على الذكاء البشري لوحده.
وبالإضافة إلى دعم صناعة القرارات الاستراتيجية، يعزز الذكاء الاصطناعي عملية اتخاذ القرار على مستوى التخطيط التشغيلي، والذي يشمل مجالات وضع مقاييس الأداء الموجهة لتحسين الإنتاجية، ودعم فرق العمل، والتنبؤ باحتياجات القوى العاملة المستقبلية، وخفض التكاليف التشغيلية عبر اقتراح تدابير استباقية مدعمة بالاستشراف الذكي.
ومع الفوائد العديدة التي يتيحها الذكاء الاصطناعي، إلا أن إدماج المستشار الروبوتي في الإدارة التنظيمية هو أمر محفوف بالتحديات، والمخاطر التقنية، وكذلك بالمعضلات الأخلاقية، لا سيما فيما يتعلق بمحوري الشفافية والمساءلة.
فالتوجهات الإدارية المعاصرة التي تسعى إلى تعزيز التكامل المتزايد للذكاء الاصطناعي في الأدوار القيادية لا تواكب الوتيرة الفعلية لتطور عمل خوارزميات الذكاء الاصطناعي التي يتم تصميمها غالبا لتعزيز عملية صنع القرار كصناديق سوداء، وبذلك هو يضع حاجزا تقنيا يحول من دون فهم قادة الأعمال، والشركاء، وأصحاب المصلحة للكيفية التي تم بها التوصل للخيارات الاستراتيجية، والأولويات المقترحة في اتخاذ القرارات، وهنا يظهر التحدي الأول والمرتبط بنقص الشفافية، ففي ممارسات صناعة القرار التي تعتمد على الذكاء البشري، تظهر التوصيات النهائية مع جميع نقاط سلسلة التفكير والاستنتاج، ولكن التقنيات المتقدمة تتيح الخيارات النهائية، وهي تظهر كنتاج التحليل الذكي للبيانات والمدخلات ولكن دون توضيح للمنطلقات المنطقية في قراءة هذه التحليلات، أو مقارنتها مع حالات مشابهة ظهرت في الماضي، أو وضع احتمالات أخرى خارج البيانات التي تم تغذيتها في الأنظمة، وهذا النقص في الشفافية يخلق بالتبعية مخاوف بشأن المساءلة؛ فمن المسؤول عندما تؤدي القرارات التي يقودها الذكاء الاصطناعي إلى نتائج عكسية تماما، أو سلبية على أقل تقدير؟، وعلاوة على ذلك، تظهر القراءة الحالية لمدى كفاءة أنظمة الذكاء الاصطناعي في دعم صناعة القرار نسبة من المخاطر الفنية نظرا لكونها قائمة على الخوارزميات، وهي عرضة للتحيزات التي تفرضها جودة البيانات والمعلومات، وكذلك يُعد محور خصوصية البيانات وأمنها من المخاطر الأكثر إلحاحا في الوقت الراهن، هذا بالإضافة إلى المخاوف التي تُطرح دائما بشأن قدرة الذكاء الاصطناعي على تقويض العناصر البشرية في القيادة، مثل الذكاء العاطفي، والإبداع، والتواصل القيادي، هذا إلى جانب الصعوبات الناشئة عن وجود ثغرات في التوافق الثقافي مثل مقاومة التغيير.
وجميع هذه التحديات تفرض أهمية وضع المبادئ التنظيمية، والضوابط الأخلاقية الفاعلة قبل إدماج التكنولوجيات الرقمية، والذكاء الاصطناعي في عملية اتخاذ القرار.
إن المستشار الروبوتي ليس سوى صورة لما سيكون عليه واقع العمل في المستقبل، مما يفرض أهمية تسريع التكامل المسؤول للذكاء الاصطناعي في المشهد التنظيمي، وديناميكيات القيادة كاستراتيجية محورية، وضرورة إرساء الأطر الفاعلة لتمكين التعامل مع تعقيدات هذه التكنولوجيا، وتمكين إدارة المخاطر والتحديات التقنية والأخلاقية، واغتنام الفرص التي تتيحها هذه التقنيات لاتخاذ قرارات استباقية، وأكثر انفتاحا على البيانات والأدلة. ففي ظل بيئة الأعمال سريعة التطور، لم يعد توظيف الذكاء الاصطناعي مسألة أفضليات، ولكنه بمثابة الدعامة التي يمكنها أن توجه المؤسسات إلى الفرص غير المستغلة لتعزيز الابتكار والتنافسية.
ويتوقف نجاح المؤسسات في الاستعانة بالتقنيات الجديدة، مثل المستشار الروبوتي، على ثلاثة عوامل حاسمة وهي: ضمان جودة البيانات والمدخلات، والتغلب على فجوات الاتساق الثقافي، وتحقيق الإدارة المتكاملة والذكية للآثار الأخلاقية المتعلقة بدمج التقنيات المتقدمة للذكاء الاصطناعي.
وفي هذا السياق، تظهر أهمية التكامل مع الذكاء البشري من أجل توليد رؤى قائمة على البيانات، والخبرات، والحكمة، والتي يمكن الاستفادة منها في سد الفجوة التي تنشأ من الاعتماد على مصدر واحد لدعم صناعة القرارات الاستراتيجية، واكتساب القيمة النوعية من مختلف المدخلات، ودفع عجلة الابتكار على المدى البعيد.
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی فی للذکاء الاصطناعی صناعة القرارات صناعة القرار
إقرأ أيضاً:
مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.
وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.
هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.
ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!
ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.
وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.
ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.
حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.
وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.
ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.