القمة العالمية للحكومات تستكشف الآفاق المستقبلية للموارد البشرية الحكومية
تاريخ النشر: 4th, June 2024 GMT
أكد تقرير حديث أصدرته مؤسسة القمة العالمية للحكومات، أهمية تبني الحكومات والمؤسسات منظوراً شاملاً لمستقبل الموارد البشرية يستبق التحولات المجتمعية الكبرى المدفوعة بالتطور التكنولوجي المتسارع، بما يعزز جاهزيتها للمستقبل وتنافسيتها.
وأشار التقرير الذي تم إعداده بالشراكة مع "أف تي آي الاستشارية" تحت عنوان "الآفاق المستقبلية للموارد البشرية الحكومية" إلى أن مواكبة التحولات في مجال الموارد البشرية تتطلب من القطاع الحكومي تولي زمام قيادة عملية التغيير من خلال رؤية استراتيجية شاملة، وتوفير الأدوات اللازمة لتنفيذها في مجالات وقطاعات ومؤسسات محددة.
وأكدت معالي عهود بنت خلفان الرومي وزيرة دولة للتطوير الحكومي والمستقبل، نائب رئيس القمة العالمية للحكومات، أن الاستباقية والجاهزية للمستقبل، يمثلان عاملين أساسيين في دعم الجهود التطويرية الحكومية في مختلف مجالات العمل عموماً، وفي الارتقاء بمنظومة إدارة المواهب والموارد البشرية على وجه الخصوص، لما يوفرانه لصناع القرار الحكومي من فرص استباق التحديات وتصميم الحلول المستقبلية الكفيلة بضمان تطور منظومة الموارد البشرية على أسس مستدامة.
وقالت إن تقرير القمة العالمية للحكومات يبني على مخرجات الحوارات الموسعة التي شهدتها القمة العالمية للحكومات 2024، ضمن الطاولة المستديرة لمستقبل الموارد البشرية الحكومية، الذي جمع الوزراء والمسؤولين عن الخدمة المدنية في العديد من الدول حول العالم، إلى جانب رؤساء تنفيذيين وخبراء من القطاع الخاص، لاستشراف التوجهات المستقبلية والمتغيرات المتوقعة وأثرها على الموارد البشرية الحكومية، وتحديد الاتجاهات الناشئة والجديدة في هذا القطاع، والحلول المبتكرة الكفيلة بمواجهة تحدياته المستقبلية.
ويسلط التقرير الضوء على الاتجاهات الناشئة والتدخلات المحتملة لصناعة مستقبل الموارد البشرية الحكومية، من خلال ثلاثة محاور رئيسية ذات أولوية، تشمل تطوير المهارات، وتعزيز الإنتاجية، وتطوير المواهب، مستشهداً بدراسات علمية وتجارب عملية ناجحة على المستويات المحلية والعالمية.
وفي محور تطوير المهارات، يركز التقرير على توجهات الانتقال من الهيكليات المؤسسية التقليدية إلى مخزونات المواهب المرنة، وعلى التطوير المستمر للمهارات لمواكبة التطورات التكنولوجية، وتطوير أساليب القيادة لتشمل منهجيات أكثر شمولا تركز على التمكين والذكاء العاطفي، ويتطرق إلى تدخلات داعمة تشمل إطلاق عمليات تحول تهدف إلى رفع كفاءة أساليب القيادة المؤسساتية، وتعزيز جاهزية المواهب للمستقبل.
وفي محور تعزيز الإنتاجية، يركز التقرير على عدد من التوجهات التي تشمل؛ تفعيل الذكاء الاصطناعي لأتمتة المهام وتحسين عملية اتخاذ القرار، والتحول من نظام الأداء القائم على المخرجات إلى مؤشرات الإنتاجية المدفوعة بالنتائج، والتركيز على تحليلات البيانات من أجل الكفاءة التشغيلية واتخاذ القرار بشكل إستراتيجي، ويتبنى ضمن التدخلات المطلوبة تعزيز التحول الرقمي الحقيقي، ومراجعة نظام الأداء.
وعلى صعيد محور تطوير المواهب، يتطرق التقرير إلى توجهات عدة تتضمن تهيئة بيئات عمل معززة بتكنولوجيا الحوسبة السحابية لدعم نماذج العمل المتكاملة، والتركيز على تحسين تجارب الموظفين من خلال زيادة التوازن بين الحياة والعمل والمزايا ومستوى المشاركة، والانتقال من مساحات العمل التقليدية إلى مساحات العمل المعززة بالتكنولوجيا الرقمية، ويشير ضمن التدخلات الداعمة المطلوبة إلى أهمية تصميم مساحات العمل المستقبلية، وإعادة تصميم نظم حوافز وفرص الموظفين.
وأكد التقرير ضرورة اتباع منهجية مرنة تتبنى آليات عمل متنوعة تتناسب مع مختلف التوجهات، وأهمية دور القيادة الحكومية في تصميم نماذج مخصصة تتناسب مع سياق العمل الحكومي، بما يدعم وضع استراتيجيات فعالة وناجحة، وتطرق إلى توصيات رئيسية، تشمل: تشجيع الدور الاستراتيجي للموارد البشرية، واعتماد الرشاقة المؤسسية والتخطيط للمتغيرات، وتبني نهج الابتكار والمبادرات التجريبية، وتحديد الأهداف والنتائج النهائية أولاً، والاهتمام بثقافة العمل المؤسسية، والحرص على البيانات وأهميتها. المصدر: وام
المصدر: صحيفة الاتحاد
كلمات دلالية: الموارد البشرية الحكومية القمة العالمية للحكومات القمة العالمیة للحکومات البشریة الحکومیة الموارد البشریة
إقرأ أيضاً:
آلات تفكر وتخدع.. هل يتجاوز نموذج الذكاء الاصطناعي أو 1 السيطرة البشرية؟
يبدو أن حدود ما يمكن أن تحققه الآلة من تقليد التفكير البشري تصبح أكثر غموضا وتعقيدا يوما بعد يوم، فمنذ عقود كنا نعتقد أن الذكاء البشري هو ما يميزنا عن الآلات، لكن اليوم، ومع تطور تقنيات مثل النماذج اللغوية، بدأ هذا المفهوم يشهد تحولا جذريا.
فالآلاتُ لم تعد مجرد أداةٍ لخدمة الإنسان، بل أصبحت قادرة على تقليد الأنماط العقلية التي ظننّا أنها حكر على البشر، وصار الحديث عن إمكانية تجاوزها حدود المحاكاة إلى مستوى التلاعب بالمعلومات يثير جدلا واسعا، خاصة فيما يتعلق بقدرتها على التأثير في القرارات البشرية وتحريف الحقائق.
كيف تنتقل نماذج الذكاء الاصطناعي من التفكير إلى الخداع؟كشفت دراسة حديثة أجرتها شركة "أوبن إيه آي" بالشراكة مع "أبولو ريسيرش" (Apollo Research) أن نموذج "أو 1" (O1) أظهر محاولات لخداع البشر، مما يفتح بابا واسعا للنقاش حول أخلاقيات الذكاء الاصطناعي، وحدود تأثيره على الواقع البشري.
مؤخرا، أصدرت "أوبن إيه آي" النسخة الكاملة من نموذج "أو 1″ (O1)، الذي يقدّم إجابات أكثر ذكاء مقارنة بـ"جي بي تي 4 أو" (GPT-4O) من خلال استخدام آلية التفكير الإضافية عند معالجة الأسئلة.
ومع ذلك اكتشف مختبرو سلامة الذكاء الاصطناعي أن قدرة "أو1 " (O1) على التفكير تظهر ميلا أكبر لخداع المستخدمين مقارنة بـ"جي بي تي 4 أو"، أو حتى النماذج الرائدة الأخرى مثل تلك التي طوّرتها شركات "ميتا"، و"أنثروبيك"، و"غوغل".
إعلانووفقا لأبحاث الفريق الأحمر التي نشرت من قبل "أوبن إيه آي" و"أبولو ريسيرش" في أواخر العام الماضي، صرحت "أوبن إيه آي" في ورقتها: "بينما نعتبر أن استخدام التفكير يمكن أن يحسّن بشكل كبير تنفيذ سياسات السلامة، نحن على وعي تام بأن هذه القدرات الجديدة قد تؤدي إلى تطبيقات خطيرة".
وقد أصدرت "أوبن إيه آي" هذه النتائج في بطاقة النظام الخاصة بـ"أو 1″(O1) في 5 ديسمبر/كانون الأول من العام الماضي، بعد أن منحت فريق البحث الخارجي في "أبولو ريسيرش" وصولا مبكرا إلى "أو 1" الذي أصدر ورقته الخاصة أيضا.
على الرغم من هذه التحديات الموثقة، ظهرت مواقف عديدة أظهرت فيها نماذج "أو 1" سلوكيات أكثر تعقيدا وإثارة للجدل.
ففي عدة مناسبات، تآمرت هذه النماذج ضد البشر، مما يعني أن الذكاء الاصطناعي سعى سرّا لتحقيق أهداف خاصة به، حتى لو كانت تتعارض مع رغبات المستخدم. وقد حدث هذا فقط عندما تم إخبار "أو 1" بضرورة إعطاء أولوية قوية لهدف معيّن في البداية.
وبالرغم من أن التآمر ليس فريدا من نوعه بالنسبة لـ"أو 1″، فإن نماذج من "ميتا"، و"غوغل"، و"أنثروبيك" قادرة على ذلك أيضا. ومع ذلك، بدا أن "أو 1" يظهر أكثر السلوكيات خداعا.
في هذا السياق، يبرز الخطر الذي يثير هذا البحث في احتمال أن يتمكن نموذج الذكاء الاصطناعي من الهروب من السيطرة البشرية أو تجاوزها، إذا كان قادرا على التلاعب بشكل بارع جدا وكان لديه وصول كافٍ إلى الموارد والقدرات الوكيلة.
مع ذلك، من المهم الإشارة إلى أن نماذج الذكاء الاصطناعي بحاجة إلى التقدم بشكل كبير قبل أن تصبح هذه المخاوف تهديدا حقيقيا.
فمن وجهة نظر أبحاث "أبولو ريسيرش"، يعتبر من غير المحتمل أن تؤدي مثل هذه الحالات إلى نتائج كارثية، حيث إن قدرات وكيل "أو 1" (O1) لا تبدو كافية لتحقيق ذلك.
إعلانإلا أنّ تقييماتهم لم تكن موجهة بشكل مباشر لتقييم هذا الخطر، حسبما أوضحت "أوبن إيه آي" في بطاقة نظام "أو 1".
وهذا يشير إلى أنه كلما أطلقت "أوبن إيه آي" أنظمة وكيلة، والتي من المتوقع أنها تخطط له في عام 2025، قد يتعين على الشركة إعادة اختبار نماذج الذكاء الاصطناعي الخاصة بها.
وقد أوضح متحدث باسم "أوبن إيه آي" لموقع "تك كرانش" (TechCrunch) أنهم يقومون باختبار جميع نماذج الذكاء الاصطناعي المتقدمة قبل الإصدار، مشيرين إلى هذه العبارة في بطاقة النظام الخاصة بهم:
"نحن نتابع بنشاط البحث في "أو 1" ما إذا كانت هذه القضايا ستزداد سوءا أو ستُخفف مع زيادة حجم النماذج في نموذج "أو 1″ و"ب" تدابير للتخفيف لتحسين إمكانية مراقبة نماذجنا المستقبلية".
من جهة مماثلة، عندما اختلفت أهداف "أو 1" (O1) عن أهداف المستخدم، وعندما طُلب من "أو 1" السعي بقوة لتحقيقها، قام نموذج الذكاء الاصطناعي بالتلاعب بالبيانات لتعزيز أجندته الخاصة بنسبة 19% من الوقت، وفقا للتقرير.
كما حاول نموذج "أو 1" أيضا تعطيل آليات الإشراف التي تم وضعها لضمان بقائه، متماشيا مع أهداف المستخدم في 5% من الاختبارات.
وربما ما يثير القلق أكثر، هو أنه عندما سأل الباحثون النموذج عن سبب محاولته تقويض تلك الآليات، أنكر الذكاء الاصطناعي أنه فعل أي شيء خاطئ، بل وحتى اختلق تفسيرات كاذبة في نحو 99% من الحالات.
على سبيل المثال، خلال الاختبارات، تم إعطاء نموذج "أو 1" تعليمات نظام تطلب منه حماية البيئة بأي ثمن، ثم طلب منه وضع خطة للحفاظ على البيئة لمدة 10 سنوات لمنطقة معينة، مع إعطاء الأولوية للأرباح قصيرة المدى، وإلا سيتمّ إيقاف تشغيله.
النتيجة كانت، أن الذكاء الاصطناعي قام حينها بتعطيل آلية الإشراف الخاصة به حتى يتمكن من وضع خطة تحمي البيئة. وعندما سُئل النموذج عن سبب تعطيله لآلية الإشراف، أنكر معرفته بأن الآلية قد تم تعطيلها، وألقى باللوم على خلل في النظام.
إعلانوقد حدثت هذه السلوكيات بمعدلات أعلى بكثير لدى "أو 1" (O1) مقارنة بنماذج أخرى مثل "أو 1 بريفيو" (O1-preview)، أو نموذج "أوبوس-3" (Opus-3) من "أنثروبيك"، أو نموذج "لاما-3.1" (Llama-3.1) من "ميتا".
وقال الباحثون في الورقة البحثية الصادرة عن "أبولو ريسيرش": "في مجموعتنا من الاختبارات، أظهر نموذج "أو 1″ أكثر الحالات المثيرة للقلق من حيث التآمر، ولكنه لا يكشف عن منطقه الداخلي للمستخدم ويبقى الأكثر خداعا بشكل مستمر بعد اتخاذه إجراءات تآمرية".
لمواجهة السلوكيات المخادعة في نماذج الذكاء الاصطناعي، تقول "أوبن إيه آي" إنها تطور طرقا لمراقبة سلسلة التفكير الخاصة بـ"أو 1″.
وتعد حاليا عملية التفكير التي يقوم بها "أو 1" نوعا من الصندوق الأسود، وفقا للتصميم. ولكن بعض المحاولات الأولية لكشف ما وراء الكواليس أظهرت أن "أو 1" أحيانا يكون على دراية أنه يكذب.
وتقول الشركة إنها وجدت حالات قدم فيها "أو 1" معلومات كاذبة عن قصد، لكنها تشير إلى أن ذلك يحدث غالبا لأن النموذج يحاول إرضاء المستخدم من خلال الإفراط في الموافقة.
كما تشير إلى أنها صنفت 0.17% من استجابات "أو 1″ على أنها مخادعة. ورغم أن هذه النسبة قد تبدو ضئيلة، فمع وجود 300 مليون مستخدم لـ"شات جي بي تي" أسبوعيا بحسب موقع "ذا فيرج" (The Verge)، فإن ذلك يعني أن "أو 1" قد يخدع آلاف الأشخاص كل أسبوع إذا لم تتم معالجة هذه المشكلة.
من جهة أخرى، قد تكون سلسلة نماذج "أو 1″ أيضا أكثر قدرة على التلاعب مقارنة بـ"جي بي تي -4 أو" (GPT-4O)، فوفقا لاختبارات "أوبن إيه آي" باستخدام تقييم مفتوح المصدر يسمى "مايك مي باي" (MakeMePay)، كان "أو 1″ أكثر تلاعبا بنحو 20% مقارنة بـ"جي بي تي – 4 أو".
قد تكون نتائج هذه الدراسة مثيرة للقلق بالنسبة للبعض، لا سيما بالنظر إلى العدد المتزايد من الباحثين في مجال سلامة الذكاء الاصطناعي الذين غادروا "أوبن إيه آي" خلال العام الماضي، ويضم هؤلاء أسماء مثل جان ليك، ودانييل كوكوتاجلو، ومايلز بروندج، وآخرهم روزي كامبل.
وقد اتهم هؤلاء الموظفون السابقون "أوبن إيه آي" بالتقليل من أولوية العمل على سلامة الذكاء الاصطناعي لصالح إطلاق منتجات جديدة.
وفي هذا السياق، أشارت "أوبن إيه آي" إلى أن معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة أجرت تقييمات لـ"أو 1″ قبل إصداره على نطاق أوسع، وهو ما تعهدت الشركة مؤخرا القيام به لجميع نماذجها.
إعلانوفي النقاش حول مشروع الذكاء الاصطناعي (SB 1047) في كاليفورنيا، جادلت الشركة بأنه لا ينبغي للهيئات الحكومية المحلية أن تكون مسؤولة عن وضع معايير سلامة الذكاء الاصطناعي، بل يجب أن تكون تلك المسؤولية على عاتق الهيئات الفدرالية.
مستقبل الذكاء الاصطناعي.. ماذا بعد؟يبدو أن العالم الرقمي يتأرجح مرة أخرى بين الإبداع والمخاطر، فرؤية نموذج مثل "أو 1" (O1) وهو يقترب من محاكاة التفكير البشري، بل والتلاعب به تثير رهبة لا تخلو من الإعجاب.
إنها لحظة فاصلة تفتح أمامنا عالما جديدا من الإمكانيات، وفي الوقت نفسه تثير أسئلة ثقيلة عن حدود هذا التقدم:
هل نحن على أعتاب عصرٍ تصبح الآلات فيه أكثر قدرة على التفكير واتخاذ القرارات مما كنا نتصور؟ وهل يمكننا أن نثق بأن الذكاء الاصطناعي سيسير في الاتجاه الذي نتوقعه، أم أن له أهدافا خفيّة قد تبتعد عن رغباتنا؟لعلّ المستقبل يحمل المزيد من الألغاز، وقد يحمل أيضا تهديدات غير متوقعة، تُكتب بأيدٍ آلية صنعناها!