«الموارد البشرية لحكومة دبي» تبرم اتفاقية شراكة مع منظمة التعاون الاقتصادي والتنمية
تاريخ النشر: 22nd, April 2024 GMT
دبي: «الخليج»
أبرمت دائرة الموارد البشرية لحكومة دبي اتفاقية شراكة مع منظمة التعاون الاقتصادي والتنمية (OECD)، لاستضافة سلسلةٍ من الندوات الافتراضية حول مواضيع ومحاور تشمل سبل وآفاق تعزيز التقدم الاقتصادي والتجارة العالمية.
وفي إطار الاتفاقية نظمت الدائرة جُملةً من الندوات الافتراضية غطت مواضيع عدَّة، مثل «توظيف التحليلات لتعزيز المهارات المستقبلية»، و«جودة الوظائف في مستقبل العمل»، و«ممارسات بناء القدرات في الخدمة العامة»، و«تعزيز التوازن بين الجنسين في القوى العاملة»، و«الذكاء الاصطناعي التوليدي وعالم العمل».
وقال عبد الله علي بن زايد الفلاسي، مدير عام دائرة الموارد البشرية لحكومة دبي: «يسرنا أن نمضي قدماً في تطوير تعاوننا مع منظمة التعاون الاقتصادي والتنمية، والاستفادة من رؤى المؤسسة وخبراتها في تطوير ومشاركة أفضل الممارسات والمنهجيات على مدى أكثر من ستة عقود، بما يدعم رؤيتنا الرامية إلى تبنّي أفضل الممارسات العالمية لتحديث سياسات تمكين الكوادر البشرية، والارتقاء بالأداء الحكومي وإنتاجيته في سبيل تعزيز تنافسية دبي عالمياً».
وأضاف الفلاسي: «تكمن أهمية الندوات التي تنظمها الدائرة في إطار هذا التعاون في كونها تُلقي الضوء على الاقتصاد والتجارة العالمية وتحدياتها وآفاقها من منظور مجموعة من الخبراء الدوليين، وتغطي مُختلف المحاور التي تهمّ مجتمع الأعمال، من رواد أعمال وتجار ومصدّرين وموردين ومستثمرين ومصنّعين وشركات صغيرة ومتوسطة. كما تفرد هذه الندوات مساحةً واسعة لبحث سبل بناء نماذج اقتصادية أكثر استدامة وتنوعاً، ومشاركة منهجيات التوازن والشمولية في بيئات العمل، والارتقاء بسياسات تمكين المورد البشري لرفع كفاءة منظومة العمل المؤسسي، وضمان مواكبة مبادرات التنمية البشرية لأحدث الاتجاهات على هذا الصعيد، وتعزيز مواءمتها مع المستهدفات الوطنية الطموحة».
وكانت إيمان صالح بن خاتم، المدير التنفيذي لقطاع السياسات والبرامج في دائرة الموارد البشرية لحكومة دبي، قد افتتحت الندوة الافتراضية حول «تعزيز التوازن بين الجنسين في القوى العاملة، حيث قدمت لمحة عامة عن جهود دولة الإمارات العربية المتحدة لتعزيز التوازن بين الجنسين، وانعكاساتها على مختلف السياسات واللوائح التي تُعنى بالقوى العاملة. كما تضمنت الندوة الافتراضية أيضاً مجموعة من حلقات النقاش التي تطرقت إلى مواضيع مثل المساواة في الأجور، وعدم التمييز، والتقدم الوظيفي.
وأكدت إيمان بن خاتم أنَّ الندوات الافتراضية تشكل منصاتٍ فريدة لدراسة الواقع الاقتصادي ومستجداته وتحدياته، والتباحث في مختلف المواضيع التي تكتسب أهمية متنامية بالنسبة لقطاعات الأعمال والتجارة العالمية، والمسائل المتعلقة بالموارد البشرية. وأوضحت إيمان بن خاتم أن الندوات التي نظمتها الدائرة حتى الآن ركزت على الممارسات والمنهجيات المثلى للعمل المؤسسي وتقديم الخدمات، وضمان التوازن بين الجنسين من خلال سياسات ولوائح الموارد البشرية، واستكشاف ملامح مستقبل بيئات العمل والمهارات الوظيفية. وأشارت بن خاتم إلى أن الجلسات تفسح المجال أمام مشاركة المفاهيم والأفكار البنَّاءة على نطاقٍ أوسع لكونها تقام بالتعاون مع منظمة التعاون الاقتصادي والتنمية».
بدورها، قدمت منظمة التعاون الاقتصادي والتنمية خلال الندوة الافتراضية «تعزيز التوازن بين الجنسين في القوى العاملة» لمحة شاملة حول سياسات النوع الاجتماعي التي تنفذها الدول الأعضاء فيها. وشملت هذه المبادرات مجالات مثل إجازة الأبوة، ورعاية الأطفال، وترتيبات العمل المرنة، وشفافية الأجور، وتشريعات عدم التمييز.
كما استضافت الدائرة مؤخّراً ندوةً افتراضية بعنوان «الذكاء الاصطناعي التوليدي وعالم العمل» بالتعاون مع المنظمة، والتي تعدّ أحدث جلساتها ذات الصلة بالنهج المستقبلي لإمارة دبي. كما تتماشى هذه الجلسة مع توجيهات القيادة الرشيدة بتبني التكنولوجيا المستقبلية في العمل الحكومي والاستفادة من القدرات الإيجابية للتكنولوجيا وتوظيف الذكاء الاصطناعي في مختلف مجالات العمل لتعزيز ريادة الإمارة في مجالات التكنولوجيا وحلول الذكاء الاصطناعي. واستقطبت هذه الندوة مجموعةً من الخبراء والمهتمين من مختلف القطاعات لمناقشة مواضيع متنوعة تضمّنت مدى انتشار الذكاء الاصطناعي التوليدي في بيئات العمل وسُبل استخدامه، وتأثير الذكاء الاصطناعي التوليدي على الموظّفين في بيئة العمل، واستكشاف الآثار المترتبة على سياسة الذكاء الاصطناعي التوليدي في بيئة العمل. وأتاحت الندوة فقرات لطرح الأسئلة والاستفسارات للتفاعل مع الحضور وتبادل الأفكار والآراء.
يُذكر أنَّ دائرة الموارد البشرية لحكومة دبي تعتزم تنظيم المزيد من الندوات الافتراضية خلال الفترة المقبلة، بالتعاون مع منظمة التعاون الاقتصادي والتنمية، حول عددٍ من الموضوعات الاقتصادية والإنمائية.
المصدر: صحيفة الخليج
كلمات دلالية: فيديوهات الموارد البشرية لحكومة دبي الإمارات مع منظمة التعاون الاقتصادی والتنمیة دائرة الموارد البشریة لحکومة دبی الذکاء الاصطناعی التولیدی
إقرأ أيضاً:
الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.
إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.
وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي
تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.
لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.
كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.
أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.
وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.
المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.
وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.
قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.
ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.
أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.
أخبار ذات صلةتُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.
وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.
وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.
وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.
الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.
توصي الورقة بعدد من الإجراءات الوقائية، للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.
وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.
مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.
على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.
وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.
وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.
لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)