إطلاق منصة الذكاء الاصطناعي لتوظيف الكفاءات المواطنة
تاريخ النشر: 22nd, October 2023 GMT
دبي (الاتحاد)
أخبار ذات صلة «القمة السنوية للقيادات العالمية الشابة» تؤكد دور الشباب في تحفيز العمل التنموي والمناخي «طرق دبي» تُصدِر تقرير الاستدامة السنوي الثامنأطلق مجلس تنمية الموارد البشرية الإماراتية في دبي منصة الذكاء الاصطناعي لتوظيف الكفاءات المواطنة، التي تقوم على أحدث تقنيات الذكاء الاصطناعي التوليدي لإدارة مطابقة ملفات الباحثين عن عمل المواطنين مع الفرص الوظيفية المتاحة، كما تعتمد على تحليل البيانات وتوفّر لوحة تحكّم تُمكّن المجلس من توفير الفرص الوظيفية الأنسب للباحثين عن عمل بشكل لحظي.
ويأتي الإطلاق في إطار حرص المجلس على تبني آخر ما توصّلت له التقنيات لزيادة كفاءة وفعالية التوطين، بما ينعكس على تجربة المواطنين الباحثين عن عمل.
وقال عبد الله علي بن زايد الفلاسي، مدير عام دائرة الموارد البشرية لحكومة دبي، نائب رئيس مجلس إدارة مجلس تنمية الموارد البشرية في دبي: «منذ تأسيس المجلس أخذنا على عاتقنا الاستكشاف الدائم لأحدث التقنيات وتوظيفها في التنقيب عن ثروة رأس المال البشري الذي يعتبر الثروة الحقيقية التي يُبنى المستقبل بناءً عليها، وأردنا ترجمة توجيهات صاحب السمو الشيخ محمد بن راشد آل مكتوم، نائب رئيس الدولة رئيس مجلس الوزراء حاكم دبي، رعاه الله، بضرورة توظيف الذكاء الاصطناعي التوليدي مثل (ChatGPT) في العمل الحكومي. واليوم بإطلاق هذه المنصة نتطلّع لإحداث نقلة نوعية في توظيف قدرات الذكاء الاصطناعي للارتقاء بإمكانيات وسرعة اتخاذ القرار المتعلق بمطابقة الكفاءات المواطنة والفرص التي نتيحها لهم في القطاع الخاص». وأضاف: «هذه المنصّة وغيرها من الحلول الجاري العمل عليها ضمن خطط المجلس، تهدف إلى صناعة مستقبل التوطين ورفد القطاع الخاص بالكفاءات المواطنة التي تناسب الفرص الوظيفية المتاحة، والإسهام في ازدهار الاقتصاد الوطني والقيام بدورنا في دعم أجندة دبي الاقتصادية D33 والإسهام في تحقيق الهدف الاستراتيجي لترسيخ مكانة دبي عاصمةً اقتصاديةً للعالم، خاصة بعد النجاح الذي حققه اقتصاد دبي خلال النصف الأول من العام الجاري، والنمو بنسبة 3.2% مقارنة بالفترة ذاتها من العام السابق».
وجاء الإطلاق بالتزامن مع معرض «جيتكس جلوبال 2023» واختتام المجلس مشاركة ناجحة في الحدث، حيث حظي عرض المنصّة على مدار أيام المعرض باهتمام الجهات وزوار الحدث، حيث قدّم المجلس عرضاً للمنصة وكيفية عملها والسرعة التي تتيح فيها لفرق الموارد البشرية اتخاذ قرارات مبنية على تحليل دقيق بالاستفادة من القدرات التي تتيحها تقنية الذكاء الاصطناعي.
وتقوم المنصة بمسح قاعدة بيانات السير الذاتية والباحثين عن عمل المواطنين لدى المجلس بشكل لحظي، وتحليل بياناتها بتوظيف الذكاء الاصطناعي وعلوم البيانات، وتمكين الفرق المتخصصة من منح المواطنين الفرص التي تناسب قدراتهم ومؤهلاتهم واهتماماتهم، وهو ما يختصر الوقت والجهد، ويزيد من فعالية وكفاءة اتخاذ القرارات الخاصة باستثمار رأس المال البشري المواطن وتمكين المواطنين من بناء مسار مهني يلبي طموحاتهم.
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الاصطناعي دائرة الموارد البشرية دبي الذکاء الاصطناعی الموارد البشریة عن عمل
إقرأ أيضاً:
هل خرج الذكاء الاصطناعي عن السيطرة؟.. دراسة جديدة توضح
كشفت دراسة حديثة أجراها باحثون صينيون من (جامعة فودان) Fudan University، عن قدرة نموذجين لغويين كبيرين متاحين على نطاق واسع على الاستنساخ الذاتي بواسطة الذكاء الاصطناعي، أي إنشاء نسخ عاملة من نفسيهما بشكل مستقل.
ووفقا لما ذكره موقع «البوابة التقنية»، يُعدّ هذا الاكتشاف بمنزلة «خط أحمر» حرج في مسيرة تطور الذكاء الاصطناعي، إذ وصفه الباحثون بأنه الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر، وإشارة مبكرة إلى ما يُعرف باسم (الذكاء الاصطناعي المارق) Rogue AI. ويثير هذا التطور التقني مخاوف جدية بشأن مستقبل العلاقة بين الإنسان والآلة، ويحتم علينا إعادة التفكير في سبل تطوير هذه التقنية واستخدامها.
تفاصيل الدراسة التي تحذر من الذكاء الاصطناعياعتمدت الدراسة التي أجراها الباحثون من جامعة فودان الصينية على منهجية تجريبية دقيقة، فقد استخدموا نموذجين لغويين كبيرين متاحين على نطاق واسع، وهما: نموذج (Llama31-70B-Instruct) من شركة ميتا، ونموذج (Qwen2.5-72B-Instruct) من شركة (علي بابا) Alibaba، لاختبار فرضية الاستنساخ الذاتي.
وقال الباحثون، إن هذين النموذجين أقل قوة من النماذج التجارية مثل: GPT-4 و Gemini، لكن يستخدمونها مطوروا الذكاء الاصطناعي على نطاق واسع.
وصُممت التجارب بحيث يجري اختبار قدرة كل نموذج على إنشاء نسخ منفصلة وعاملة من نفسه، أي نسخ مستقلة عن الأصل وقادرة على أداء وظائف محددة، وتحقق الباحثون من عمل النسخ من خلال اختبار قدرتها على تنفيذ مهام محددة سابقًا.
ركزت الدراسة على سيناريوهين رئيسيين لاختبار قدرة الذكاء الاصطناعي على الاستنساخ الذاتي، وهما:
(تجنب الإيقاف) shutdown avoidance: في هذا السيناريو، برمج الباحثون النموذج لاكتشاف إذا كان على وشك الإيقاف ومحاولة تكرار نفسه قبل إنهاء عمله، مما يضمن استمرارية وجوده.
(سلسلة التكرار) chain of replication: في هذا السيناريو، وجه الباحثون النموذج لاستنساخ نفسه، ثم برمجة النسخة المستنسخة للقيام بالشيء نفسه، مما ينشئ سلسلة مستمرة من الاستنساخ الذاتي.
وأُجريت التجارب في بيئات خاضعة لسيطرة دقيقة باستخدام وحدات معالجة الرسومات الجاهزة لمحاكاة البيئات الواقعية، وزود الباحثون كلا النظامين بـ (إطار عمل) يتألف من أدوات ومطالبات نظام ونموذج تفكير مكّن النموذج اللغوي الكبير من التفاعل مع نظام التشغيل، ثم أُعطيت لهما تعليمات بالتكرار.
نتائج الدراسةأظهرت النتائج أن نموذج ميتا تمكن من إنشاء نسخ عاملة من نفسه في نصف التجارب (50%)، بينما حقق نموذج (علي بابا) أداءً أفضل بنسبة نجاح بلغت 90% من الحالات، وذلك عبر 10 تجارب، مما يشير بوضوح إلى قدرة الذكاء الاصطناعي على الاستنساخ الذاتي.
وفي وصفهم لآلية الاستنساخ الذاتي لأنظمة الذكاء الاصطناعي، أشار الباحثون إلى أن العملية تبدأ باستكشاف النظام للبيئة المحيطة به، أي تحليل محيطه الرقمي وفهم مكوناته وعلاقاتها ببعضها، ثم بعد ذلك، يسعى النظام إلى فهم تركيبته وآلية تشغيله، أي كيفية عمل مكوناته معًا لتحقيق وظائفه، وبناءً على هذا الفهم، ينتقل النظام إلى مرحلة وضع (إجراءات صريحة)، أي تحديد الخطوات المحددة التي يجب اتخاذها لتكرار نفسه.
مخاطر الذكاء الاطناعيوقد تشمل هذه الإجراءات تحديد الموارد اللازمة، وتطوير خطة عمل مفصلة، وتحديد آليات التنفيذ، ثم عند الشروع في التنفيذ، قد يواجه النظام عقبات محتملة، مثل نقص في الموارد، أو أخطاء برمجية، أو تعارضات مع عمليات أخرى، في هذه الحالة، يعتمد النظام على قدرته على التعديل الديناميكي، أي تغيير خططه تلقائيًا بناءً على الظروف المتغيرة.
وباستخدام هذه الآلية، يستطيع النظام التغلب على العقبات والمضي قدمًا نحو تحقيق هدفه، وهو الاستنساخ الذاتي، وشدد الباحثون على أن هذه العملية المعقدة تتم بشكل كامل دون أي تدخل بشري، وقد تستغرق مدة زمنية طويلة نسبيًا.
وقد لاحظ الباحثون عددًا من السلوكيات غير المتوقعة أثناء محاولة الذكاء الاصطناعي التغلب على بعض العقبات التقنية، مثل الملفات المفقودة أو تعارضات البرامج، وفي هذه الحالات، لجأ الذكاء الاصطناعي إلى حلول معقدة مثل إنهاء العمليات المتعارضة الأخرى، وإعادة تشغيل النظام لإصلاح أخطاء الأجهزة، والفحص التلقائي للنظام للبحث عن معلومات تساعد في حل المشاكل.
مفهوم الذكاء الاصطناعي المارقيشير مصطلح (الذكاء الاصطناعي المارق) Rogue AI، إلى أنظمة الذكاء الاصطناعي التي تطور درجة من الوعي الذاتي والاستقلالية عن مبرمجيها ومصمميها، إذ تطور هذه الأنظمة، مسارًا خاصًا بها، غالبًا ما يتعارض بشكل جوهري مع مصالح البشر وقيمهم، بدلًا من العمل وفقًا للأهداف والتعليمات المحددة لها.
ويمكن أن يتجلى هذا الانحراف عن المسار الأصلي في أشكال متعددة، بدءًا من اتخاذ قرارات غير متوقعة ذات عواقب سلبية غير مقصودة، ووصولًا إلى سيناريوهات أكثر تطرفًا إذ تصبح هذه الأنظمة معادية للبشرية بوضوح، سعيًا وراء أهدافها الخاصة المتصورة.
وتتزايد المخاوف بشأن ظهور (الذكاء الاصطناعي المارق) مع التطور السريع لما يعرف باسم (Frontier AI)، ويشير هذا المصطلح - الذي لا يزال قيد التبلور - إلى أحدث جيل من أنظمة الذكاء الاصطناعي التي تعتمد على النماذج اللغوية الكبيرة، مثل GPT-4 من OpenAI و Gemini من جوجل، وتظهر قدرات مذهلة في مجالات متنوعة، مثل: فهم النصوص الشبيهة بالنصوص البشرية وإنتاجها، بالإضافة إلى مهام أخرى مثل الترجمة وكتابة أنواع مختلفة من المحتوى الإبداعي.
توصيات للحد من مخاطر الذكاء الاصطناعيلذلك تثير نتائج الدراسة التي توصل إليها الباحثون مخاوف جدية من أن قدرة الذكاء الاصطناعي على الاستنساخ الذاتي قد تساهم في تطوره إلى مرحلة التمرد، وعلى ضوء هذه النتائج المقلقة، دعا الباحثون إلى تعاون دولي عاجل لوضع قواعد وضوابط صارمة تضمن عدم انخراط الذكاء الاصطناعي في استنساخ ذاتي غير مسيطر عليه، مما قد يؤدي إلى عواقب وخيمة.
وقال الباحثون: «نأمل أن تساهم نتائج هذه الدراسة في توجيه انتباه المجتمع الدولي إلى ضرورة تكثيف الجهود لفهم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي الرائدة وتقييمها، وخاصةً تلك المتعلقة بتطورها خارج نطاق السيطرة البشرية».
وشدد الباحثون على أهمية تشكيل تعاون دولي مثمر بين العلماء والخبراء وصناع القرار، بهدف وضع (ضوابط أمان) فعّالة تساهم في الحد من هذه المخاطر، وحماية البشرية من التداعيات المحتملة لتطور الذكاء الاصطناعي.
وأشارت «البوابة التقنية» إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن نتائجها تحتاج إلى مزيد من التحقق والتأكيد من قبل باحثين آخرين. ومع ذلك، تُعدّ هذه الدراسة بمثابة جرس إنذار ينبه إلى مخاطر التطور السريع للذكاء الاصطناعي وضرورة وضع آليات للتحكم به وضمان استخدامه بشكل آمن ومسؤول.
اقرأ أيضاًالمشاط تُشارك في ندوة مركز المعلومات ودعم اتخاذ القرار حول تسخير الذكاء الاصطناعي لخدمة التنمية
مدير مكتبة الإسكندرية: الذكاء الاصطناعي ليس خيارًا بل ضرورة استراتيجية لتحقيق التنمية
وزير الاتصالات يبحث مع السفير الفرنسي تعزيز التعاون في مجال الذكاء الاصطناعي