صندوق عطاء يشارك في مسابقة للذكاء الاصطناعي لتمكين ذوي الهمم في بيئة العمل
تاريخ النشر: 20th, May 2024 GMT
أعلن صندوق عطاء عن شراكته مع فودافون في هاكاثون (مسابقة) فودافون للذكاء الاصطناعي والتي تهدف إلي تقديم حلول باستخدام الذكاء الاصطناعي و إيجاد حلول تكنولوجية من أجل تمكين الأشخاص ذوي الإعاقة في مكان العمل وكافة المجالات، وذلك في إطار حرص صندوق عطاء برئاسة نيفين القباج وزيرة التضامن الاجتماعي على المشاركة في كافة الفعاليات التي من شأنها تقديم حلول في مجال الإعاقة في مصر.
وتأتي شراكة صندوق عطاء إيماناً بأن الأشخاص ذوي الإعاقة قادرون علي العمل بشكل مستقل في منظومة العمل، هذا بالإضافة الي الاحتياج الي إيجاد حلول خاصة بأدوات التكنولوجيا المساعدة في بيئة العمل وضرورة تسليط الضوء بشكل أكبر علي قضايا حقوق الأشخاص ذوي الإعاقة، فضلا عن دعم الصندوق للحلول الابتكارية لقضايا الأشخاص ذوي الإعاقة.
وأكدت وزيرة التضامن الاجتماعي أن صندوق عطاء يأخذ خطوات ثابتة ومؤثرة نحو دعم ودمج الأشخاص ذوي الإعاقة والاستفادة من طاقاتهم ومعرفة احتياجهم ومطالبهم بشكل واقعي وعملي ومن هنا جاءت فكرة مشاركة عطاء في الهاكاثون والذي يستمر التقديم فيه حتي يوم 25 مايو 2024، وذلك لإتاحة الفرصة لأكبر عدد ممكن من المبدعين والموهوبين من الأشخاص ذوي الإعاقة للاشتراك والتسجيل ضمن المسابقة والتي تستمر لمدة ثلاثة أيام مصممة لإلهام وتحسين وعرض الحلول المبتكرة والشاملة والمؤثرة بشرط ان يتقدم المتقدمين كمجموعة مكونة من 3-4 أشخاص ويجب أن يكون أحد المتقدمين على الأقل شخصًا من ذوي الإعاقة حتي يستطيعوا البدء في تنفيذ أفكارهم وتحويلها الي مشروعات قائمة علي استخدام التكنولوجيا ويمكن الإطلاع علي كافة تفاصيل الاشتراك في الهاكاثون من خلال موقع شركة فودافون.
وأضافت القباج ان دمج الأشخاص ذوي الإعاقة في المجتمع يعد أحد أهم الأهداف التي يعمل صندوق عطاء علي تحقيقها من خلال 4 محاول وهي تكافؤ الفرص التعليمية والتأهيل المرتكز علي المجتمع للأشخاص ذوي الإعاقة المحرومين من الخدمات الأساسية، هذا بالإضافة إلي التمكين الاقتصادي وإتاحة التنقل للأشخاص ذوي الإعاقة، حيث كان للصندوق دورا بارزا في دعم كافة أنواع الإعاقة، مما كان له الأثر في إحداث تغيير فعال ومؤثر في نوعية حياة الأشخاص ذوي الإعاقة ليمكنهم من العيش باستقلالية والوصول إلي كامل حقوقهم في جميع مناحي الحياة والحصول علي الفرص المتساوية مع أقرانهم من غير الأشخاص ذوي الإعاقة.
المصدر: الأسبوع
كلمات دلالية: التضامن وزارة التضامن الذكاء الاصطناعي الأشخاص ذوي الإعاقة صندوق عطاء الأشخاص ذوی الإعاقة صندوق عطاء
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.