لجنة ترقيات الجامعيين تستكمل مناقشات احتياجات وزارة الداخلية وخطط تدريبهم
تاريخ النشر: 2nd, October 2023 GMT
(عدن الغد)خاص:
استكملت لجنة ترقيات الجامعيين والضباط التابعة لوزارة الداخلية مناقشات احتياجات الوزارة من الجامعيين وخطط تدريبهم من قبل فريق العمل المكلف بهذا الشأن.
واستعرضت اللجنة، برئاسة وكيل وزارة الداخلية لقطاع الموارد البشرية والمالية اللواء الركن عبدالله جابر، اليوم الاثنين، مشروع تقرير نتائج أعمالها النهائي.
وأقرت اللجنة رفع مشروع تقرير نتائج أعمالها النهائي بعد مناقشته إلى وزير الداخلية معززاً بعدد من المقترحات والتوصيات المستخلصة من واقع لقاءاتها التنظيمية ونزولاتها الميدانية لتسهيل اتخاذ القرارات الإدارية والقانونية بشأن تلك القضايا.
المصدر: عدن الغد
إقرأ أيضاً:
OpenAI تعيد هيكلة لجنة السلامة والأمن وتستبعد سام ألتمان
سام ألتمان / عالم التقنية
أعلنت شركة OpenAI عن تغييرات جوهرية في ممارسات السلامة والأمن لديها، تشمل إنشاء لجنة إشراف مستقلة جديدة. يأتي هذا التحول مع تغيير ملحوظ: استبعاد الرئيس التنفيذي سام ألتمان من لجنة السلامة، في خروج عن الهيكل السابق.
سيترأس اللجنة الجديدة للسلامة والأمن (SSC)؛ زيكو كولتر مدير قسم التعلم الآلي في جامعة كارنيجي ميلون. وتضم اللجنة أعضاء بارزين آخرين منهم آدم دانجلو الرئيس التنفيذي لشركة كورا، والجنرال المتقاعد بول ناكاسوني، ونيكول سيليجمان، نائب الرئيس التنفيذي السابق والمستشار العام لشركة سوني.
تحل هذه اللجنة محل لجنة السلامة والأمن السابقة التي تشكلت في يونيو 2024، والتي كان سام ألتمان أحد أعضائها. وستتجاوز مسؤوليات اللجنة الجديدة تقديم التوصيات، حيث ستتمتع بصلاحية الإشراف على تقييمات السلامة للإصدارات الرئيسية للنماذج والرقابة على إطلاقها. والأهم من ذلك، ستمتلك اللجنة سلطة تأجيل إطلاق أي نموذج حتى معالجة مخاوف السلامة بشكل كافٍ.
تأتي إعادة الهيكلة بعد فترة من التدقيق في التزام OpenAI بسلامة الذكاء الاصطناعي. واجهت الشركة انتقادات في الماضي لحل فريق التوافق الفائق ومغادرة موظفين رئيسيين متخصصين في السلامة. ويبدو أن استبعاد ألتمان من لجنة السلامة محاولة لمعالجة المخاوف بشأن تضارب المصالح المحتمل في الرقابة على السلامة في الشركة.
تتضمن مبادرة السلامة الأخيرة لـ OpenAI خططًا لتعزيز إجراءات الأمان، وزيادة الشفافية حول عملها، والتعاون مع المنظمات الخارجية. وقد أبرمت الشركة بالفعل اتفاقيات مع معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة للتعاون في البحث عن مخاطر السلامة الناشئة ووضع معايير للذكاء الاصطناعي الموثوق.
المصدر
Source link مرتبط