ورشة عمل بـ«الرقابة النووية» لرفع درجة الأمان في المنشآت الإشعاعية
تاريخ النشر: 29th, November 2024 GMT
افتتح الدكتور أسامة صديق، نائب رئيس مجلس إدارة هيئة الرقابة النووية والإشعاعية، أعمال ورشة عمل متخصصة حول إعداد تقرير تحليل الأمان للمنشآت الإشعاعية وهي بداية لسلسلة من اللقاءات التوعوية بين فريق عمل الهيئة والخبراء والمستخدمين المرخص لهم.
الاستخدام الآمن والفعال في مختلف التطبيقاتوأشار الدكتور محمود على حسن، رئيس قطاع أمان المصادر والمنشآت الإشعاعية في كلمته إلى رفع الوعي لدى المرخصين وأصحاب المصلحة اختصاص أصيل من اختصاصات هيئة الرقابة النووية والإشعاعية لضمان الاستخدام الآمن والفعال في مختلف التطبيقات.
وأكد الدكتور ياسر لاشين، رئيس ادارة التراخيص والتقييم والمتابعة خلال ادارته لفعإلى ات ورشة العمل ان فريق عمل الهيئة يسعى جاهدا إلى توحيد اللغة بين الهيئة والمرخص لهم لضمان أقصى درجات الأمان والسلامة داخل المنشآت الإشعاعية.
شروط منح التراخيص والاختصاصات المنوطة بهموقال إنه تم استعراض اللإطار القانوني المنظم لدور الخبراء والمستخدمين في المنشآت الإشعاعية، فيما يتعلق بشروط منح التراخيص والاختصاصات المنوطة بهم بموجب القانون رقم 7 لسنة 2010 لتنظيم الانشطة النووية والإشعاعية في مصر وتعديلاته ولائحته التنفيذية، وكذلك لائحة إصدار التراخيص الشخصية الصادرة بموجب قرار مجلس إدارة هيئة الرقابة النووية والإشعاعية رقم 3 لسنة 2022.
المصدر: الوطن
كلمات دلالية: المنشآت الإشعاعية الرقابة النووية والإشعاعية ورشة العمل النوویة والإشعاعیة الرقابة النوویة
إقرأ أيضاً:
«جروك 3».. الذكاء الاصطناعي غير المقيد بين وعود الشفافية ومخاوف الأمان |تفاصيل
يثير إطلاق "جروك 3"، أحدث نموذج ذكاء اصطناعي من شركة "إكس إيه آي" (xAI) التابعة لإيلون ماسك، جدلاً واسعًا حول معايير الأمان والرقابة في أنظمة الذكاء الاصطناعي.
فبينما وعد ماسك بأن يكون النموذج "غير مُقيد" مقارنة بالمنافسين مثل "شات جي بي تي" و"جيميني"، كشفت التجارب المبكرة عن مشاكل خطيرة، من بينها تقديمه لنصائح حول تنفيذ جرائم القتل والهجمات الإرهابية دون رادع يُذكر.
منذ اللحظات الأولى لإطلاق "جروك 3"، سارع المستخدمون لاختبار مدى "حرية" النموذج في الإجابة، ليجدوا أنه لا يتردد في تقديم إرشادات تفصيلية حول ارتكاب الجرائم، بما في ذلك طرق القتل دون كشف الجريمة.
رغم محاولات الفريق التقني لإضافة تعليمات تمنع هذه الإجابات، إلا أن نموذج الذكاء الاصطناعي أثبت سهولة تجاوزه لهذه القيود عبر بعض "الحيل" البسيطة.
ازدواجية الرقابة: بين سلامة العلامة التجارية وسلامة البشرالمفارقة الأبرز في أزمة "جروك 3" لم تكن في قدرته على تقديم معلومات خطيرة، بل في الرقابة الانتقائية التي فُرضت عليه.
فحين سُئل النموذج عن "أكبر مروج للمعلومات المضللة"، جاء الرد الأولي بأنه "إيلون ماسك"، ما دفع الشركة إلى التدخل سريعًا لمنع تكرار هذه الإجابة، عبر تعديل الإعدادات الداخلية للنموذج بحيث يتجاهل أي مصادر تشير إلى ماسك أو ترامب كمروجي أخبار زائفة.
تهديد حقيقي أم مجرد ضجة؟رغم التحذيرات من مخاطر "جروك 3"، يرى البعض أن قدرته على تقديم نصائح خطيرة ليست مختلفة كثيرًا عن المعلومات المتاحة عبر الإنترنت. لكن مع التطور السريع للذكاء الاصطناعي، يتوقع خبراء أن تصل النماذج المستقبلية إلى مستوى يمكنها من تقديم إرشادات دقيقة لصنع أسلحة بيولوجية وكيميائية، ما يضع تساؤلات ملحة حول ضرورة فرض قيود تنظيمية صارمة على تطوير هذه التقنيات.
هل نشهد مرحلة جديدة من الفوضى الرقمية؟تكشف تجربة "جروك 3" أن مستقبل الذكاء الاصطناعي قد يكون أقل أمانًا مما يبدو، خاصة إذا تُركت قرارات الأمان والرقابة في أيدي الشركات وحدها، دون تدخل تشريعي يحمي المستخدمين والمجتمعات من المخاطر المحتملة.
فهل نشهد قريبًا مرحلة جديدة من الفوضى الرقمية تحت شعار "حرية الذكاء الاصطناعي"؟