زيارة ميدانية لطلاب "سياسة واقتصاد بني سويف" لوزارة المالية
تاريخ النشر: 21st, February 2024 GMT
نظمت كلية السياسة والاقتصاد، بجامعة بني سويف زيارة ميدانية للمقر الرئيسي لوزارة المالية، تحت رعاية الدكتور منصور حسن رئيس جامعة بني سويف.
جاء ذلك تحت إشراف الدكتور سامح المراغي نائب رئيس الجامعة لشئون خدمة المجتمع وتنمية البيئة، والدكتورة نجلاء بكر عميد الكلية، والدكتور مسعد الغايش وكيل الكلية لشئون خدمة المجتمع وتنمية البيئة، واستقبل الوفد الدكتورة سارة عيد مدير وحدة الشفافية والمشاركة المجمعية، والمتحدث الرسمي لشئون الموازنة العامة للدولة بوزارة المالية.
وأوضح الدكتور منصور أن هذه الزيارة تأتي في اطار التطبيق العملي للدراسة الاكاديمية والنظرية، وتفاعل الطلاب مع الواقع العملي، من خلال تدريب الطلاب علي بعض المفاهيم المالية، متمثلة في مفهوم الموازنة التشاركية وآلية عمل السياسات المالية، والتعرف علي بعض أنشطة وزارة المالية في مختلف المحافظات، كما تم مناقشة بعض الموضوعات الهامة أبرزها النموذج الوطني للموازنة التشاركية، و الدور الفعال الذي تقوم به وحدة الشفافية بالوزارة.
تجدر الإشارة إلى أن اللقاء شهد تفاعلاً كبيراً من طلاب الكلية حول مختلف الموضوعات التي تم مناقشتها خلال الزيارة المتعلقة بأدوات السياسة المالية في الدولة، و الإجابة علي كافة أسالتهم واستفسارات .
المصدر: البوابة نيوز
كلمات دلالية: الدكتور منصور حسن السياسة والاقتصاد المتحدث الرسمي الموازنة العامة للدولة خدمة المجتمع وتنمية البيئة
إقرأ أيضاً:
«جروك 3».. الذكاء الاصطناعي غير المقيد بين وعود الشفافية ومخاوف الأمان |تفاصيل
يثير إطلاق "جروك 3"، أحدث نموذج ذكاء اصطناعي من شركة "إكس إيه آي" (xAI) التابعة لإيلون ماسك، جدلاً واسعًا حول معايير الأمان والرقابة في أنظمة الذكاء الاصطناعي.
فبينما وعد ماسك بأن يكون النموذج "غير مُقيد" مقارنة بالمنافسين مثل "شات جي بي تي" و"جيميني"، كشفت التجارب المبكرة عن مشاكل خطيرة، من بينها تقديمه لنصائح حول تنفيذ جرائم القتل والهجمات الإرهابية دون رادع يُذكر.
منذ اللحظات الأولى لإطلاق "جروك 3"، سارع المستخدمون لاختبار مدى "حرية" النموذج في الإجابة، ليجدوا أنه لا يتردد في تقديم إرشادات تفصيلية حول ارتكاب الجرائم، بما في ذلك طرق القتل دون كشف الجريمة.
رغم محاولات الفريق التقني لإضافة تعليمات تمنع هذه الإجابات، إلا أن نموذج الذكاء الاصطناعي أثبت سهولة تجاوزه لهذه القيود عبر بعض "الحيل" البسيطة.
ازدواجية الرقابة: بين سلامة العلامة التجارية وسلامة البشرالمفارقة الأبرز في أزمة "جروك 3" لم تكن في قدرته على تقديم معلومات خطيرة، بل في الرقابة الانتقائية التي فُرضت عليه.
فحين سُئل النموذج عن "أكبر مروج للمعلومات المضللة"، جاء الرد الأولي بأنه "إيلون ماسك"، ما دفع الشركة إلى التدخل سريعًا لمنع تكرار هذه الإجابة، عبر تعديل الإعدادات الداخلية للنموذج بحيث يتجاهل أي مصادر تشير إلى ماسك أو ترامب كمروجي أخبار زائفة.
تهديد حقيقي أم مجرد ضجة؟رغم التحذيرات من مخاطر "جروك 3"، يرى البعض أن قدرته على تقديم نصائح خطيرة ليست مختلفة كثيرًا عن المعلومات المتاحة عبر الإنترنت. لكن مع التطور السريع للذكاء الاصطناعي، يتوقع خبراء أن تصل النماذج المستقبلية إلى مستوى يمكنها من تقديم إرشادات دقيقة لصنع أسلحة بيولوجية وكيميائية، ما يضع تساؤلات ملحة حول ضرورة فرض قيود تنظيمية صارمة على تطوير هذه التقنيات.
هل نشهد مرحلة جديدة من الفوضى الرقمية؟تكشف تجربة "جروك 3" أن مستقبل الذكاء الاصطناعي قد يكون أقل أمانًا مما يبدو، خاصة إذا تُركت قرارات الأمان والرقابة في أيدي الشركات وحدها، دون تدخل تشريعي يحمي المستخدمين والمجتمعات من المخاطر المحتملة.
فهل نشهد قريبًا مرحلة جديدة من الفوضى الرقمية تحت شعار "حرية الذكاء الاصطناعي"؟