التعليم العالي تحارب محتويات الإنترنت الضارة بمقرر تعليمي لتوعية طلاب الجامعات
تاريخ النشر: 15th, April 2024 GMT
قال الدكتور أيمن عاشور وزير التعليم العالي والبحث العلمي، أن الوزارة أولت اهتمامًا كبيرًا بمحاربة مخاطر شبكة الإنترنت والمحتويات الضارة التي تقدم للشباب والأطفال في المجتمع المصري، مشيرًا إلى أن هذا يأتي في إطار توجيهات الرئيس عبد الفتاح السيسي، للحكومة بتبني مفهوم الحرب التنويرية والتوعية الشاملة، للحفاظ على الهُوية الوطنية، والثوابت، والأخلاقيات، والقيم الدينية المستنيرة للمجتمع.
واستعرض عاشور، جهود الوزارة لتوعية طلاب الجامعات بخطورة المحتويات الضارة لشبكة الإنترنت ومواقع التواصل الاجتماعي، التي من بينها إعداد محتوى علمي، بعنوان «التربية الإعلامية الرقمية» وتضمينه في المقرر العلمي «قضايا المجتمع» الذي يُدرس بالجامعات المصرية، وقد رُوعي في هذا المحتوى شموله لكل المفاهيم والمهارات الخاصة بالإعلام الرقمي.
وتهدف المادة إلى تحصين الطلاب ضد المحتويات الإعلامية المغرضة، وتنمية مهاراتهم في التعامل مع وسائل الإعلام الرقمي، إضافة إلى تمكينهم من التعاطي مع كل المحتويات والرسائل التي تحفل بها شبكات الإنترنت، وتحقيق أكبر استفادة من التقنيات الحديثة للإعلام الرقمي، دون التورط في الجرائم الإلكترونية، أو السقوط في براثن حروب الجيل الرابع، والحروب النفسية، والدعاية المغرضة، والشائعات التي تفقد الشباب الثقة في دولتهم ومؤسساتها الوطنية.
تنظيم ندوات وورش عملوأشار الدكتور أيمن عاشور، إلى قيام الوزارة أيضًا بتنظيم ندوات وورش عمل لتوعية طلاب الجامعات بمخاطر الإنترنت، وإصدار مواد توعوية، ونشرات تعريفية حول مخاطر الإنترنت وطرق استخدامها بشكل آمن، فضلاً عن العمل على تطوير المناهج الدراسية في التخصصات والمجالات المختلفة من خلال لجان القطاعات بالمجلس الأعلى للجامعات؛ لإكساب الخريجين المهارات التي تحصنهم ضد مخاطر التكنولوجيا، بالتوسع في إنشاء العديد من البرامج الحديثة بالجامعات الأهلية والتكنولوجية الجديدة، مثل: (الأمن السيبراني، علوم البيانات، الروبوتات، المعلوماتية الطبية والحيوية، علوم الفضاء، التكنولوجيا الحيوية).
المصدر: الوطن
كلمات دلالية: الجامعات التعليم العالي الطلاب الإنترنت
إقرأ أيضاً:
فتح باب التقديم لإنشاء مركز سلامة وأمان الذكاء الاصطناعي في التعليم العالي
أعلنت أكاديمية البحث العلمي والتكنولوجيا عن فتح باب التقدم لإنشاء مركز سلامة وأمان الذكاء الاصطناعي في قطاع التعليم العالي والبحث العلمي, برعاية الدكتور أيمن عاشور، وزير التعليم العالي والبحث العلمي، وفي إطار الاستراتيجية الوطنية للتعليم العالي والبحث العلمي الهادفة إلى تعزيز استخدامات الذكاء الاصطناعي في القطاع الأكاديمي والبحثي.
فتح باب التقدم لإنشاء مركز سلامة وأمان الذكاء الاصطناعيوأكد الدكتور أيمن عاشور أن إطلاق المركز يأتي في إطار جهود الدولة لتطوير الذكاء الاصطناعي المسؤول، حيث سيُسهم في تحقيق أقصى استفادة من هذه التقنية في الأوساط الأكاديمية والبحثية مع الحد من المخاطر المحتملة، مما يعزز مكانة مصر بين الدول الرائدة في هذا المجال، ويأتي ذلك اتساقًا مع الإصدار الثاني للاستراتيجية الوطنية للذكاء الاصطناعي، والتي أعلن المجلس الوطني للذكاء الاصطناعي إصدارها في يناير 2025.
ويهدف المركز إلى تعزيز موقع مصر في طليعة الدول المتقدمة في تطوير الذكاء الاصطناعي المسؤول، وضمان تحقيق فوائده في الأوساط الأكاديمية، مع الحد من المخاطر المحتملة. ويأتي ذلك اتساقًا مع الإصدار الثاني للاستراتيجية الوطنية للذكاء الاصطناعي، والتي أعلن المجلس الوطني للذكاء الاصطناعي إصدارها في يناير 2025.
وسيختص المركز بدعم الأبحاث في مجال سلامة وأمان الذكاء الاصطناعي، وإنشاء قاعدة بيانات للباحثين المصريين المتخصصين، وتقديم استشارات وتدريبات متخصصة، فضلًا عن تعزيز التعاون الدولي مع المنظمات والمؤسسات العالمية ذات الصلة. كما سيتولى المركز تسجيل أنظمة الذكاء الاصطناعي عالية المخاطر المستخدمة في قطاع التعليم العالي والبحث العلمي، والترويج لمعايير وممارسات السلامة في هذا المجال.
ويهدف المركز إلى تحقيق استدامة طويلة الأمد من خلال إطلاق برامج تدريبية وورش عمل، والمشاركة في صياغة سياسات الذكاء الاصطناعي، وتعزيز التعاون مع الهيئات الحكومية وشركاء الصناعة ومنظمات المجتمع المدني لضمان تكامل الجهود الوطنية والدولية في هذا المجال.
وتدعو أكاديمية البحث العلمي والتكنولوجيا المؤسسات الأكاديمية المعتمدة في مصر إلى تقديم مقترحاتها لإنشاء المركز، على أن تشمل فرقًا متخصصة في مجال سلامة وأمان الذكاء الاصطناعي، إلى جانب خطة واضحة للتشغيل ومؤشرات أداء لقياس النجاح. يتم التقديم من خلال الموقع الإلكتروني للأكاديمية، وذلك حتى 1 مايو 2025.
للاطلاع على التفاصيل الكاملة حول التقديم، يرجى زيارة الرابط التالي:
http://submission.asrt.sci.eg