تطبيقات الذكاء الاصطناعى فى المحتوى الإعلامى الرقمى بورشة عمل بجامعة المنوفية
تاريخ النشر: 20th, July 2023 GMT
استقبل الدكتور أحمد القاصد رئيس جامعة المنوفية، الدكتور محمد شلتوت أستاذ مشارك تكنولوجيا التعليم واستشارى التعليم الإلكترونى والفنون البصرية بحضور الدكتورة نادية القاضي عميد كلية الإعلام جامعة المنوفية، في إطار اهتمام الجامعة بأهمية دور الإعلام في تسليط الضوء على استخدام التقنيات الذكية وتأثيرها على حياتنا اليومية، حيث اصبح للذكاء الاصطناعي أثر كبير على الإعلام وطريقة نقل واستقبال المعلومات.
أخبار متعلقة
محافظ المنوفية: إزالة 167 حالة تعدي علي أملاك الدولة والأراضى الزراعية
محافظ المنوفية: ضبط 500 أسطوانة بوتاجاز منزلى قبل بيعها بالسوق السوداء بهدف التربح بشبين الكوم وتحرير 370 محضر
محافظ المنوفية: زيارة ميدانية لوفد شبابي بالتنسيق مع مؤسسة حياة كريمة لتفقد مشروعات المبادرة الرئاسية
ونظمت كلية الإعلام جامعة المنوفية تحت رعاية الدكتور أحمد القاصد رئيس الجامعة وإشراف الدكتورة ندية القاضي عميد الكلية، ورشة عمل تدريبية عملية مجانية حول تطبيقات الذكاء الاصطناعى في صناعة المحتوى الإعلامى الرقمى والتي نظمها قسم الصحافة بالتعاون مع إدارة الوافدين بالجامعة خلال الاجازة الصيفية تحت إشراف الدكتورة سلوي فؤاد منسق عام الوافدين بالجامعة والدكتورة شيرين البحيري رئيس قسم الصحافة بالكلية.
وأكد القاصد أن الجامعة تسعي دائما للنهوض بالطالب لخلق خريج قادر على مواكبة سوق العمل بما يشهده من تطورات تكنولوجية متلاحقة وسريعة، مشيرًا إلى أن الذكاء الاصطناعي أصبح لديه قدرة كبيرة على صناعة المحتوي الإعلامي، كما يمكنه أن يساعد على مكافحة الأخبار الزائفة والمعلومات غير الدقيقة ومحاربة الشائعات وهو ما يدعم جهود الدولة المبذولة في التصدي للشائعات الهدامة وفق منهجية علمية تدرك أهمية سلاح الوعي في بناء وتحصين الأوطان، والتركيز على إتاحة المعلومات بكل حيادية ومصداقية وشفافية من مصادرها باعتبارها حق أصيل من حقوق المواطن المصري.
وأوضحت الدكتورة نادية القاضي، أن الإعلام يلعب دوراً مهماً في تعزيز الوعي الرقمي لدى الجمهور، واستخدام التكنولوجيا الحديثة أصبح أمر حتمي لمواكبة التطور، كما أصبح الذكاء الاصطناعي ثورة جديدة في صناعة المحتوي الإعلامي، واكدت على ضرورة أن يعي كل طالب وطالبة انه يجب أن يبحث في كل ما هو جديد حتي يلاحق التطور المستمر.
وتحدث الدكتور محمد شلتوت حول تطبيقات الذكاء الاصطناعي المختلفة وقدرتها على صناعة محتوي اعلامي رقمي يحاكي المحتوي الاعلامي التقليدي ويقدم للاعلامي العديد من التيسيرات في صناعة محتوي متميز سواء في مجال الصحافة أو الإذاعة أو التليفيزيون لأنه يستطيع صناعة الخبر والمقالات والفيديوهات وأيضاً صناعة الصور بكل سهولة ويسر، وتناولت الورشة الجانب التطبيقي والنظري لتطبيقات الذكاء الاصطناعي، كما قام شلتوت بالرد على جميع استفسارات المشاركين في الورشة.
المصدر: المصري اليوم
كلمات دلالية: شكاوى المواطنين الذکاء الاصطناعی جامعة المنوفیة
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.