أكد باسم حجازي، محرر ومنتج برامج «وايز على الهواء»، لدى مؤتمر القمة العالمي للابتكار في التعليم «وايز» أن دولة قطر شددت في إطار إستراتيجيتها الوطنية للذكاء الاصطناعي التي أطلقتها في عام 2019، على زيادة الاستثمار في تعليم المواطنين وإعادة تدريبهم لتعزيز قدراتهم في مجال تكنولوجيا الذكاء الاصطناعي. 


وقال حجازي في تصريحات لـ «العرب»: في القطاع التعليمي، هناك تركيز إستراتيجي على تزويد المتعلمين والمعلمين بالأدوات الرقمية التي تعزز النتائج الشاملة للتعلم.

وأوضح أن هناك أمثلة واضحة لبرامج متخصصة تعمل على تمكين الطلاب داخل المدارس العامة والخاصة بتكنولوجيا متقدمة لتشجيع الابتكار التكنولوجي باعتبارها وسيلة لحل التحديات الفعلية في عالمنا المعاصر.
وشدد على أهمية تمكين الأجيال الشابة من تحديد المعلومات وتفسيرها واستهلاكها بطريقة آمنة وأكثر نفعًا لهم.
وقال حجازي: مع استمرار المنصات الإلكترونية في اكتساب المزيد من الاهتمام باعتبارها مصادر للمعلومات يلجأ إليها الناس في جميع أنحاء العالم، أصبح إدراك آثار تلك المنصات في المجال التعليمي أكثر أهمية من أي وقت مضى. فقد باتت هناك حاجة واضحة لوضع استراتيجيات أفضل وتزويد الطلاب والمعلمين بمهارات التفكير النقدي لاكتشاف المحتوى الرقمي الموثوق من غيره سيئ النية في سياق المحتوى ذي الدوافع السياسية، والأخبار المزيفة، والروايات الإعلامية المتحيزة التي أصبحت متكررة بوتيرة متزايدة، على وجه الخصوص. 
وأضاف: يمكن أن تساعد الجهود المتضافرة التي تبذلها الأطراف المعنية الرئيسية في أنظمة التعليم لزيادة الوعي بالمفاهيم المهمة بشكل كبير في مواجهة المخاوف المتزايدة بشأن المعلومات المحرّفة. ومثلما هو الحال في بقية العالم، فإننا نشهد انتشارًا وقبولاً متناميًا للتكنولوجيا الرقمية ودمجًا لها في الأنظمة التعليمية بدولة قطر ودول المنطقة. 
وتابع: في الأساس، يجب على أنظمة التعليم تحديد الأولويات والعمل على تعزيز فهم أعمق لكيفية استخدام الأدوات التي تعتمد على الذكاء الاصطناعي لدفع أجندات كاذبة ونشر المعلومات المضللة عبر الإنترنت. وهناك الكثير من المؤلفات التي تكشف الطرق المتعددة التي يتم من خلالها التلاعب بالمحتوى الرقمي. ومن الأمثلة على ذلك إنشاء مئات المستخدمين المزيفين عبر الإنترنت، بدعم من أدوات الذكاء الاصطناعي، الذين يقومون بعد ذلك بنشر نفس المعلومات لإنتاج عدد كبير من التفاعلات مع هذه المعلومات.
وحذر من أن هناك طريقة أخرى لاستخدام الذكاء الاصطناعي كأداة للدعاية عبر «عمليات التزييف العميق» التي تستخدم الذكاء الاصطناعي لإنشاء صور لأشخاص مشهورين يقولون أشياء لم تصدر عنهم إطلاقًا، ويمكن أن تتحول الأمثلة الواقعية التي تكشف عن الخداع والمعلومات المضللة إلى أداة تعليمية حاسمة لتعزيز التفكير النقدي والتشجيع على تبني مهارات القراءة والثقافة المعلوماتية.
وأكد على أهمية أن ينصب التركيز على تزويد الطلاب والمعلمين بالموارد والأساليب التي يمكنهم استخدامها للتحقق من صحة المعلومات التي يتعرضون لها على شبكة الإنترنت. ويمكن أن يكون تدريب الطلاب على البحث العكسي عن الصور كجزء من المنهج الدراسي طريقة رائعة لتعزيز ثقافتهم المعلوماتية. 
وأشار إلى طرق مختلفة يمكن من خلالها فحص الصور ومقاطع الفيديو على وسائل التواصل الاجتماعي والمنصات الإلكترونية بشكل نقدي والتحقق من صحتها، وفي هذا العصر الرقمي الذي تُستخدم فيه الصور الناتجة عن طريق الذكاء الاصطناعي لإثارة المشاعر العامة بحيث تناسب أجندات معينة، يمكن لمهارات التحليل النقدي أن تساعد في تعزيز ثقافة الحيطة والتحقق من صحة الصور، وهو ما يمنح الأفراد الفرصة لتطوير فهم أوسع للذكاء الاصطناعي وتأثيراته.
وقال حجازي: هناك مفهوم آخر مرتبط ارتباطًا وثيقًا يجب أن يعرفه طلابنا وهو التحيز التأكيدي، أي الميل إلى تفسير المعلومات بناءً على معتقدات الفرد الموجودة مسبقًا. لذا، يجب التأكيد أيضًا في إطار التدريب المتعلق بالثقافة المعلوماتية على أن التفكير النقدي يكون أكثر ضرورة ويمكن أن يساعد في تشكيل أحكامنا بغض النظر عما نؤمن به عندما نكون في موقف عاطفي مثل العيش في صراعات. 
وأضاف: من الأهمية بمكان دمج الثقافة المعلوماتية والوعي المتعلق بانتشار المعلومات الكاذبة والمضللة، وخاصة من خلال تكنولوجيا الذكاء الاصطناعي، في بيئات التعلم الحالية وتقديمها في نهج متعدد التخصصات. وعند تمكين الطلاب بهذه المعرفة في إطار مسيراتهم التعليمية، فسوف يكونون أكثر استعدادًا للتبحّر في مستقبل أصبح يركز بشكل متزايد على الذكاء الاصطناعي. وقد احتلت المناقشات المتعلقة بهذه المفاهيم والمناهج الأساسية موقع الصدارة في مؤتمر القمة العالمي للابتكار في التعليم (وايز) الذي تنظمه مؤسسة قطر، وهو منصة عالمية للتفكير الإبداعي والنقاش والعمل الهادف في مجال التعليم، أُقيمت مؤخرًا النسخة الحادية عشرة من قمته التي تعقد كل عامين والتي ركزت على الذكاء الاصطناعي وتأثيره المتزايد على المشهد التعليمي العالمي.

المصدر: العرب القطرية

كلمات دلالية: قطر مؤتمر وايز الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • برنامج تدريبي لتعزيز مهارات استخدام الذكاء الاصطناعي لطلاب جامعة قناة السويس
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر
  • الجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصي
  • إطلاق «جائزة حمدان - الألكسو للابتكارات الرقمية في التعليم»
  • الصين تدخل الذكاء الاصطناعي إلى مناهج الابتدائية