وقعت شركة «وادي طيبة» التابعة لجامعة طيبة بالمدينة المنورة، مذكرة تفاهم مع وزارة الحج والعمرة، للتعاون في مجال الأبحاث والابتكار وتعزيز دور التقنيات الحديثة في أعمال الحج والعمرة وخدمة ضيوف الرحمن.

وشملت الاتفاقية مجالات الدراسات والبحوث التطويرية في مجال الذكاء الاصطناعي, ودعم الإبداع والابتكار وتسهيل تبادل المعرفة في قطاع الحج والعمرة, وتبادل البيانات والمعلومات لتسريع تبنّي التقنية في خدمة ضيوف الرحمن, وتدريب ورفع كفاءة منسوبي قطاع الحج والعمرة في مجال الذكاء الاصطناعي، إضافة إلى المشاركة في التحكيم والجلسات والورش الخاصة بالمسابقة السنوية «طيبة تبتكر».

وتعمل «وادي طيبة» على دعم وتسريع تفعيل تقنيات الذكاء الاصطناعي، من خلال بناء قدرات وطنية بدرجة عالية من الكفاءة الهندسية والعلمية، وتعزيز الاستثمار في مجال الاقتصاد المعرفي.

المصدر: صحيفة عاجل

كلمات دلالية: وزارة الحج والعمرة الذكاء الاصطناعي مجال الأبحاث الحج والعمرة فی مجال

إقرأ أيضاً:

خاص 24.. كيف يُمكن الاحتيال على النجوم عبر الذكاء الاصطناعي؟

حالة من الجدل، أثارها تسجيل صوتي "مُفبرك" منسوب إلى الفنان اللبناني راغب علامة والإماراتي عبدالله بالخير، على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله، وإهانة برموز سياسيين.

لم يكن راغب علامة الضحية الأولى للذكاء الاصطناعي وأدوات التلاعب بالأصوات والصور والتسجيلات، فقد سبقه نجوم كبار مثل: توم هانكس، وتايلور سويفت، ومورغان فريمان.. لكن يبقى السؤال: كيف يمكن تزييف أصوات النجوم، وما الهدف من ذلك؟.

التزييف العميق

في هذا الشأن، قال اللبناني رودي شوشاني، خبير تكنولوجيا المعلومات، إنه يتم الاعتماد على تقنيات الذكاء الاصطناعي لتقليد أصوات المشاهير والفنانين، لاسيما تطبيقات التزييف العميق (Deepfake)، التي تعتمد على تعلم الآلة والشبكات العصبية لتوليد محتوى، يبدو واقعياً للغاية.

راغب علامة آخرهم.. نجوم وقعوا ضحايا الذكاء الاصطناعي - موقع 24أثار تسجيل "مفبرك" منسوب إلى اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، الجدل على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله.

ولفت شوشاني، في حديث خاص لـ "24"، إلى أنه يجري جمع تسجيلات صوتية للفنانين والمشاهير أو الشخصية المُستهدفة، وتحليل خصائص صوتها مثل النغمة، والإيقاع، والنطق، لاستخراج نُسخة مُشابهة كُلياً لنفس الصوت الأصلي.

وعن تقنيات التزييف العميق المُستخدمة في هذه العملية، أشار شاوشاني، إلى أن نموذج تحويل النص إلى صوت (Text-to-Speech Models)، وكذلك نماذج تحويل الصوت إلى صوت (Voice-to-Voice Models)، هي الأبرز في هذا المجال، حيث تتعلم من بيانات كبيرة لتقليد الصوت بدقة بالغة.

حرق وتشويه سمعة وأفعال منافية.. القصة الكاملة لما حدث مع راغب علامة - موقع 24موجة غضب عارمة وضجة واسعة رافقت منذ أمس تسجيلاً صوتياً "مفبركاً" منسوباً للنجم اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، حيث يزعم أن علامة أساء فيه للأمين العام لجماعة حزب الله.

في هذا الإطار أوضح رودي شوشاني أيضاً، إنه يتم مؤخراً الاعتماد على نماذج الذكاء الاصطناعي التوليدي (Generative AI)، والتي تعتمد على "الشبكات التوليدية التنافسية" (Generative Adversarial Networks - GANs) لتوليد أصوات تحاكي الأصوات الحقيقية.

أهداف

وذكر شوشاني، أن تحول أغلب هذه الأدوات إلى مفتوحة المصدر، وإتاحتها للجميع زاد من مخاطرها، حيث باتت تُقلد الأصوات لأغراض متنوعة منها الترفيهية والابداعية، وكذلك لأغراض السرقة والاحتيال كأن يتم تزييف أصوات المسؤولين والمديرين وإصدار توجيهات للأشخاص العاملين معهم كتحويل أموال على سبيل المثال إلى حسابات بنكية مُحددة.

خاص| كيف نحمي أنفسنا من الحسابات الوهمية؟ خبراء يُجيبون - موقع 24يقع كثير من الأشخاص عُرضة للابتزاز الإلكتروني بسبب المنصات الوهمية ورسائل الاحتيال والأنشطة الخبيثة التي يقف خلفها أشخاص ومنظمات هدفهم الإضرار بالمستخدمين واستغلالهم وسرقة بياناتهم الشخصية، مستفيدين مما توفره التكنولوجيا من أدوات تساعد من يقف وراء هذه الحسابات على التخفي.

ويُشير شاوشاني أيضاً إلى أنه يجرى استخدام هذه الخاصية لإثارة الفتنة ولأغراض سياسية أو دينية، أو تشويه السمعة، كما جرى مع الفنان راغب علامة، لإحداث حالة من الجدل في المُجتمع.

بدوره، قال بشير التغريني، خبير الإعلام الرقمي، إن عُنصر الإتاحة لهذه البرامج جعل من السهل إنتاج مقطع صوتي مُقلد في ثوانٍ معدودة، عبر تقنية "ديب فيك"، لخداع الآخرين.
وشدد التغريني، في حديث لـ "24"، على أن توفير مثل هذه الأدوات في الأيدي الخطأ، يُنذر بسلسلة من الهجمات على البشر، الأمر الذي يتطلب تشريعات رادعة وقوانين مُنظمة تضمن حرية المعلومات، وفي نفس الوقت حماية الآخرين.

حائط الصد

في هذا السياق، أوضح التغريني، أن المواطنين عليهم دور كبير في حماية أنفسهم في المقام الأول باعتبارهم خط الدفاع الأول، عبر تثقيف أنفسهم معلوماتياً وتكنولوجياً، مع إعمال التفكير النقدي باستمرار.

متخصصون: الوعي بالتطورات التكنولوجية يقي من الاحتيال الإلكتروني - موقع 24أكد متخصصون في نظم المعلومات والأمن السيبراني أن الوعي بالتحديثات والتطورات التكنولوجية أصبح ضرورة ملحة لتجنب الوقوع ضحية لعمليات الاحتيال الإلكتروني التي تتطور بالتوازي مع الابتكارات التكنولوجية والرقمية.

كما أشار الخبير المعلوماتي إلى ضرورة التدقيق المُستمر في الصوت والصورة التي يتعرضون لها عبر المنصات الاجتماعية المُختلفة، لكشف الطرق الاحتيالية،باستخدام الأدوات المُختلفة المُتاحة أيضاً مثل أداة مصادقة الفيديو من "مايكروسوفت"، التي يمكنها تحليل الصور الثابتة والمتحركة وكشف التزييف فيها. بجانب أدوات مثل "WeVerify"، التي يمكنها تحليل الوسائط الاجتماعية المُختلف عبر شبكة الإنترنت.

مقالات مشابهة

  • خاص 24.. كيف يُمكن الاحتيال على النجوم عبر الذكاء الاصطناعي؟
  • توفير باقة "تمويل الحج والعمرة" من بنك نزوى بحلول ميسرة 
  • دراسة لـ«تريندز»: الذكاء الاصطناعي يفتح آفاقاً جديدة في عالم الصحة
  • «روتانا» توقع اتفاقية تعاون مع «ريفرسايد» لإنشاء فندق في الصومال
  • دراسة لـ”تريندز”: الذكاء الاصطناعي يفتح آفاقاً جديدة في عالم الصحة
  • تعرف على تشكيل الأمانة الفنية للمجلس الوطني للتعليم والبحث والابتكار.. وفقًا للقانون
  • مباحثات مصرية سعودية لإطلاق تعاون استراتيجي في مجال كفاءة استهلاك الطاقة
  • مصر وتايلاند توقعان مذكرة تفاهم لتعزيز التعاون الاقتصادي
  • تعاون بين «معاً» و «أبوظبي التجاري» لتعزيز المشاركة المجتمعية
  • بحث توطين صناعة الأجهزة الطبية وتعزيز التعاون مع شركة سنجاري