جريدة الوطن:
2024-12-29@11:39:00 GMT

دافوس 2024.. جرس إنذار آخر

تاريخ النشر: 15th, January 2024 GMT

دافوس 2024.. جرس إنذار آخر

 

اتجاهات مستقبلية

دافوس 2024.. جرس إنذار آخر

 

 

 

 

بعد نحو شهر من انقضاء مؤتمر الأطراف في اتفاقية الأمم المتحدة الإطارية بشأن تغير المناخ (كوب 28) في دبي، الذّي دق جرس إنذار بشأن تفاقم مشكلة تغير المناخ، يأتي التئام المنتدى الاقتصادي العالمي في منتجع دافوس السويسري، في الفترة من 15 إلى 19 يناير الجاري، ليدق جرس إنذار آخر، أو بالأحرى أجراس إنذار أخرى بشأن أزمات العالم المركّبة من تغير المناخ والفوضى والصراع، إلى تآكل الثقة في المجتمعات وبين الدول.

  ولذلك، تم الاتفاق على أن يكون موضوع المنتدى لهذا العام هو “إعادة بناء الثقة” في عالمنا؛ تلك الثقة التي تآكلت بسبب التحولات العميقة التي يشهدها المجتمع الدولي، سواء أكانت جيوسياسية أم جيواقتصادية أم متعلقة بالمناخ.

ويشارك في منتدى هذا العام أكثر من 60 رئيس دولة، من بينهم الرئيس الفرنسي إيمانويل ماكرون والرئيس الأرجنتيني خافيير مايلي، بالإضافة إلى نحو 2800 آخرين، على رأسهم رئيسة المفوضية الأوروبية أورسولا فون دير لاين ورئيس الوزراء الصيني لي تشيانغ.

وسوف يركز المشاركون، من قادة السياسة، ورواد الأعمال العالميين، والشخصيات العامة، والناشطين الاجتماعيين البارزين، على المداولة في أربع قضايا رئيسية: الأولى، وتشمل الصراع الدولي المتمثل في الحرب الدائرة رحاها في غزة، التي تُعد الأكثر تدميرًا والأكبر تكلفةً بشرية في القرن الحالي، إضافة إلى الحرب الأوكرانية-الروسية التي تنتظرها مرحلة طويلة من الاستنزاف الدموي؛ والثانية الحرب الباردة الجديدة التي تجثم بظلالها الكئيبة في الأجواء، وتنذر بمواجهة محتملة لا تبقي ولا تذر بين الشرق والغرب؛ والثالثة أزمة تغير المناخ المركَّبة بمضامينها  الرهيبة على الأمن الغذائي والأمن الصحي والأمن الإنساني عامةً؛ والرابعة الفوضى المحتملة الناجمة عن سوء استخدام الذكاء الاصطناعي. وفي هذا الخصوص، فإن تقرير المخاطر العالمية 2024، الصادر قبيل انعقاد المنتدى، قد سلط الضوء على التهديدات المحتملة المتزايدة جرّاء استخدام تقنيات الذكاء الاصطناعي لأغراضٍ ضارة؛ فبالإضافة إلى التلاعب بنتائج الانتخابات وانتشار المعلومات الكاذبة والحقائق البديلة، تشمل هذه التهديدات التوظيف العسكري لتقنيات الذكاء الاصطناعي، والاستخدام الإجرامي لهذه التقنيات لشن هجمات سيبرانية، والتحيز المتأصل في أنظمة الذكاء الاصطناعي التي تستخدمها الشركات والدول القومية.

وفي إطار سعيه للانخراط في الفعاليات الدولية لتعزيز توجهه العالمي، يشارك مركز تريندز للبحوث والاستشارات للمَرّة الأولى في المنتدى الاقتصادي العالمي، ممثلًا برئيسه التنفيذي الدكتور محمد العلي، وذلك في حلقة نقاشية بعنوان (اقتصاديات السلام في الشرق الأوسط.. نموذج أفضل الممارسات للتعليم حول ثقافة السلام وأهداف التنمية المستدامة). كما يعقد “تريندز” مائدة مستديرة، على هامش منتدى دافوس، عن ترسيخ التسامح والسلام العالمي، بالتعاون مع التحالف البرلماني للأخلاقيات العالمية، في 15 يناير 2024.


المصدر: جريدة الوطن

إقرأ أيضاً:

خاص 24.. كيف يُمكن الاحتيال على النجوم عبر الذكاء الاصطناعي؟

حالة من الجدل، أثارها تسجيل صوتي "مُفبرك" منسوب إلى الفنان اللبناني راغب علامة والإماراتي عبدالله بالخير، على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله، وإهانة برموز سياسيين.

لم يكن راغب علامة الضحية الأولى للذكاء الاصطناعي وأدوات التلاعب بالأصوات والصور والتسجيلات، فقد سبقه نجوم كبار مثل: توم هانكس، وتايلور سويفت، ومورغان فريمان.. لكن يبقى السؤال: كيف يمكن تزييف أصوات النجوم، وما الهدف من ذلك؟.

التزييف العميق

في هذا الشأن، قال اللبناني رودي شوشاني، خبير تكنولوجيا المعلومات، إنه يتم الاعتماد على تقنيات الذكاء الاصطناعي لتقليد أصوات المشاهير والفنانين، لاسيما تطبيقات التزييف العميق (Deepfake)، التي تعتمد على تعلم الآلة والشبكات العصبية لتوليد محتوى، يبدو واقعياً للغاية.

راغب علامة آخرهم.. نجوم وقعوا ضحايا الذكاء الاصطناعي - موقع 24أثار تسجيل "مفبرك" منسوب إلى اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، الجدل على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله.

ولفت شوشاني، في حديث خاص لـ "24"، إلى أنه يجري جمع تسجيلات صوتية للفنانين والمشاهير أو الشخصية المُستهدفة، وتحليل خصائص صوتها مثل النغمة، والإيقاع، والنطق، لاستخراج نُسخة مُشابهة كُلياً لنفس الصوت الأصلي.

وعن تقنيات التزييف العميق المُستخدمة في هذه العملية، أشار شاوشاني، إلى أن نموذج تحويل النص إلى صوت (Text-to-Speech Models)، وكذلك نماذج تحويل الصوت إلى صوت (Voice-to-Voice Models)، هي الأبرز في هذا المجال، حيث تتعلم من بيانات كبيرة لتقليد الصوت بدقة بالغة.

حرق وتشويه سمعة وأفعال منافية.. القصة الكاملة لما حدث مع راغب علامة - موقع 24موجة غضب عارمة وضجة واسعة رافقت منذ أمس تسجيلاً صوتياً "مفبركاً" منسوباً للنجم اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، حيث يزعم أن علامة أساء فيه للأمين العام لجماعة حزب الله.

في هذا الإطار أوضح رودي شوشاني أيضاً، إنه يتم مؤخراً الاعتماد على نماذج الذكاء الاصطناعي التوليدي (Generative AI)، والتي تعتمد على "الشبكات التوليدية التنافسية" (Generative Adversarial Networks - GANs) لتوليد أصوات تحاكي الأصوات الحقيقية.

أهداف

وذكر شوشاني، أن تحول أغلب هذه الأدوات إلى مفتوحة المصدر، وإتاحتها للجميع زاد من مخاطرها، حيث باتت تُقلد الأصوات لأغراض متنوعة منها الترفيهية والابداعية، وكذلك لأغراض السرقة والاحتيال كأن يتم تزييف أصوات المسؤولين والمديرين وإصدار توجيهات للأشخاص العاملين معهم كتحويل أموال على سبيل المثال إلى حسابات بنكية مُحددة.

خاص| كيف نحمي أنفسنا من الحسابات الوهمية؟ خبراء يُجيبون - موقع 24يقع كثير من الأشخاص عُرضة للابتزاز الإلكتروني بسبب المنصات الوهمية ورسائل الاحتيال والأنشطة الخبيثة التي يقف خلفها أشخاص ومنظمات هدفهم الإضرار بالمستخدمين واستغلالهم وسرقة بياناتهم الشخصية، مستفيدين مما توفره التكنولوجيا من أدوات تساعد من يقف وراء هذه الحسابات على التخفي.

ويُشير شاوشاني أيضاً إلى أنه يجرى استخدام هذه الخاصية لإثارة الفتنة ولأغراض سياسية أو دينية، أو تشويه السمعة، كما جرى مع الفنان راغب علامة، لإحداث حالة من الجدل في المُجتمع.

بدوره، قال بشير التغريني، خبير الإعلام الرقمي، إن عُنصر الإتاحة لهذه البرامج جعل من السهل إنتاج مقطع صوتي مُقلد في ثوانٍ معدودة، عبر تقنية "ديب فيك"، لخداع الآخرين.
وشدد التغريني، في حديث لـ "24"، على أن توفير مثل هذه الأدوات في الأيدي الخطأ، يُنذر بسلسلة من الهجمات على البشر، الأمر الذي يتطلب تشريعات رادعة وقوانين مُنظمة تضمن حرية المعلومات، وفي نفس الوقت حماية الآخرين.

حائط الصد

في هذا السياق، أوضح التغريني، أن المواطنين عليهم دور كبير في حماية أنفسهم في المقام الأول باعتبارهم خط الدفاع الأول، عبر تثقيف أنفسهم معلوماتياً وتكنولوجياً، مع إعمال التفكير النقدي باستمرار.

متخصصون: الوعي بالتطورات التكنولوجية يقي من الاحتيال الإلكتروني - موقع 24أكد متخصصون في نظم المعلومات والأمن السيبراني أن الوعي بالتحديثات والتطورات التكنولوجية أصبح ضرورة ملحة لتجنب الوقوع ضحية لعمليات الاحتيال الإلكتروني التي تتطور بالتوازي مع الابتكارات التكنولوجية والرقمية.

كما أشار الخبير المعلوماتي إلى ضرورة التدقيق المُستمر في الصوت والصورة التي يتعرضون لها عبر المنصات الاجتماعية المُختلفة، لكشف الطرق الاحتيالية،باستخدام الأدوات المُختلفة المُتاحة أيضاً مثل أداة مصادقة الفيديو من "مايكروسوفت"، التي يمكنها تحليل الصور الثابتة والمتحركة وكشف التزييف فيها. بجانب أدوات مثل "WeVerify"، التي يمكنها تحليل الوسائط الاجتماعية المُختلف عبر شبكة الإنترنت.

مقالات مشابهة

  • التغير المناخي في الجنوب العالمي.. توترات يخمدها الذكاء الاصطناعي
  • خاص 24.. كيف يُمكن الاحتيال على النجوم عبر الذكاء الاصطناعي؟
  • قراءة بملف الذكاء الاصطناعي العُماني في 2024 ورؤية لعام 2025
  • في ثورة فيديو الذكاء الاصطناعي.. هل تغير ميتا موفي جين وسورا إيه آي مستقبل صناعة الفيديو؟
  • حصاد قطاع المعاهد الأزهرية 2024.. عشرون مسابقة والاستفادة من الذكاء الاصطناعي
  • أهم الشخصيات التي ترسم مشهد «الذكاء الاصطناعي العالمي» عام 2025
  • من الوكلاء إلى الهلوسات.. هكذا تطور الذكاء الاصطناعي في 2024
  • التضامن تشارك فى ورشة عمل حول تعزيز دور المجتمع المدني المصري فى قضايا تغير المناخ
  • التضامن تشارك بورشة "تعزيز دور المجتمع المدني المصري في قضايا تغير المناخ"
  • وزيرة البيئة تشارك في الندوة التحضيرية لإعداد الاحتفال بيوم البيئة العالمي ٢٠٢٥