ندوة "مستقبل اللغة العربية من منظور الذكاء الاصطناعي" بمكتبة مصر الجديدة غدًا
تاريخ النشر: 15th, December 2023 GMT
تنظم مكتبة مصر الجديدة، ندوة بعنوان: "مستقبل اللغة العربية من منظور أدوات الذكاء الاصطناعي"، وذلك غدٍ السبت، في تمام الساعة 5.30 مساءً.
وقال الدكتور نبيل حلمي، إن هذه الفعالية الثقافية تأتى مواكبة لليوم العالمي للغة العربية، وسوف يلقي الدكتور سيد إسماعيل ضيف الله، أستاذ النقد الأدبي بأكاديمية الفنون محاضرة عن السلبيات والايجابيات التى تواجهها اللغة العربية من الانتشار العالمى للذكاء الاصطناعي.
يرتبط يوم اللغة العربية بقرارٍ صادرٍ عن الجمعية العامة للأمم المتحدة عام 18 ديسمبر 1973، نصّ على إدخال اللغة العربية ضمن مجموعة اللغات الرسمية المعمول بها في الأمم المتحدة، ذلك على الرغم من أن النسبة الأكبر من الدول الأعضاء في مجلس الأمم المتحدة تتحدّث بلغاتٍ أخرى غيرها. بناءً على ذلك القرار، اعتمدت اليونسكو اليوم العالمي للغة العربية عام 2012 للاحتفال بهذه اللغة سنوياً؛ انطلاقًا من رؤيتها المتمثلة في تعزيز تعدد اللغات وتنوع الثقافات تحت مظلة الأمم المتحدة، التي اعتمدت بدورها شعارًا متميزًا لليوم العالمي للغة العربية يرمي إلى توعية العالم بتاريخها المشرّف وأهميتها العظمى، ويتجلّى ذلك من خلال مجموعة من البرامج والأنشطة والفعاليات المختلفة.
المصدر: بوابة الوفد
كلمات دلالية: مكتبة مصر الجديدة اللغة العربية الذكاء الاصطناعى الدكتور نبيل حلمي الجمعية العامة للأمم المتحدة اللغة العربیة
إقرأ أيضاً:
خاص 24.. كيف يُمكن الاحتيال على النجوم عبر الذكاء الاصطناعي؟
حالة من الجدل، أثارها تسجيل صوتي "مُفبرك" منسوب إلى الفنان اللبناني راغب علامة والإماراتي عبدالله بالخير، على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله، وإهانة برموز سياسيين.
لم يكن راغب علامة الضحية الأولى للذكاء الاصطناعي وأدوات التلاعب بالأصوات والصور والتسجيلات، فقد سبقه نجوم كبار مثل: توم هانكس، وتايلور سويفت، ومورغان فريمان.. لكن يبقى السؤال: كيف يمكن تزييف أصوات النجوم، وما الهدف من ذلك؟.
التزييف العميقفي هذا الشأن، قال اللبناني رودي شوشاني، خبير تكنولوجيا المعلومات، إنه يتم الاعتماد على تقنيات الذكاء الاصطناعي لتقليد أصوات المشاهير والفنانين، لاسيما تطبيقات التزييف العميق (Deepfake)، التي تعتمد على تعلم الآلة والشبكات العصبية لتوليد محتوى، يبدو واقعياً للغاية.
راغب علامة آخرهم.. نجوم وقعوا ضحايا الذكاء الاصطناعي - موقع 24أثار تسجيل "مفبرك" منسوب إلى اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، الجدل على منصات التواصل الاجتماعي، بسبب ما قيل إنه مساس بحسن نصرالله.ولفت شوشاني، في حديث خاص لـ "24"، إلى أنه يجري جمع تسجيلات صوتية للفنانين والمشاهير أو الشخصية المُستهدفة، وتحليل خصائص صوتها مثل النغمة، والإيقاع، والنطق، لاستخراج نُسخة مُشابهة كُلياً لنفس الصوت الأصلي.
وعن تقنيات التزييف العميق المُستخدمة في هذه العملية، أشار شاوشاني، إلى أن نموذج تحويل النص إلى صوت (Text-to-Speech Models)، وكذلك نماذج تحويل الصوت إلى صوت (Voice-to-Voice Models)، هي الأبرز في هذا المجال، حيث تتعلم من بيانات كبيرة لتقليد الصوت بدقة بالغة.
حرق وتشويه سمعة وأفعال منافية.. القصة الكاملة لما حدث مع راغب علامة - موقع 24موجة غضب عارمة وضجة واسعة رافقت منذ أمس تسجيلاً صوتياً "مفبركاً" منسوباً للنجم اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، حيث يزعم أن علامة أساء فيه للأمين العام لجماعة حزب الله.في هذا الإطار أوضح رودي شوشاني أيضاً، إنه يتم مؤخراً الاعتماد على نماذج الذكاء الاصطناعي التوليدي (Generative AI)، والتي تعتمد على "الشبكات التوليدية التنافسية" (Generative Adversarial Networks - GANs) لتوليد أصوات تحاكي الأصوات الحقيقية.
أهدافوذكر شوشاني، أن تحول أغلب هذه الأدوات إلى مفتوحة المصدر، وإتاحتها للجميع زاد من مخاطرها، حيث باتت تُقلد الأصوات لأغراض متنوعة منها الترفيهية والابداعية، وكذلك لأغراض السرقة والاحتيال كأن يتم تزييف أصوات المسؤولين والمديرين وإصدار توجيهات للأشخاص العاملين معهم كتحويل أموال على سبيل المثال إلى حسابات بنكية مُحددة.
خاص| كيف نحمي أنفسنا من الحسابات الوهمية؟ خبراء يُجيبون - موقع 24يقع كثير من الأشخاص عُرضة للابتزاز الإلكتروني بسبب المنصات الوهمية ورسائل الاحتيال والأنشطة الخبيثة التي يقف خلفها أشخاص ومنظمات هدفهم الإضرار بالمستخدمين واستغلالهم وسرقة بياناتهم الشخصية، مستفيدين مما توفره التكنولوجيا من أدوات تساعد من يقف وراء هذه الحسابات على التخفي.ويُشير شاوشاني أيضاً إلى أنه يجرى استخدام هذه الخاصية لإثارة الفتنة ولأغراض سياسية أو دينية، أو تشويه السمعة، كما جرى مع الفنان راغب علامة، لإحداث حالة من الجدل في المُجتمع.
بدوره، قال بشير التغريني، خبير الإعلام الرقمي، إن عُنصر الإتاحة لهذه البرامج جعل من السهل إنتاج مقطع صوتي مُقلد في ثوانٍ معدودة، عبر تقنية "ديب فيك"، لخداع الآخرين.
وشدد التغريني، في حديث لـ "24"، على أن توفير مثل هذه الأدوات في الأيدي الخطأ، يُنذر بسلسلة من الهجمات على البشر، الأمر الذي يتطلب تشريعات رادعة وقوانين مُنظمة تضمن حرية المعلومات، وفي نفس الوقت حماية الآخرين.
في هذا السياق، أوضح التغريني، أن المواطنين عليهم دور كبير في حماية أنفسهم في المقام الأول باعتبارهم خط الدفاع الأول، عبر تثقيف أنفسهم معلوماتياً وتكنولوجياً، مع إعمال التفكير النقدي باستمرار.
متخصصون: الوعي بالتطورات التكنولوجية يقي من الاحتيال الإلكتروني - موقع 24أكد متخصصون في نظم المعلومات والأمن السيبراني أن الوعي بالتحديثات والتطورات التكنولوجية أصبح ضرورة ملحة لتجنب الوقوع ضحية لعمليات الاحتيال الإلكتروني التي تتطور بالتوازي مع الابتكارات التكنولوجية والرقمية.كما أشار الخبير المعلوماتي إلى ضرورة التدقيق المُستمر في الصوت والصورة التي يتعرضون لها عبر المنصات الاجتماعية المُختلفة، لكشف الطرق الاحتيالية،باستخدام الأدوات المُختلفة المُتاحة أيضاً مثل أداة مصادقة الفيديو من "مايكروسوفت"، التي يمكنها تحليل الصور الثابتة والمتحركة وكشف التزييف فيها. بجانب أدوات مثل "WeVerify"، التي يمكنها تحليل الوسائط الاجتماعية المُختلف عبر شبكة الإنترنت.