مركز سلام يبحث آليات استخدام الذكاء الاصطناعي لمكافحة التطرف على منصات التواصل
تاريخ النشر: 30th, July 2024 GMT
انطلقت اليوم الثلاثاء ورشة عمل "محاربة المحتوى المُتطرف على وسائل التواصل الاجتماعي"، التي يُنظمها مركز سلام لدراسات التطرف ومكافحة الإسلاموفوبيا، للإجابة على التساؤلات الخاصة بالمحتوى المُتطرف الرقمي وكيفية استخدام المُتطرفين للخوارزميات في دعم انتشار محتواهم، ومناقشة آليات استخدام التكنولوجيا والذكاء الاصطناعي لتحديد ومنع المحتوى المُتطرف لما يمثله من بالغ الخطورة على الأفراد والمُجتمعات.
يأتي تنظيم الورشة على هامش المؤتمر الدولي التاسع، الذي تنظمه الأمانة العامة لدور وهيئات الإفتاء في العالم تحت رعاية الرئيس عبد الفتاح السيسي، يومي 29 و30 يوليو الجاري، بعنوان "الفتوى والبناء الأخلاقي في عالم مُتسارع".
ويرأس الورشة نهال سعد، مدير منظمة الأمم المتحدة لتحالف الحضارات بنيويورك، وأمين سر الورشة حسن محمد، المدير التنفيذي لمركز سلام لدراسات التطرف ومكافحة الإسلاموفوبيا.
خطورة المحتوى المتطرف عبر شبكات التواصل
تتجلى أهمية هذه الورشة في لفت الانتباه إلى خطورة المحتوى المتطرف عبر شبكات التواصل الاجتماعي والتأكيد على ضرورات محاربته، بما تتطلبه من تطوير وبناء استراتيجيات متكاملة الأبعاد، تضمن التعاون بين مُختلف الجهات الوطنية والإقليمية والعالمية لتتبع هذا الوباء المتفشي في كثير من المنصات وإزالته ومحاولة بناء جدر الوقاية ضده.
تتناول الورشة عبر 13 محوراً أساسياً، هذه القضية (المحتوى المُتطرف في العالم الرقمي)، وأسباب رواجه وأهمية محاربته، لاسيما عبر السوشيال ميديا، مع بناء وتعزيز الشراكات بين مراكز البحوث لرصد وتتبع المحتوى المتطرف عبر شبكات التواصل الاجتماعي.
تهدف الورشة إلى الفهم العميق للمحتوى المتطرف عبر منصات التواصل الاجتماعي من حيث التعريف والانتشار والأنماط، وتحديد المحطات الرئيسة لتوظيف المتطرفين للمنصات الاجتماعية ضمن استراتيجياتهم التخريبية، والوقوف على العوامل التي تساهم في انتشار المحتوى المتطرف عبر هذه المنصات.
كما تستهدف تحديد الفئات المستهدفة بالمحتوى المُتطرف والجماهير الأكثر تأثراً به، وتعزيز الحوار البناء والفهم المتبادل عبر المنصات الاجتماعية، وتعزيز فرص نجاح استراتيجيات بناء المحتوى المعتدل ونشره، وبناء الشراكات مع مراكز البحوث ومنظمات المجتمع المدني لتعزيز الوعي والتثقيف بشأن المحتوى المتطرف.
دعم بناء القدرات الرقمية في مواجهة التطرف بمختلف أنماطه وأشكاله، وتقديم التوصيات بالتعديلات القانونية والتشريعية التي تعزز مكافحة المحتوى المتطرف عبر الإنترنت، وتوفير منصة مفتوحة لتبادل الآراء بشأن تطوير استراتيجيات فعالة ومتكاملة لمحاربة المحتوى المتطرف على منصات التواصل الاجتماعي، بجانب تعزيز مشاركة الشركات التقنية في تنفيذ استراتيجيات المكافحة.
حضر الورشة مجموعة من المسؤولين والمُختصين وأساتذة الجامعات، والإعلاميين، ورؤساء مراكز الأبحاث والدراسات، من بينهم: الدكتورة ماريا محمد الهطالي، الأمين العام لمجلس الإمارات للإفتاء الشرعي، والسفير وزير مفوض علاء التميمي، مدير إدارة البحوث والدراسات الاستراتيجية بجامعة الدول العربية، ونيافة الأنبا أرميا، رئيس المركز الثقافي القبطي الأرثوذوكسي.
كما حضر الورشة ديميتريوس كاراباتاكيس، خبير الأمن ومكافحة الإرهاب ببعثة الاتحاد الأوروبي، والدكتور محمد بن علي، رئيس مؤسسة إعادة التأهيل الديني المسؤولة مكافحة الإرهاب بسنغافورة، والدكتور محمد البشاري، الأمين العام للمجلس العالمي للمُجتمعات المُسلمة، والدكتور عمر البشير الترابي رئيس التحرير بمركز المسبار للدراسات والبحوث، و الدكتور إبراهيم ليتوس مدير الأكاديمية الأوروبية للتنمية والبحث، والدكتورة نورهان الشيخ، أستاذ العلوم السياسية بجامعة القاهرة.
جدير بالذكر أن المؤتمر الدولي التاسع، الذي تنظمه الأمانة العامة لدور وهيئات الإفتاء في العالم، يشهد حضورًا لكبار المُفتين والوزراء والعلماء وممثلي الهيئات الأممية من مُختلف دول العالم. ومن المُقرر أن يشمل المؤتمر عقد مجموعة من الندوات ووِرش العمل والبرامج الخاصة بالفتوى والبناء الأخلاقي.
يُشار إلى أن مركز "سلام لدراسات التطرف ومكافحة الإسلاموفوبيا"، هو مركز بحثي وأكاديمي يتبع دار الإفتاء المصرية، وهو مَعني بدراسة التطرف ومناهج مكافحته والوقاية منه، ويسعى إلى تأصيل فلسفة الدولة المصرية ودار الإفتاء في نطاق المواجهة الفكرية الشاملة لظاهرة التطرف الدينية المتعلقة بقضية التشدد والتطرف
المصدر: بوابة الوفد
كلمات دلالية: التطرف المحتوى المتطرف التكنولوجيا الذكاء الاصطناعي التواصل الاجتماعی
إقرأ أيضاً:
تحديات جوهرية تواجه تطور الذكاء الاصطناعي
#سواليف
أظهر استطلاع حديث لخبراء في مجال #الذكاء_الاصطناعي أن توسيع نماذج اللغات الكبيرة (LLMs) لن يؤدي إلى تحقيق الذكاء الاصطناعي العام (AGI).
يعدّ AGI بمثابة النقلة النوعية التي تمكّن الأنظمة من التعلم بشكل فعّال كالذكاء البشري أو أفضل منه.
وأكد 76% من 475 باحثا في المجال، أنهم يرون أن هذا التوسع “غير مرجح” أو “غير مرجح جدا” أن يحقق هذا الهدف المنشود.
مقالات ذات صلة إعداد بسيط في هاتفك قد يجعلك تبدو أصغر بـ10 سنوات! 2025/04/01وتعتبر هذه النتيجة انتكاسة كبيرة للصناعات التكنولوجية التي توقعت أن تحسينات بسيطة في النماذج الحالية من خلال مزيد من البيانات والطاقة ستؤدي إلى الذكاء الاصطناعي العام.
ومنذ #طفرة الذكاء الاصطناعي التوليدي في 2022، كانت التوقعات تركز على أن زيادة الموارد كافية لتجاوز #الذكاء_البشري. لكن مع مرور الوقت، وبالرغم من الزيادة الكبيرة في الإنفاق، فإن التقدم قد تباطأ بشكل ملحوظ.
وقال ستيوارت راسل، عالم الحاسوب في جامعة كاليفورنيا، بيركلي، والذي شارك في إعداد التقرير: “منذ إصدار GPT-4، أصبح واضحا أن التوسع في النماذج كان تدريجيا ومكلفا. الشركات قد استثمرت أموالا ضخمة بالفعل، ولا يمكنها التراجع بسبب الضغوط المالية”.
وفي السنوات الأخيرة، ساهمت البنية الأساسية المبتكرة المسماة “المحولات” (Transformers)، التي ابتكرها علماء غوغل عام 2017، في تحسن قدرات نماذج الذكاء الاصطناعي. وتستفيد هذه النماذج من زيادة البيانات لتوليد استجابات أدق. ولكن التوسع المستمر يتطلب موارد ضخمة من الطاقة والمال.
وقد استقطب قطاع الذكاء الاصطناعي المولّد نحو 56 مليار دولار في رأس المال المغامر عام 2024، مع تكريس جزء كبير من هذه الأموال لبناء مراكز بيانات ضخمة تسببت في زيادة انبعاثات الكربون ثلاث مرات منذ 2018.
ومع استنفاد البيانات البشرية القابلة للاستخدام بحلول نهاية هذا العقد، فإن الشركات ستضطر إما لاستخدام البيانات التي أنشأها الذكاء الاصطناعي نفسه أو جمع بيانات خاصة من المستخدمين، ما يعرض النماذج لمخاطر أخطاء إضافية. وعلى الرغم من ذلك، لا يقتصر السبب في محدودية النماذج الحالية على الموارد فقط، بل يتعدى ذلك إلى القيود الهيكلية في طريقة تدريب هذه النماذج.
كما أشار راسل: “المشكلة تكمن في أن هذه النماذج تعتمد على شبكات ضخمة تمثل مفاهيم مجزّأة، ما يجعلها بحاجة إلى كميات ضخمة من البيانات”.
وفي ظل هذه التحديات، بدأ الباحثون في النظر إلى نماذج استدلالية متخصصة يمكن أن تحقق استجابات أكثر دقة. كما يعتقد البعض أن دمج تقنيات الذكاء الاصطناعي مع أنظمة تعلم آلي أخرى قد يفتح آفاقا جديدة.
وفي هذا الصدد، أثبتت شركة DeepSeek الصينية أن بإمكانها تحقيق نتائج متميزة بتكاليف أقل، متفوقة على العديد من نماذج الذكاء الاصطناعي التي تعتمد عليها شركات التكنولوجيا الكبرى في وادي السيليكون.
ورغم التحديات، ما يزال هناك أمل في التقدم، حيث يقول توماس ديتريش، الأستاذ الفخري لعلوم الحاسوب في جامعة ولاية أوريغون: “في الماضي، كانت التطورات التكنولوجية تتطلب من 10 إلى 20 عاما لتحقيق العوائد الكبيرة. وهذا يعني أن هناك فرصة للابتكار بشكل كبير في مجال الذكاء الاصطناعي، رغم أن العديد من الشركات قد تفشل في البداية”.