تقرير يكشف أخطارا تهدد العالم.. المعلومات المضللة أبرزها
تاريخ النشر: 17th, January 2024 GMT
يهيمن الاستقطاب على النظام العالمي الذي يعاني من التوترات والأعمال العدائية المنتشرة، وتآكل الثقة وانعدام الأمن، وفق أحدث تقرير للمنتدى الاقتصادي العالمي في دافوس.
التقرير حذر من أن هذا الوضع يترك مجالا واسعا لتسريع المخاطر، منها انتشار المعلومات الخاطئة والمضللة في مجتمعات أضعفت سياسيا واقتصاديا في السنوات الأخيرة.
صمم التقرير على شكل دراسة موسعة تعطي تصورا للمخاطر العالمية اعتمادا على رؤى رائدة من 1490 خبيرا في الأوساط الأكاديمية وقطاع الأعمال والحكومة والمجتمع الدولي والمجتمع المدني.
وقبل استعراض النتائج، يقدم التقرير تعريفا دقيقا لمصطلح "المخاطر العالمية"، وهو "احتمال وقوع حدث أو ظرف من شأنه، في حال حدوثه، أن يؤثر سلبا على نسبة كبيرة من الناتج المحلي الإجمالي العالمي، السكان أو الموارد الطبيعية".
يقول التقرير إن الذكاء الاصطناعي يساهم في نشر المعلومات الخاطئة والمضللة والتأثير على العقولقائمة المخاطرويقدم التقرير توقعات لمشهد المخاطر والتأثير المحتمل على مستويين: الأول على المدى القصير، أي خلال سنة 2024. والثاني على المدى الطويل، أي خلال السنوات العشر المقبلة 2024-2034.
واحتلت المعلومات الخاطئة والمضللة المرتبة الأولى في قائمة المخاطر العالمية على المدى القصير، والخامسة على المدى الطويل، وهذا يشير إلى التحدي الذي يواجهه العالم في هذا الشأن.
وفي قائمة المخاطر العالمية على المدى القصير، جاءت مشكلة التقلبات الجوية والمناخ المتطرف في المرتبة الثانية، تلاها الاستقطاب المجتمعي، وانعدام الأمن السيبراني، والصراع المسلح بين الدول، وقلة الفرص الاقتصادية، والتضخم، والهجرة غير الطوعية، والانكماش الاقتصادي، والتلوث.
ساهمت التكنولوجيا والإنترنت بتعقيد إمكانية السيطرة على خطر المعلومات الخاطئة والمضللةواحتلت مشكلة التقلبات الجوية والمناخ المتطرف المرتبة الأولى في قائمة المخاطر العالمية على المدى الطويل، تلاها التغير في أنظمة الأرض، وفقدان التنوع البيولوجي وانهيار النظام البيئي، ونقص الموارد الطبيعية، والمعلومات الخاطئة والمضللة، والنتائج السلبية لتقنيات الذكاء الاصطناعي، والهجرة غير الطوعية، وانعدام الأمن السيبراني، والاستقطاب المجتمعي، والتلوث.
ويقول التقرير إن المعلومات الخاطئة والمضللة تنتشر بشكل متعمد أو عن غير قصد على نطاق واسع عبر شبكات الإعلام، مما يؤدي إلى تحويل الرأي العام بطريقة كبيرة نحو عدم الثقة في الحقائق والسلطة.
أخطار على المدى القصيرفي 2023-2024، تتفوق مخاطر المعلومات الخاطئة والمضللة على المشكلات الأخرى التي تتسبب في الاستقطاب العالمي، وفق التقرير.
وهناك جهات محلية وأجنبية ستستفيد من المعلومات الخاطئة والمعلومات المضللة لزيادة توسيع الانقسامات المجتمعية والسياسية، وفق ننتائج التقرير.
ويتوقع التقرير أن يتوجه ما يقرب من ثلاثة مليارات شخص إلى صناديق الاقتراع في العديد من الاقتصادات، بما فيها بنغلاديش والهند وإندونيسيا والمكسيك وباكستان والمملكة المتحدة والولايات المتحدة، على مدى العامين المقبلين، وهؤلاء مهددون بمخاطر انتشار المعلومات الخاطئة والمضللة.
ويحذر التقرير من أن الاستخدام الواسع النطاق للمعلومات الخاطئة والمضللة والأدوات اللازمة لنشرها، سيقوض شرعية الحكومات المنتخبة حديثا.
يقول خبراء إن هناك صعوبة في تحديد الفرق بين المحتوى الحقيقي والمزيف عبر وسائل التواصل الاجتماعيسيطرة الحكومات على الحرياتويمكن أن تتراوح الاضطرابات الناتجة عن انتشار المعلومات الخاطئة والمضللة من الاحتجاجات العنيفة وجرائم الكراهية إلى المواجهة المدنية والإرهاب.
وبعيدا عن الانتخابات، من المرجح أيضا أن تصبح تصورات الواقع أكثر استقطابا، فتتسلل إلى الخطاب العام حول قضايا تتراوح بين الصحة العامة والعدالة الاجتماعية.
ومع تقويض الحقيقة، يقول التقرير إن خطر الدعاية والرقابة المحلية سيرتفع ردا على المعلومات الخاطئة والمضللة.
هذا الأمر سيؤدي غالبا إلى لجوء الحكومات إلى السيطرة على المعلومات بناء على ما تعتبره "صحيحا".
تجد شركات التكنولوجيا صعوبة في محاربة المعلومات الخاطئة والمضللة على منصات التواصل الاجتماعيويقول التقرير إن الحريات المتعلقة بالإنترنت والصحافة والوصول إلى مصادر أوسع للمعلومات، والتي هي بالفعل في تراجع، مهددة بالانحدار إلى قمع أوسع لتدفق المعلومات الضارة عبر مجموعة واسعة من البلدان.
التكنولوجياوقد أدت التطورات التكنولوجية الحديثة إلى زيادة حجم المعلومات المزورة ومدى انتشارها وفعاليتها، مع زيادة صعوبة تتبع التدفقات وتحديد نسبها والتحكم فيها.
ومن المرجح، وفق التقرير، أن تنهار قدرة شركات وسائل التواصل الاجتماعي على ضمان سلامة المنصات من خطر المعلومات الخاطئة والمضللة.
وتشكل المعلومات الخاطئة والمضللة الناتجة عن الذكاء الاصطناعي ما نسبته 53 بالمئة، فيما يتسبب الاستقطاب المجتمعي أو السياسي بنحو 46 بالمئة، وفق التقرير.
ولا تزال العديد من البلدان تكافح من أجل استعادة سنوات التقدم الضائعة التي نشأت عن جائحة كوفيد-19، مما خلق أرضا خصبة لنشوء المعلومات الخاطئة والمضللة واستقطاب المجتمعات والمجتمعات والبلدان.
الذكاء الاصطناعيولن يكون تحديد المعلومات الخاطئة والمضللة الناتجة عن الذكاء الاصطناعي سهلا.
وقد أصبح تمييز الفرق بين الذكاء الاصطناعي والمحتوى الذي ينتجه الإنسان أكثر صعوبة، ليس فقط بالنسبة للأفراد المتعلمين رقميا، ولكن أيضا بالنسبة لآليات الكشف عن المعلومات الضارة، وفق نتائج التقرير.
على سبيل المثال، يمكن لفيديو أنتج بواسطة الذكاء الاصطناعي أن يؤثر على الناخبين ويغذي الاحتجاجات، أو في سيناريوهات أكثر تطرفا، قد يؤدي إلى العنف أو التطرف، حتى لو كان يحمل تحذيرا من قبل المنصة التي تمت مشاركته عليها بأنه محتوى ملفق.
ويمكن أن تكون الآثار المترتبة على الحملات التلاعبية التي تنشر المعلومات الخاطئة والمضللة عميقة وتهدد العمليات الديمقراطية.
صراعات وخطر على الاقتصادوإذا تم التشكيك في شرعية الانتخابات، بسبب المعلومات الخاطئة والمضللة، فإن المواجهة المدنية تصبح محتملة، بل وربما تمتد إلى صراعات داخلية وإلى الإرهاب، وانهيار الدولة في الحالات الأكثر تطرفا، يقول التقرير.
كما أن المعلومات الخاطئة والمضللة تشكل خطرا على التجارة العالمية والأسواق المالية
ويمكن أن تؤدي الحملات المدعومة من الدولة إلى تدهور العلاقات بين الدول، عن طريق تعزيز أنظمة العقوبات، وعمليات الجرائم السيبرانية مع مخاطر الانتشار ذات الصلة، واحتجاز الأفراد، بما في ذلك الاستهداف على أساس الجنسية والعرق والدين في المقام الأول.
الاستقطاب المجتمعيويرى الخبراء الذين شملهم التقرير أن خطر المعلومات الخاطئة والمضللة يرتبط بشكل وثيق مع خطر الاستقطاب المجتمعي الذي يظهر في القائمة أيضا، مع إمكانية أكبر لتضخيم بعضمها البعض.
والواقع أن المجتمعات المستقطبة أكثر ميلا إلى الثقة بالمعلومات التي تؤكد معتقداتها، سواء كانت هذه المعلومات صحيحة أو كاذبة.
ونظرا لعدم الثقة في الحكومة ووسائل الإعلام كمصادر للمعلومات الكاذبة، قد لا تكون هناك حاجة للمحتوى الذي تم التلاعب به، فمجرد إثارة سؤال حول ما إذا كان قد تم تلفيقه قد يكون كافيا لتحقيق الأهداف ذات الصلة. ومن ثم يزرع هذا بذور مزيد من الاستقطاب في المجتمع.
ويقول التقرير إن المعلومات الكاذبة لا تستخدم كمصدر للاضطراب المجتمعي فحسب، بل أيضا للسيطرة، من قبل الجهات الفاعلة المحلية سعيا لتحقيق أجندات سياسية.
وعلى الرغم من خطورة المعلومات الخاطئة والمضللة تنخفض في ترتيب المخاطر على المدى الطويل (2024-2034) إلى الدرجة الخامسة، إلا أنها تحافظ على البقاء ضمن المراكز العشرة الأولى للمخاطر المحتملة، والتي قد تهدد النظام العالمي خلال السنوات العشر المقبلة.
المصدر: الحرة
كلمات دلالية: المخاطر العالمیة الذکاء الاصطناعی على المدى القصیر على المدى الطویل
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.