تقرير يكشف أخطارا تهدد العالم.. المعلومات المضللة أبرزها
تاريخ النشر: 17th, January 2024 GMT
يهيمن الاستقطاب على النظام العالمي الذي يعاني من التوترات والأعمال العدائية المنتشرة، وتآكل الثقة وانعدام الأمن، وفق أحدث تقرير للمنتدى الاقتصادي العالمي في دافوس.
التقرير حذر من أن هذا الوضع يترك مجالا واسعا لتسريع المخاطر، منها انتشار المعلومات الخاطئة والمضللة في مجتمعات أضعفت سياسيا واقتصاديا في السنوات الأخيرة.
صمم التقرير على شكل دراسة موسعة تعطي تصورا للمخاطر العالمية اعتمادا على رؤى رائدة من 1490 خبيرا في الأوساط الأكاديمية وقطاع الأعمال والحكومة والمجتمع الدولي والمجتمع المدني.
وقبل استعراض النتائج، يقدم التقرير تعريفا دقيقا لمصطلح "المخاطر العالمية"، وهو "احتمال وقوع حدث أو ظرف من شأنه، في حال حدوثه، أن يؤثر سلبا على نسبة كبيرة من الناتج المحلي الإجمالي العالمي، السكان أو الموارد الطبيعية".
يقول التقرير إن الذكاء الاصطناعي يساهم في نشر المعلومات الخاطئة والمضللة والتأثير على العقولقائمة المخاطرويقدم التقرير توقعات لمشهد المخاطر والتأثير المحتمل على مستويين: الأول على المدى القصير، أي خلال سنة 2024. والثاني على المدى الطويل، أي خلال السنوات العشر المقبلة 2024-2034.
واحتلت المعلومات الخاطئة والمضللة المرتبة الأولى في قائمة المخاطر العالمية على المدى القصير، والخامسة على المدى الطويل، وهذا يشير إلى التحدي الذي يواجهه العالم في هذا الشأن.
وفي قائمة المخاطر العالمية على المدى القصير، جاءت مشكلة التقلبات الجوية والمناخ المتطرف في المرتبة الثانية، تلاها الاستقطاب المجتمعي، وانعدام الأمن السيبراني، والصراع المسلح بين الدول، وقلة الفرص الاقتصادية، والتضخم، والهجرة غير الطوعية، والانكماش الاقتصادي، والتلوث.
ساهمت التكنولوجيا والإنترنت بتعقيد إمكانية السيطرة على خطر المعلومات الخاطئة والمضللةواحتلت مشكلة التقلبات الجوية والمناخ المتطرف المرتبة الأولى في قائمة المخاطر العالمية على المدى الطويل، تلاها التغير في أنظمة الأرض، وفقدان التنوع البيولوجي وانهيار النظام البيئي، ونقص الموارد الطبيعية، والمعلومات الخاطئة والمضللة، والنتائج السلبية لتقنيات الذكاء الاصطناعي، والهجرة غير الطوعية، وانعدام الأمن السيبراني، والاستقطاب المجتمعي، والتلوث.
ويقول التقرير إن المعلومات الخاطئة والمضللة تنتشر بشكل متعمد أو عن غير قصد على نطاق واسع عبر شبكات الإعلام، مما يؤدي إلى تحويل الرأي العام بطريقة كبيرة نحو عدم الثقة في الحقائق والسلطة.
أخطار على المدى القصيرفي 2023-2024، تتفوق مخاطر المعلومات الخاطئة والمضللة على المشكلات الأخرى التي تتسبب في الاستقطاب العالمي، وفق التقرير.
وهناك جهات محلية وأجنبية ستستفيد من المعلومات الخاطئة والمعلومات المضللة لزيادة توسيع الانقسامات المجتمعية والسياسية، وفق ننتائج التقرير.
ويتوقع التقرير أن يتوجه ما يقرب من ثلاثة مليارات شخص إلى صناديق الاقتراع في العديد من الاقتصادات، بما فيها بنغلاديش والهند وإندونيسيا والمكسيك وباكستان والمملكة المتحدة والولايات المتحدة، على مدى العامين المقبلين، وهؤلاء مهددون بمخاطر انتشار المعلومات الخاطئة والمضللة.
ويحذر التقرير من أن الاستخدام الواسع النطاق للمعلومات الخاطئة والمضللة والأدوات اللازمة لنشرها، سيقوض شرعية الحكومات المنتخبة حديثا.
يقول خبراء إن هناك صعوبة في تحديد الفرق بين المحتوى الحقيقي والمزيف عبر وسائل التواصل الاجتماعيسيطرة الحكومات على الحرياتويمكن أن تتراوح الاضطرابات الناتجة عن انتشار المعلومات الخاطئة والمضللة من الاحتجاجات العنيفة وجرائم الكراهية إلى المواجهة المدنية والإرهاب.
وبعيدا عن الانتخابات، من المرجح أيضا أن تصبح تصورات الواقع أكثر استقطابا، فتتسلل إلى الخطاب العام حول قضايا تتراوح بين الصحة العامة والعدالة الاجتماعية.
ومع تقويض الحقيقة، يقول التقرير إن خطر الدعاية والرقابة المحلية سيرتفع ردا على المعلومات الخاطئة والمضللة.
هذا الأمر سيؤدي غالبا إلى لجوء الحكومات إلى السيطرة على المعلومات بناء على ما تعتبره "صحيحا".
تجد شركات التكنولوجيا صعوبة في محاربة المعلومات الخاطئة والمضللة على منصات التواصل الاجتماعيويقول التقرير إن الحريات المتعلقة بالإنترنت والصحافة والوصول إلى مصادر أوسع للمعلومات، والتي هي بالفعل في تراجع، مهددة بالانحدار إلى قمع أوسع لتدفق المعلومات الضارة عبر مجموعة واسعة من البلدان.
التكنولوجياوقد أدت التطورات التكنولوجية الحديثة إلى زيادة حجم المعلومات المزورة ومدى انتشارها وفعاليتها، مع زيادة صعوبة تتبع التدفقات وتحديد نسبها والتحكم فيها.
ومن المرجح، وفق التقرير، أن تنهار قدرة شركات وسائل التواصل الاجتماعي على ضمان سلامة المنصات من خطر المعلومات الخاطئة والمضللة.
وتشكل المعلومات الخاطئة والمضللة الناتجة عن الذكاء الاصطناعي ما نسبته 53 بالمئة، فيما يتسبب الاستقطاب المجتمعي أو السياسي بنحو 46 بالمئة، وفق التقرير.
ولا تزال العديد من البلدان تكافح من أجل استعادة سنوات التقدم الضائعة التي نشأت عن جائحة كوفيد-19، مما خلق أرضا خصبة لنشوء المعلومات الخاطئة والمضللة واستقطاب المجتمعات والمجتمعات والبلدان.
الذكاء الاصطناعيولن يكون تحديد المعلومات الخاطئة والمضللة الناتجة عن الذكاء الاصطناعي سهلا.
وقد أصبح تمييز الفرق بين الذكاء الاصطناعي والمحتوى الذي ينتجه الإنسان أكثر صعوبة، ليس فقط بالنسبة للأفراد المتعلمين رقميا، ولكن أيضا بالنسبة لآليات الكشف عن المعلومات الضارة، وفق نتائج التقرير.
على سبيل المثال، يمكن لفيديو أنتج بواسطة الذكاء الاصطناعي أن يؤثر على الناخبين ويغذي الاحتجاجات، أو في سيناريوهات أكثر تطرفا، قد يؤدي إلى العنف أو التطرف، حتى لو كان يحمل تحذيرا من قبل المنصة التي تمت مشاركته عليها بأنه محتوى ملفق.
ويمكن أن تكون الآثار المترتبة على الحملات التلاعبية التي تنشر المعلومات الخاطئة والمضللة عميقة وتهدد العمليات الديمقراطية.
صراعات وخطر على الاقتصادوإذا تم التشكيك في شرعية الانتخابات، بسبب المعلومات الخاطئة والمضللة، فإن المواجهة المدنية تصبح محتملة، بل وربما تمتد إلى صراعات داخلية وإلى الإرهاب، وانهيار الدولة في الحالات الأكثر تطرفا، يقول التقرير.
كما أن المعلومات الخاطئة والمضللة تشكل خطرا على التجارة العالمية والأسواق المالية
ويمكن أن تؤدي الحملات المدعومة من الدولة إلى تدهور العلاقات بين الدول، عن طريق تعزيز أنظمة العقوبات، وعمليات الجرائم السيبرانية مع مخاطر الانتشار ذات الصلة، واحتجاز الأفراد، بما في ذلك الاستهداف على أساس الجنسية والعرق والدين في المقام الأول.
الاستقطاب المجتمعيويرى الخبراء الذين شملهم التقرير أن خطر المعلومات الخاطئة والمضللة يرتبط بشكل وثيق مع خطر الاستقطاب المجتمعي الذي يظهر في القائمة أيضا، مع إمكانية أكبر لتضخيم بعضمها البعض.
والواقع أن المجتمعات المستقطبة أكثر ميلا إلى الثقة بالمعلومات التي تؤكد معتقداتها، سواء كانت هذه المعلومات صحيحة أو كاذبة.
ونظرا لعدم الثقة في الحكومة ووسائل الإعلام كمصادر للمعلومات الكاذبة، قد لا تكون هناك حاجة للمحتوى الذي تم التلاعب به، فمجرد إثارة سؤال حول ما إذا كان قد تم تلفيقه قد يكون كافيا لتحقيق الأهداف ذات الصلة. ومن ثم يزرع هذا بذور مزيد من الاستقطاب في المجتمع.
ويقول التقرير إن المعلومات الكاذبة لا تستخدم كمصدر للاضطراب المجتمعي فحسب، بل أيضا للسيطرة، من قبل الجهات الفاعلة المحلية سعيا لتحقيق أجندات سياسية.
وعلى الرغم من خطورة المعلومات الخاطئة والمضللة تنخفض في ترتيب المخاطر على المدى الطويل (2024-2034) إلى الدرجة الخامسة، إلا أنها تحافظ على البقاء ضمن المراكز العشرة الأولى للمخاطر المحتملة، والتي قد تهدد النظام العالمي خلال السنوات العشر المقبلة.
المصدر: الحرة
كلمات دلالية: المخاطر العالمیة الذکاء الاصطناعی على المدى القصیر على المدى الطویل
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.