في كتابه "حروب المعلومات: كيف خسرنا المعركة العالمية ضد المعلومات المضللة وما يمكننا فعله حيال ذلك"، الصادر في أكتوبر من العام 2019، يعرض الصحفي والسياسي الأمريكي ريتشارد ستينجل تجربته الواسعة في محاربة الشائعات والمعلومات المضللة، عندما كان في الخطوط الأمامية لمواجهة التهديدات المعلوماتية التي تشكلها دول وتنظيمات مُعادية للولايات المتحدة.

يسلط الكتاب الضوء على تأثير الشائعات في العالم الرقمي، ويقدم نظرة نقدية تقييمية للجهود الأمريكية في مواجهة حروب التضليل المعلوماتي، ويقترح حلولًا ملموسة لمكافحة هذا الخطر المتزايد، من بينها الاستثمار في تكنولوجيا الذكاء الاصطناعي.

ريتشارد ستينجل، الصحفي والدبلوماسي الأمريكي، شغل منصب رئيس تحرير مجلة "تايم" قبل انضمامه إلى الحكومة الأمريكية وكيلًا لوزارة الخارجية للدبلوماسية والشؤون العامة في إدارة الرئيس السابق باراك أوباما (2013-2016). خلال تلك الفترة، كان مسؤولًا عن جهود مكافحة حملات التضليل الإعلامي التي تهدد بلاده. ومنحته تجربته كصحفي ومسؤول حكومي فهمًا عميقًا للطرق التي يتم بها استغلال المعلومات كسلاح في الحروب الحديثة.

بعد استعراض دقيق في الأجزاء الأولى من الكتاب لتفاصيل العمل اليومي داخل وزارة الخارجية الأمريكية، ينتقل الكاتب إلى استعراض حملات التضليل المعلوماتي، التي بدأت في العام 2014، وأعقبها تسونامي من الحملات التي استهدفت الولايات المتحدة. ويتتبع الكاتب، من خلال سرده للأحداث، أهم مراحل وتشابكات صناعة التضليل المعلوماتي، التي قد تبدأ باختلاق الأكاذيب والسرديات المُقنعة، وتكرارها مرارًا لخلق حالة دائمة من التشكيك، يمكن أن تؤدي إلى اندلاع المظاهرات والاضطرابات السياسية.

في عصر الإنترنت ووسائل التواصل الاجتماعي، باتت المعلومات المضللة تنتشر بسرعة غير مسبوقة. ويوضح ستينجل أن تقنيات التدقيق اليدوي للأخبار أو الاعتماد على الفحص البشري لم تعد فعالة بما يكفي، لذلك يدعو إلى تبني الذكاء الاصطناعي AI) )كأداة حيوية لكشف ومكافحة الشائعات.

أحد الحلول الرئيسية التي يقترحها ستينجل في كتابه "Information Wars: How We Lost the Global Battle Against Disinformation and What We Can Do About It" هو استخدام الذكاء الاصطناعي لكشف الشائعات في الوقت الفعلي. ويعتمد ذلك على تقنيات معالجة اللغة الطبيعية، التي تساعد في تحليل النصوص الرقمية بسرعة كبيرة واكتشاف الأنماط المشبوهة. هذا النوع من التحليل يمكنه تحديد سياق المحتوى المتداول على الإنترنت، مما يسهل التفريق بين الأخبار الصحيحة والمعلومات المضللة.

الذكاء الاصطناعي يستطيع تحليل كميات هائلة من البيانات في وقت قصير، بما في ذلك النصوص، والصور، والفيديوهات، وبالتالي يمكنه التعرف على الشائعات منذ لحظة انتشارها الأولى. هذا يعزز قدرة الحكومات والشركات التقنية على التدخل بشكل فوري قبل أن تخرج الأمور عن السيطرة.

ريتشارد ستينجل

من الحلول التي يشير إليها ستينجل "تعديل خوارزميات وسائل التواصل الاجتماعي لتعزيز قدرتها على الكشف عن الشائعات والحد من انتشارها"، لأن المنصات تعتمد بشكل كبير على التفاعلات والمشاركات لزيادة انتشار المحتوى، وهذا يسمح للمعلومات المضللة بالوصول إلى جمهور واسع في وقت قياسي.

يقترح ستينجل تغيير خوارزميات العرض بحيث تعطي الأولوية للمحتوى القادم من مصادر موثوقة ومعروفة. على سبيل المثال، يمكن أن تُمنح المؤسسات الإخبارية المعروفة أولوية أكبر في الظهور مقارنة بالمصادر غير المعروفة أو المشبوهة. هذا التعديل في الخوارزميات يمكن أن يحد من انتشار الشائعات بسرعة، ويسهم في تقديم معلومات أكثر دقة وموثوقية للجمهور.

ومن خلال تحليل المحتوى المتداول عبر منصات التواصل، يمكن للذكاء الاصطناعي التنبؤ بالشائعات أو الأزمات قبل حدوثها. ويتحدث ستينجل عن أهمية التنبؤ بالمخاطر، حيث يمكن للذكاء الاصطناعي مراقبة المحتوى المتزايد حول موضوع معين، وتحليل نوعية التفاعلات التي تحدث حول هذا المحتوى. إذا كانت هناك زيادة كبيرة في المشاركات المتعلقة بشائعة معينة، ويمكن للنظام التنبؤ بأن هذه الشائعة قد تتحول إلى أزمة إذا لم يتم التعامل معها بسرعة.

على سبيل المثال، إذا بدأت شائعة كاذبة تنتشر حول قضية سياسية حساسة، يمكن للنظام التنبؤ بمدى تأثيرها استنادًا إلى البيانات المتاحة وتحليل المحتوى المتداول. هذا التنبؤ يمكن أن يمنح الحكومات أو الشركات التقنية فرصة التدخل المبكر لإيقاف انتشار الشائعة قبل أن تؤدي إلى أزمات متلاحقة.

تستخدم العديد من التنظيمات الإرهابية التي تنشر المعلومات المضللة الحسابات المزيفة والبرامج الآلية لنشر محتوى معين بكثافة عبر شبكات التواصل الاجتماعي، مما يعطي انطباعًا زائفًا بأن هذا المحتوى يحظى بشعبية كبيرة. ويقترح ستينجل استخدام الذكاء الاصطناعي لتحليل سلوك المستخدمين واكتشاف الأنماط التي تشير إلى وجود حسابات مزيفة أو روبوتات. على سبيل المثال، يمكن للنظام ملاحظة أن حسابًا معينًا يشارك نفس الرسالة مئات المرات خلال فترة قصيرة، وهو سلوك غير طبيعي بالنسبة للمستخدمين البشريين. باستخدام هذه البيانات، يمكن للمنصات إزالة الحسابات المشبوهة وتقليل انتشار الشائعات.

يشدد ستينجل، أيضًا، على ضرورة التعاون بين الحكومات والشركات التقنية لضمان استثمار أكبر في الذكاء الاصطناعي لمكافحة الشائعات. ومن دون شراكة بين القطاعين العام والخاص، سيكون من الصعب مواجهة هذا التحدي العالمي. يمكن للحكومات تقديم الدعم المالي والتشريعي، بينما تتولى الشركات التقنية تطوير الأنظمة والبرمجيات المتقدمة.

إلى جانب الحلول التقنية، يؤكد ستينجل أهمية تثقيف الجمهور وتعليمهم كيفية التمييز بين المعلومات الصحيحة والشائعات. الذكاء الاصطناعي يمكن أن يكون فعالًا، لكنه لا يستطيع وحده حل المشكلة. لذلك، من الضروري أن يكون هناك وعي مجتمعي كافٍ حول كيفية التحقق من الأخبار والمعلومات، خاصة تلك المنتشرة على وسائل التواصل الاجتماعي.

ويُعتبر كتاب "Information Wars" " من أهم الكتب التي قدمت رؤية عميقة لمستقبل الحروب المعلوماتية في عصر الرقمنة، مع تركيز واضح على الدور الحاسم الذي يمكن أن يلعبه الذكاء الاصطناعي في مكافحة الشائعات والمعلومات المضللة. وفي النهاية، يبقى الحل الأساسي هو مزيج من التكنولوجيا والتعليم ونشر الوعي لمواجهة حروب التضليل المعلوماتي.

المصدر: الأسبوع

كلمات دلالية: التواصل الاجتماعی المعلومات المضللة الذکاء الاصطناعی یمکن أن

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • الصدر يعلق على استخدام الذكاء الاصطناعي
  • اتحاد الشركات يستعرض «تأمين حماية الأسرة» ودوره في مواجهة المخاطر
  • الذكاء الاصطناعي يفك لغزاً علمياً استعصى على العلماء لعقد كامل
  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر