الحرب الرقمية وأزمة الوعي المجتمعي
تاريخ النشر: 13th, April 2024 GMT
سبق أن تحدثنا في مقالات سابقة عن بعض مستجدات الأنظمة الرقمية التي تُستعمل في الحروب المباشرة وغير المباشرة مثل بعض نماذج الذكاء الاصطناعي التي تعمل على التزييف المرئي والسمعي عبر صناعة مقاطع مرئية أو سمعية غير حقيقية لشخصيات مشهورة خصوصا في نطاق السياسة، وثمّة خوارزميات ذكية تحلّ محل المؤسسات الأمنية في مراقبة الأفراد والمجتمعات عبر جمع البيانات الشخصية والعامة من وسائل التواصل الاجتماعي وتحليلها للخروج بنتائج تخدم الأهداف السياسية والأمنية والعسكرية والاقتصادية، وكذلك عبر المراقبة المرئية وتحليل الصور من وجوه الأشخاص الذي يدخل في بعض حالاته في نطاق الحماية الأمنية المشروعة وفي نطاقات أخرى يتجاوز الأمر إلى اختراق الخصوصيات وحريات الأفراد والمجتمعات.
أظهرت لنا حرب غزة الحالية التي طال أمد طغيان الكيان الصهيوني فيها دورَ الأنظمة الرقمية في مضاعفة محن هذه الحرب؛ إذ تُظهر كثير من التقارير الإعلامية -مثل الذي عرضته قناة الجزيرة وصحف غربية- عن دور خوارزميات الذكاء الاصطناعي في حرب غزة من حيث استعمالاتها من قبل الوحدة الاستخباراتية الإسرائيلية «8200» -وحدة أمنية استخباراتية تابعة للكيان الصهيوني تختص في استخبارات الإشارات وفك التشفير، وتعمل على التجسس الرقمي وعمليات الأمن السيبراني، وجمع المعلومات الاستخباراتية وتحليل البيانات، ووُجّه كثيرٌ من منتسبيها إلى تأسيس شركات ناشئة في مجال التكنولوجيا والأمن السيبراني التي تتعاقد معها -لاحقا- وحدات الأمن الإسرائيلي في مراقبة الفلسطينيين وتحليل بياناتهم المتعددة مثل المرئية والصوتية التي تجمعها عبر طائرتها المسيّرة التي تحلّق دون توقف على سماء غزة؛ فتجمع بيانات ضخمة تتولى الخوارزميات الذكية تحليلها وبناء توصيات ترشد آلات القتل الصهيونية في تحديد أهدافها، وكذلك تواطؤ شركة جوجل في توفيرها لتقنيات ذكاء اصطناعي خاصة في تحديد الوجوه وتحليلها التي استعملها جيش الاحتلال الإسرائيلي في حرب غزة لقتل فلسطينيين واعتقالهم وتعذيبهم بناءً على توصيات نماذج الذكاء الاصطناعي.
في نطاق خارج ميدان الحرب المباشرة، يُلحظ أيضا دور هذه الخوارزميات في مراقبة آراء مستخدمي وسائل التواصل الاجتماعي مثل منصات «فيسبوك» و«إكس» و«إنستجرام» خصوصا المتعلقة بالقضية الفلسطينية وحرب غزة، وقيام هذه الخوارزميات بتحليل هذه الآراء وفقا لمصادرها الجغرافية وتوجهاتها السياسية والدينية والاجتماعية والثقافية والفئات العمرية، وبناءً على هذه المعلومات تتوجه نماذج الذكاء الاصطناعي في تحديد بعض التوصيات والإرشادات للمؤسسات الأمنية التي تنتهج عدّة أساليب منها تزييف الأحداث والحقائق ونشرها عبر وسائل التواصل الاجتماعي، والمشاركة في تقييد حرية التعبير عبر حظر بعض الكلمات والمصطلحات المعنية بدعم القضية الفلسطينية، وعبر محاصرة بعض الحسابات النشطة بواسطة البلاغات أو الحظر المباشر للحسابات، ويكون ذلك في أغلب الحالات عن طريق التعاون مع الشركات المالكة للمنصات مثل شركة جوجل كما أوردنا ذلك آنفا. انخرطت كذلك الوحدة الصهيونية «8200» بشكل ملحوظ -بناء على نتائج تحليلات خوارزميات الذكاء الاصطناعي- في اتباع السياسة الإنجليزية «فَرّقْ تَسُدْ» عن طريق إنشاء حسابات -معظمها وهمية- في منصات التواصل الاجتماعي والمشاركة بها وفقا لتوزيع جغرافي وثقافي محددَيْن؛ فتجد حسابات يحمل بعضها معرفات وصورا لشخصيات إما معروفة أو لوجوه مصطنعة عبر نماذج الذكاء الاصطناعي، وتعمل على المشاركة في هذه المنصات وفق منهجية محيّرة في بعض حالاتها؛ فتجدها حينا تتحدث في الشؤون السياسية والاجتماعية والاقتصادية الخاصة بدولة معيّنة سواء بالسلب أو الإيجاب، وتتفاعل مع المستخدمين في المجتمع حتى تنال حظوةً من الشهرة، وتراها حينا آخر تركّز على بث سموم الفرقة بين الدول والمجتمعات، وتصاعد دورها مؤخرًا ليشمل الدفاع المستميت -باسم دول وشعوب محددة- عن الكيان الصهيوني، وإظهار الحقد على الفلسطينيين ومقاومتهم وما يتصل بها، ويأتي كل هذا في فترة غفلة من المجتمع الرقمي -الذي سبق أن نبهنا بالمخاطر الرقمية التي تحدق بها في مقالات سابقة- وجهله بأساليب الحروب الرقمية التي لم تعدْ مهماتها حكرا على البشر بل أوكلت المهمة أيضا إلى أنظمة الذكاء الاصطناعي وخوارزمياتها؛ لتنظيم عمل هذه الحسابات واستعمالها بشكل يصعب كشف زيفها، ولتُنجز الأهداف بدقة عالية وسرعة متناهية.
يقودنا ارتفاع درجات وعينا بهذه الحروب الرقمية بتعدد أساليبها إلى الدفع بالعمل على رفع مستويات أنظمتنا الدفاعية وتحديثها التي تبدأ بمضاعفة تنمية الوعي المجتمعي بالواقع الرقمي وفهم أنماط المجتمع الرقمي وسبل التحكم به وترويضه عبر المؤسسات الرقمية؛ إذ كنا نتداول -سابقا- مفهوم المجتمع التقليدي الذي يمكن التفاعل مع عالم أفكاره عبر مؤسسات الإعلام -وإن كان تأثيرها محدودا مقارنة بتأثير أدوات المجتمع الرقمي الحالي- ولكننا اليوم مع أزمة تمس الوعي الإنساني وتربك أفكاره واستقراره في الحياة، وهذا ما يستدعي توظيف وسائل الإعلام في ضخ جرعات عالية من الوعي فيما يخص الثقافة الرقمية ومشروعاتها المتصاعدة، ويأتي كذلك دور المؤسسات المعنية في تحديد أنظمة الدفاع الرقمية المناسبة لدحر أيّ هجوم رقمي مثل الذي عرضناه في الفقرات السابقة، ويكون ذلك عبر تطوير وسائل رقمية دفاعية مضادة مثل تسخير خوارزميات ذكاء اصطناعي قادرة على جمع البيانات وتحليلها وفرزها لتميز الخبيث من الطيب؛ ويمكن لخوارزميات الذكاء الاصطناعي أن تقوم بدورها الدفاعي المذكور، وأن تتفاعل مع أنظمة رقمية أخرى مثل الأنظمة المتعلقة بالحماية الرقمية؛ منها الأمن السيبراني والتشفير المتقدم المرتبط بالحوسبة الكوانتمية، وقد سبق مناقشة هذه التقنيات السيبرانية والكوانتمية في مقال نُشر في الملحق العلمي في جريدة عُمان.
المصدر: لجريدة عمان
كلمات دلالية: نماذج الذکاء الاصطناعی التواصل الاجتماعی فی تحدید
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.