تقرير يكشف ما تفعله الصين للتأثير على الانتخابات الأميركية
تاريخ النشر: 5th, April 2024 GMT
تستفيد الصين بشكل متزايد من الذكاء الاصطناعي في عملياتها لاستهداف الناخبين في الولايات المتحدة الأميركية ونشر المعلومات المضللة عن السياسات الأميركية.
وتنقل صحيفة "وول ستريت جورنال" أن جهات مرتبطة بالحكومة الصينية تستعمل الذكاء الاصطناعي لنشر المعلومات المضللة لاستهداف الناخبين في الولايات المتحدة وتايوان وأماكن أخرى، وفقا لأبحاث الأمن السيبراني والمسؤولين الأميركيين.
وقامت الحملات المرتبطة بالصين بنشر المعلومات الكاذبة من خلال حسابات مزيفة على منصات وسائل التواصل الاجتماعي، سعيا إلى تحديد القضايا السياسية الداخلية المثيرة للانقسام وربما التأثير على الانتخابات.
التكتيكات التي تم تحديدها في تقرير جديد للتهديد السيبراني نشرته مايكروسوفت الجمعة هي من بين التكتيكات الأولى التي تم الكشف عنها والتي تربط بشكل مباشر استخدام أدوات الذكاء الاصطناعي التوليدية بعملية تأثير سرية عبر الإنترنت ترعاها الدولة ضد الناخبين الأجانب.
بدأت الحسابات على "إكس" في النشر العام الماضي حول موضوعات تشمل تعاطي المخدرات في الولايات المتحدة وسياسات الهجرة والتوترات العرقية، وفي بعض الحالات طلبت من المتابعين مشاركة الآراء حول المرشحين الرئاسيين، في خطوة لتكوين فكرة حول الآراء السياسية للناخبين الأميركيين.
وفي الخريف الماضي، اتهمت وزارة الخارجية الأميركية الحكومة الصينية بإنفاق مليارات الدولارات سنويا على حملة عالمية من المعلومات المضللة، واستخدام الاستثمارات في الخارج ومجموعة من التكتيكات لتعزيز أهداف بكين الجيوسياسية وخنق الانتقادات لسياساتها.
وقال توم بيرت، رئيس أمن العملاء والثقة في مايكروسوفت، إن عمليات التضليل في الصين أصبحت أكثر نشاطا في الأشهر الستة الماضية، مما يعكس النشاط المتزايد للهجمات الإلكترونية المرتبطة بها.
وقالت مايكروسوفت إنها اكتشفت استعمال موجة من أدوات الذكاء الاصطناعي الأكثر تطورا في الانتخابات الرئاسية في يناير في تايوان ، بما في ذلك مقطع صوتي مزيف تم إنشاؤه لمرشح رئاسي سابق يؤيد أحد المرشحين المتبقين.
كانت هذه هي المرة الأولى التي يرى فيها باحثو عملاق التكنولوجيا جهة فاعلة في دولة ما تستخدم الذكاء الاصطناعي لمحاولة التأثير على انتخابات أجنبية.
وقال تقرير سنوي عن التهديدات العالمية صادر عن مجتمع الاستخبارات الأميركي صدر مؤخرا، إن مشغلي الحكومة الصينية "زادوا من قدراتهم على القيام بعمليات تأثير سرية ونشر معلومات مضللة". وأضاف"حتى لو وضعت بكين قيودا على هذه الأنشطة، فإن الأفراد الذين لا يخضعون لإشرافها المباشر قد يحاولون التأثير على الأنشطة الانتخابية التي يرون أنها تتماشى مع أهداف بكين".
وقال التقرير أيضا إن الصين "تجرب الذكاء الاصطناعي التوليدي" وتكثف الجهود لتشكيل الخطاب الأميركي بشأن قضايا من بينها هونغ كونغ وتايوان.
وأكدت بكين مرارا إنها تعارض إنتاج ونشر المعلومات الكاذبة وأن وسائل التواصل الاجتماعي الأميركية غارقة في المعلومات المضللة عن الصين.
وتقرير مايكروسوفت هو الأحدث من بين عدة مجموعات مختلفة من الأبحاث المنشورة التي تسلط الضوء على عمليات التضليل المرتبطة ببكين.
وحدد تقرير جديد صادر عن معهد الحوار الاستراتيجي، وهو منظمة بحثية مقرها لندن، عددا صغيرا من الحسابات على "إكس" قال إنها مرتبطة بالصين تنتحل شخصيات مؤيدي الرئيس السابق دونالد ترامب وتحاول تشويه سمعة الرئيس بايدن، وفق الصحيفة.
المصدر: الحرة
كلمات دلالية: المعلومات المضللة الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.