كيف يهدد الذكاء الاصطناعي الانتخابات في 60 دولة؟
تاريخ النشر: 10th, April 2024 GMT
مع زيادة استخدام شبكات التزييف أدوات الذكاء الاصطناعي لخدمة مخططاتها الرامية إلى التضليل وتغيير الحقائق، كثف حقوقيون ونشطاء تحركاتهم للضغط على شركات التكنولوجيا الكبرى، لابتكار وسائل فعالة تكافح خطر الأكاذيب التي يغذيها الذكاء الاصطناعي على انتخابات مقررة في أكثر من 60 دولة حول العالم.
ودفعت أكثر من 200 مجموعة مدنية وحقوقية بمذكرة إلى عدد من شركات التكنولوجيا الكبرى، مثل "غوغل" و"ميتا" و"أكس"، تدعو فيها إلى تبني "سياسات أكثر هجومية" يمكن أن توقف موجة الدعاية السياسية المضللة، وإلى زيادة التصدي لشبكات التضليل، بحسب صحيفة واشنطن بوست الأميركية.
ونقلت الصحيفة عن نورا بينافيديز، كبيرة المستشارين في مجموعة الحقوق الرقمية "فري برس"، قولها، إن "هذا العام سيشهد انتخابات عدة حول العالم، وتعد منصات التواصل الاجتماعي إحدى أهم طرق نشر المعلومات، ولذلك تحتاج الشركات إلى زيادة إجراءات سلامة النظام الأساسي".
دعاية سياسيةطالبت المذكرة شركات التكنولوجيا بتعزيز سياساتها بشأن الإعلانات والدعاية السياسية، وشددت على ضرورة حظر التزييف العميق ووضع علامة على أي محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
وتطرقت الصحيفة إلى الشكاوى التي يبديها سياسيون وناشطون من أن التزييف والأكاذيب التي يغذيها الذكاء الاصطناعي تلاحقهم على الدوام.
وأشارت إلى أن المدافعين ظلوا يحذرون من أن ارتفاع المقاطع الصوتية ومقاطع الفيديو التي ينتجها الذكاء الاصطناعي، يؤدي بالفعل إلى ارتباك في الانتخابات في جميع أنحاء العالم.
وعلى سبيل المثال، رفض سياسيون أدلة يحتمل أن تكون دامغة بنظر بعض مستخدمي التكنولوجيا، مثل مقاطع فيديو تظهرهم وهم ينتقدون خصومهم، إذ ثبت أن كثيرا من تلك النماذج والفيديوهات مزيفة بالذكاء الاصطناعي.
وبناءً على انتشار مثل هذه النماذج، يؤكد خبراء على أن "مخاطر الذكاء الاصطناعي يمكن أن تؤدي إلى ضرر حقيقي في الديمقراطيات المتقلبة سياسيا".
تحركات احترازيةبدورها، تشير شركات تكنولوجيا مثل "ميتا" و"غوغل"، إلى أنها تعمل على إنشاء أنظمة لتحديد المحتوى الناتج عن الذكاء الاصطناعي، باستخدام مجموعة من الوسائل مثل العلامة المائية.
وفي الأسبوع الماضي، قالت "ميتا" إنها "ستوسع سياسة وضع العلامات الخاصة بالذكاء الاصطناعي، ليتم تطبيقها على نطاق أوسع من الفيديو والصوت والصور".
وفي المقابل، استعبد خبراء أن تتمكن شركات التكنولوجيا، من اكتشاف كل المحتوى المضلل الناتج عن الذكاء الاصطناعي في شبكاتها، أو إصلاح الخوارزميات الأساسية التي تجعل بعض هذه المنشورات تنتشر على نطاق واسع في المقام الأول.
وبحسب الصحيفة ذاتها، انتقدت المذكرة شركات التكنولوجيا "لإضعافها السياسات والأنظمة التي تهدف إلى مكافحة المعلومات السياسية المضللة على مدى العامين الماضيين"، ودعتها إلى أن تكون أكثر شفافية بشأن البيانات التي تدعم نماذج الذكاء الاصطناعي الخاصة بها.
وعلى سبيل المثال، تساهلت شركة "أكس" في تطبيق بعض قواعدها ضد المعلومات المضللة، وسمحت للمتشددين اليمينيين بالعودة إلى المنصة.
وتشير الصحيفة إلى أن "ميتا" تقدم للمستخدمين خيار إلغاء الاشتراك في برنامج التحقق من الحقائق الخاص بالشركة، وقالت إن "ذلك يسمح للمشاركات المفضوحة باكتساب المزيد من الاهتمام في خلاصات الأخبار".
في المقابل، تراجع موقع يوتيوب عن سياسة تحظر مقاطع الفيديو التي تروج بشكل خاطئ لفكرة أن انتخابات العام 2020 سُرقت من الرئيس الأميركي السابق، دونالد ترامب، بينما بدأت "ميتا" في السماح بمثل هذه الادعاءات في الإعلانات والدعاية السياسية.
ونقلت الصحيفة عن فرانسيس هاوغين، من شركة ميتا، قولها: "إن الأمر ليس خارج نطاق الاستحالة، وسنرى المزيد من المعلومات الخاطئة المقنعة في شكل التزييف العميق".
وأضافت "حتى لو لم نكن على استعداد لتصديق أن العنف يمكن أن يحدث في الولايات المتحدة على نطاق واسع، فإن البلدان ذات الديمقراطيات الأكثر هشاشة معرضة بنفس القدر لكل هذه التلاعبات".
ولفت عدد من النشطاء إلى أنه "إذا لم تكثف شركات التكنولوجيا جهودها، فإن الدعاية الخطيرة على وسائل التواصل الاجتماعي يمكن أن تؤدي إلى التشدد والتطرف أو العنف السياسي".
المصدر: الحرة
كلمات دلالية: شرکات التکنولوجیا الذکاء الاصطناعی یمکن أن إلى أن
إقرأ أيضاً:
تحوّل مثير.. ميتا تسمح باستخدام ذكائها الاصطناعي لأغراض عسكرية أمريكية
أعلنت شركة ميتا أنها ستسمح للحكومة الأمريكية ووكالاتها والشركات المتعاقدة معها في مجال الأمن القومي باستخدام نماذج الذكاء الاصطناعي الخاصة بها لأغراض عسكرية، وذلك في تغيير لسياستها التي كانت تمنع استخدام تقنياتها لهذه الأغراض.
وأوضحت ميتا أن نماذج الذكاء الاصطناعي الخاصة بها، التي تطلق عليها اسم “لاما Llama”، ستكون متاحة للوكالات الفيدرالية، بالإضافة إلى شركات أخرى متعاقدة في مجال الدفاع، مثل “لوكهيد مارتن” و”بوز آلن”، وشركات تكنولوجيا دفاعية مثل “بالانتير” و”أندريل”.
وتُعد هذه النماذج “مفتوحة المصدر”، مما يعني إمكانية نسخها وتوزيعها بحرية من مطورين آخرين أو شركات أو حكومات.
ويمثل هذا التحول استثناءً من سياسة “الاستخدام المقبول” لدى ميتا، التي كانت تمنع استخدام برامجها في الأغراض العسكرية والحربية والصناعات النووية.
وقال نيك كليغ، رئيس الشؤون العالمية في ميتا، إن الشركة تدعم الآن “الاستخدامات المسؤولة والأخلاقية لنماذج الشركة لدعم الولايات المتحدة والقيم الديمقراطية في السباق العالمي نحو التفوق في الذكاء الاصطناعي”، على حد تعبيره.
وأشار كليغ إلى أن “ميتا تريد المساهمة في تعزيز الأمن والازدهار الاقتصادي للولايات المتحدة وأقرب حلفائها”، مؤكدًا أن “الانتشار الواسع لنماذج الذكاء الاصطناعي الأمريكية المفتوحة المصدر يخدم المصالح الاقتصادية والأمنية”.
وأعربت الشركة عن إمكانية استخدام الحكومة الأمريكية تقنياتها لتعقب الأنشطة الإرهابية وتحسين الأمن السيبراني، مؤكدةً أن استخدام نماذج الذكاء الاصطناعي الخاصة بها سيُسهم في إبقاء الولايات المتحدة في الطليعة التقنية عالميًا، ويدعم مصالحها الإستراتيجية والجيوسياسية.
وأوضح متحدث باسم ميتا أن الشركة ستشارك تقنياتها مع الدول الحلفاء للولايات المتحدة، مثل كندا وبريطانيا وأستراليا ونيوزيلندا.
ومن المتوقع أن يواجه هذا التحول في سياسة ميتا انتقادات واسعة، إذ أثار توظيف التكنولوجيا لغايات عسكرية جدلًا في كبرى الشركات التقنية في السنوات الأخيرة، وبرزت احتجاجات لموظفي شركات، مثل مايكروسوفت وجوجل وأمازون، على صفقات أُبرمت مع جهات عسكرية، ومنها مشروع نيمبوس ذو السمعة السيئة الذي يربط شركتي جوجل وأمازون بالحكومة الإسرائيلية.
ويأتي هذا التطور بعد أن أفادت وكالات أنباء بأن بعض المؤسسات البارزة المرتبطة بالجيش الصيني قد طوّرت أدوات ذكاء اصطناعي لأغراض عسكرية محتملة، معتمدةً على نماذج ميتا المفتوحة المصدر