الحرة:
2025-03-07@03:13:30 GMT

كيف يهدد الذكاء الاصطناعي الانتخابات في 60 دولة؟

تاريخ النشر: 10th, April 2024 GMT

كيف يهدد الذكاء الاصطناعي الانتخابات في 60 دولة؟

مع زيادة استخدام شبكات التزييف أدوات الذكاء الاصطناعي لخدمة مخططاتها الرامية إلى التضليل وتغيير الحقائق، كثف حقوقيون ونشطاء تحركاتهم للضغط على شركات التكنولوجيا الكبرى، لابتكار وسائل فعالة تكافح خطر الأكاذيب التي يغذيها الذكاء الاصطناعي على انتخابات مقررة في أكثر من 60 دولة حول العالم.

ودفعت أكثر من 200 مجموعة مدنية وحقوقية بمذكرة إلى عدد من شركات التكنولوجيا الكبرى، مثل "غوغل" و"ميتا" و"أكس"، تدعو فيها إلى تبني "سياسات أكثر هجومية" يمكن أن توقف موجة الدعاية السياسية المضللة، وإلى زيادة التصدي لشبكات التضليل، بحسب صحيفة واشنطن بوست الأميركية.

ونقلت الصحيفة عن نورا بينافيديز، كبيرة المستشارين في مجموعة الحقوق الرقمية "فري برس"، قولها، إن "هذا العام سيشهد انتخابات عدة حول العالم، وتعد منصات التواصل الاجتماعي إحدى أهم طرق نشر المعلومات، ولذلك تحتاج الشركات إلى زيادة إجراءات سلامة النظام الأساسي".

دعاية سياسية

طالبت المذكرة شركات التكنولوجيا بتعزيز سياساتها بشأن الإعلانات والدعاية السياسية، وشددت على ضرورة حظر التزييف العميق ووضع علامة على أي محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.

وتطرقت الصحيفة إلى الشكاوى التي يبديها سياسيون وناشطون من أن التزييف والأكاذيب التي يغذيها الذكاء الاصطناعي تلاحقهم على الدوام.

وأشارت إلى أن المدافعين ظلوا يحذرون من أن ارتفاع المقاطع الصوتية ومقاطع الفيديو التي ينتجها الذكاء الاصطناعي، يؤدي بالفعل إلى ارتباك في الانتخابات في جميع أنحاء العالم. 

وعلى سبيل المثال، رفض سياسيون أدلة يحتمل أن تكون دامغة بنظر بعض مستخدمي التكنولوجيا، مثل مقاطع فيديو تظهرهم وهم ينتقدون خصومهم، إذ ثبت أن كثيرا من تلك النماذج والفيديوهات مزيفة بالذكاء الاصطناعي.

وبناءً على انتشار مثل هذه النماذج، يؤكد خبراء على أن "مخاطر الذكاء الاصطناعي يمكن أن تؤدي إلى ضرر حقيقي في الديمقراطيات المتقلبة سياسيا".

تحركات احترازية

بدورها، تشير شركات تكنولوجيا مثل "ميتا" و"غوغل"، إلى أنها تعمل على إنشاء أنظمة لتحديد المحتوى الناتج عن الذكاء الاصطناعي، باستخدام مجموعة من الوسائل مثل العلامة المائية. 

وفي الأسبوع الماضي، قالت "ميتا" إنها "ستوسع سياسة وضع العلامات الخاصة بالذكاء الاصطناعي، ليتم تطبيقها على نطاق أوسع من الفيديو والصوت والصور".

وفي المقابل، استعبد خبراء أن تتمكن شركات التكنولوجيا، من اكتشاف كل المحتوى المضلل الناتج عن الذكاء الاصطناعي في شبكاتها، أو إصلاح الخوارزميات الأساسية التي تجعل بعض هذه المنشورات تنتشر على نطاق واسع في المقام الأول.

وبحسب الصحيفة ذاتها، انتقدت المذكرة شركات التكنولوجيا "لإضعافها السياسات والأنظمة التي تهدف إلى مكافحة المعلومات السياسية المضللة على مدى العامين الماضيين"، ودعتها إلى أن تكون أكثر شفافية بشأن البيانات التي تدعم نماذج الذكاء الاصطناعي الخاصة بها.

وعلى سبيل المثال، تساهلت شركة "أكس" في تطبيق بعض قواعدها ضد المعلومات المضللة، وسمحت للمتشددين اليمينيين بالعودة إلى المنصة. 

وتشير الصحيفة إلى أن "ميتا" تقدم للمستخدمين خيار إلغاء الاشتراك في برنامج التحقق من الحقائق الخاص بالشركة، وقالت إن "ذلك يسمح للمشاركات المفضوحة باكتساب المزيد من الاهتمام في خلاصات الأخبار". 

في المقابل، تراجع موقع يوتيوب عن سياسة تحظر مقاطع الفيديو التي تروج بشكل خاطئ لفكرة أن انتخابات العام 2020 سُرقت من الرئيس الأميركي السابق، دونالد ترامب، بينما بدأت "ميتا" في السماح بمثل هذه الادعاءات في الإعلانات والدعاية السياسية.

ونقلت الصحيفة عن فرانسيس هاوغين، من شركة ميتا، قولها: "إن الأمر ليس خارج نطاق الاستحالة، وسنرى المزيد من المعلومات الخاطئة المقنعة في شكل التزييف العميق". 

وأضافت "حتى لو لم نكن على استعداد لتصديق أن العنف يمكن أن يحدث في الولايات المتحدة على نطاق واسع، فإن البلدان ذات الديمقراطيات الأكثر هشاشة معرضة بنفس القدر لكل هذه التلاعبات".

ولفت عدد من النشطاء إلى أنه "إذا لم تكثف شركات التكنولوجيا جهودها، فإن الدعاية الخطيرة على وسائل التواصل الاجتماعي يمكن أن تؤدي إلى التشدد والتطرف أو العنف السياسي".

المصدر: الحرة

كلمات دلالية: شرکات التکنولوجیا الذکاء الاصطناعی یمکن أن إلى أن

إقرأ أيضاً:

كيف سيغير وكلاء الذكاء الاصطناعي هجمات سرقة بيانات الاعتماد

شهدت هجمات "تعبئة بيانات الاعتماد" تأثيرًا هائلًا في عام 2024، حيث أدت إلى دوامة مدمرة من عدوى برامج سرقة المعلومات وتسريبات البيانات.

 وفي ظل هذا المشهد الأمني المتوتر، قد تزداد الأمور سوءًا مع ظهور "الوكلاء الحاسوبيين" (Computer-Using Agents)، وهي فئة جديدة من وكلاء الذكاء الاصطناعي تُتيح أتمتة مهام الويب الشائعة بتكلفة وجهد منخفضين، بما في ذلك تلك التي يؤديها المهاجمون عادةً.

يدعم الذكاء الاصطناعي.. لينوفو تطلق لابتوب بإمكانات رائدة وسعر تنافسي%92 من الطلاب يستخدمونه.. الذكاء الاصطناعي يهدد جوهر التعليم الجامعيحجز المطاعم مجرد بداية.. هونر تكشف عن ذكاء اصطناعي لإدارة المهام اليوميةتأخير مرتقب في تطوير سيري الذكية .. تحديات تواجه الذكاء الاصطناعي في آبلالدماغ البشري يتفوّق على الذكاء الاصطناعي في حالات عدّةسرقات بيانات الاعتماد: السلاح الأساسي للمجرمين السيبرانيين

يُعد سرقة بيانات الاعتماد الإجراء الأول للمهاجمين في عام 2023/24، حيث شكلت هذه البيانات ثغرة استغلالية في 80% من هجمات تطبيقات الويب. 

ليس من المستغرب أن المليارات من بيانات الاعتماد المسروقة متداولة على الإنترنت، ويمكن للمهاجمين الحصول على آخر التسريبات مقابل مبلغ يبدأ من 10 دولارات على المنتديات الإجرامية.

وقد استفاد السوق الإجرامي من التسريبات الكبيرة التي شهدها عام 2024، مثل الهجمات التي استهدفت عملاء Snowflake، حيث تم استخدام بيانات الاعتماد المسربة من تفريغات التسريبات ومصادر بيانات مخترقة نتيجة حملات تصيد جماعي وعدوى ببرامج سرقة المعلومات، مما أدى إلى اختراق 165 مستأجرًا لعملاء الشركة وملايين السجلات المسربة.

أتمتة هجمات بيانات الاعتماد في عصر SaaS

لم تعد تقنيات التخمين العشوائي وتعبئة بيانات الاعتماد كما كانت في السابق؛ فقد تغيرت بنية تكنولوجيا المعلومات الحديثة لتصبح أكثر لامركزية مع ظهور مئات التطبيقات والخدمات عبر الإنترنت، وتوليد آلاف الهويات داخل كل مؤسسة. 

ولم تعد بيانات الاعتماد تُخزن حصريًا في أنظمة مثل Active Directory، بل باتت موزعة في أماكن متعددة على الإنترنت.

تواجه الأدوات التقليدية صعوبة في التعامل مع التعقيدات الجديدة لتطبيقات الويب الحديثة، التي تتميز بواجهات رسومية متطورة وحلول حماية مثل CAPTCHA والحد من معدلات الطلب، مما يستدعي تطوير أدوات مخصصة لكل تطبيق على حدة.

 وفي ظل وجود حوالي 15 مليار بيانات اعتماد مسربة متاحة، رغم أن الغالبية منها قديمة وغير صالحة، فإن هناك فرصة كبيرة للمهاجمين إذا تمكنوا من تحديد البيانات الفعّالة والاستفادة منها.

فرصة ضائعة للمهاجمين؟

رغم أن نسبة البيانات الاعتمادية الصالحة لا تتجاوز 1% في معظم مجموعات المعلومات، إلا أن ظاهرة إعادة استخدام كلمات المرور تتيح للمهاجمين استغلال بيانات اعتماد واحدة للوصول إلى حسابات متعددة في تطبيقات مختلفة. 

تخيل سيناريو يتم فيه استخدام بيانات اعتماد صالحة على نطاق واسع، مما يسمح للمهاجمين بتوسيع نطاق هجماتهم بشكل جماعي عبر تطبيقات متعددة دون الحاجة إلى تطوير أدوات جديدة لكل تطبيق.

دور "الوكلاء الحاسوبيين" في توسيع نطاق الهجمات

لقد كانت تأثيرات الذكاء الاصطناعي في الهجمات السابقة محصورة في استخدام النماذج اللغوية الكبيرة لإنشاء رسائل تصيد أو لتطوير برمجيات خبيثة بمساعدة الذكاء الاصطناعي، ولكن مع إطلاق "OpenAI Operator"، يظهر نوع جديد من "الوكلاء الحاسوبيين" قادر على أداء مهام الويب البسيطة بشكل مشابه للبشر دون الحاجة إلى تنفيذ برامج مخصصة.

تتيح هذه التقنية الجديدة للمهاجمين إمكانية تنفيذ هجمات تعبئة بيانات الاعتماد على نطاق واسع وبجهد أقل، مما يجعل عملية المسح الآلي للمعلومات واستغلالها أكثر سهولة حتى للمبتدئين.

 استغلال بيانات 

تشير التطورات الحالية إلى أن التحديات الأمنية المتعلقة بهجمات بيانات الاعتماد قد تصل إلى مستويات جديدة مع دخول تقنيات الأتمتة الذكية القائمة على الذكاء الاصطناعي إلى الساحة. 

إذ يمكن لهذه التكنولوجيا أن تمنح المهاجمين القدرة على استغلال بيانات الاعتماد المسروقة على نطاق أوسع، مما يحول الهجمات من عمليات محدودة النطاق إلى تهديدات منهجية واسعة النطاق.

 في هذا السياق، يصبح من الضروري على المؤسسات تكثيف جهودها لتعزيز دفاعاتها على سطح الهجمات الأمنية والتركيز على إصلاح الثغرات المتعلقة بالهوية قبل أن يستغلها المهاجمون.

مقالات مشابهة

  • الأهلي يسخر من قرعة الذكاء الاصطناعي
  • ذبح الخنازير.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟
  • الذكاء الاصطناعي تكلفة عالية على البيئة
  • كيف سيغير وكلاء الذكاء الاصطناعي هجمات سرقة بيانات الاعتماد
  • الخبرات النادرة والمعادلة الجديدة في الذكاء الاصطناعي
  • عندما يلتقي الذكاء الاصطناعي والعاطفي
  • الخوارزمية الأولى: أساطير الذكاء الاصطناعي
  • الشراكات الدولية وتعزيز الريادة الإماراتية في الذكاء الاصطناعي
  • %92 من الطلاب يستخدمونه.. الذكاء الاصطناعي يهدد جوهر التعليم الجامعي
  • الدماغ البشري يتفوّق على الذكاء الاصطناعي في حالات عدّة