من المتوقع أن يكون للذكاء الاصطناعي تأثير على الانتخابات الأمريكية المقبلة في نوفمبر. 

تحاول الولايات الحماية من المعلومات المضللة من خلال تمرير قوانين تتطلب من الإعلانات السياسية الكشف عن وقت استخدامها للذكاء الاصطناعي التوليدي. 

يوجد الآن في عشرين ولاية قواعد مكتوبة، ووفقًا لبحث جديد، فإن الناخبين لديهم رد فعل سلبي لرؤية هذه التنازلات.

 

يبدو أن هذا رد فعل عادل إلى حد ما: إذا استخدم سياسي الذكاء الاصطناعي التوليدي لتضليل الناخبين، فإن الناخبين لا يقدرون ذلك. أجريت الدراسة من قبل مركز سياسة التكنولوجيا بجامعة نيويورك ونشرتها صحيفة واشنطن بوست لأول مرة.

تضمن التحقيق مشاهدة ألف مشارك لإعلانات سياسية من مرشحين خياليين. كانت بعض الإعلانات مصحوبة بتنصل من المسؤولية بأن الذكاء الاصطناعي تم استخدامه في إنشاء الإعلان، بينما لم يكن لدى البعض الآخر أي تنصل. ارتبط وجود تنصل بتقييم المشاهدين للمرشح المروج له بأنه أقل جدارة بالثقة وأقل جاذبية. وقال المستجيبون أيضًا إنهم سيكونون أكثر ميلًا للإبلاغ عن الإعلانات على وسائل التواصل الاجتماعي عندما تحتوي على إخلاءات مسؤولية. في الإعلانات الهجومية، كان المشاركون أكثر ميلًا للتعبير عن آراء سلبية حول المرشح الذي رعى الإعلان بدلاً من المرشح الذي تعرض للهجوم. ووجد الباحثون أيضًا أن وجود إخلاء مسؤولية الذكاء الاصطناعي أدى إلى آراء أسوأ أو غير متغيرة بغض النظر عن الحزب السياسي للمرشح الخيالي.

اختبر الباحثون إخلاءين مختلفين للمسؤولية مستوحيان من متطلبين مختلفين للدولة للإفصاح عن الذكاء الاصطناعي في الإعلانات السياسية. ينص النص المرتبط بقانون ميشيغان على: "تم التلاعب بهذا الفيديو بوسائل تقنية ويصور كلامًا أو سلوكًا لم يحدث". ويستند إخلاء المسؤولية الآخر إلى قانون فلوريدا، ويقول: "تم إنشاء هذا الفيديو كليًا أو جزئيًا باستخدام الذكاء الاصطناعي التوليدي". على الرغم من أن نهج متطلبات ميشيغان أكثر شيوعًا بين قوانين الولاية، إلا أن المشاركين في الدراسة قالوا إنهم يفضلون رؤية إخلاء المسؤولية الأوسع لأي نوع من استخدام الذكاء الاصطناعي.

في حين أن إخلاءات المسؤولية هذه يمكن أن تلعب دورًا في الشفافية حول وجود الذكاء الاصطناعي في الإعلان، إلا أنها ليست وسيلة أمان مثالية. وقال ما يصل إلى 37 بالمائة من المشاركين إنهم لا يتذكرون رؤية أي لغة تتعلق بالذكاء الاصطناعي بعد مشاهدة الإعلانات.

المصدر: بوابة الوفد

كلمات دلالية: الاصطناعی التولیدی الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • الصدر يعلق على استخدام الذكاء الاصطناعي
  • الذكاء الاصطناعي يفك لغزاً علمياً استعصى على العلماء لعقد كامل
  • إطلاقُ المشروع الوطني لفحص اعتلال شبكية العين لمرضى السكري باستخدام تقنيات الذّكاء الاصطناعي
  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر