تحد مفاجئ بالانتخابات الرئاسية .. هل يهزم الذكاء الاصطناعي بايدن؟
تاريخ النشر: 19th, January 2024 GMT
سرايا - تدور عجلة المرحلة التمهيدية للانتخابات الرئاسية الأمريكية المقررة في نوفمبر/تشرين الثاني المقبل، وسط محاولات لفرض مرشح "مفاجئة".
إذ تقوم منظمة "لجنة العمل السياسي PAC" في الولايات المتحدة، والمدعومة من قبل المطلعين على "سليكون فالي"، بالتعبئة لنشر أفكار دين فيليبس، المنافس الديمقراطي، للرئيس الأمريكي الحالي، بطرق غير تقليدية.
وجمعت لجنة العمل السياسي بالفعل 4 ملايين دولار لاستهداف الناخبين في ولاية نيو هامبشاير بمقاطع فيديو قصيرة تمثل إعلانات تستهدف وسائل التواصل الاجتماعي تظهر فيليبس وأنصاره وهم يعرضون برنامجه.
كما قام اثنان من رواد الأعمال في "سليكون فالي"، مات كريسيلوف وجيد سومرز، بتشكيل مجموعة "نحن نستحق الأفضل" في أوائل ديسمبر/كانون الأول الماضي بعد أن رأوا انخفاض أرقام استطلاعات الرأي لبايدن بشكل متزايد.
وقرر الرجلان، وهما مانحان، القفز إلى السياسة الرئاسية لأنهما شعرا أن بايدن "كان يتباطأ بشكل ملحوظ للغاية" في تنفيذ سياسات الحزب الديمقراطي، خلال العام الماضي.
وأطلقوا هذا الأسبوع برنامج "Dean.Bot"، بعد تقييم الآثار المترتبة على استخدام أداة ذكاء اصطناعي متطورة يمكنها الدردشة مثل شخص حقيقي، للمساهمة في الحملة الانتخابية.
وفي إحدى إجاباتها، تقول نسخة روبوت الذكاء الاصطناعي التي تم إصدارها، للناخبين المحتملين، نيابة عن المرشح فيلبس، "رغم أنني أحترم الرئيس بايدن، فإن البيانات والمحادثات مع الأمريكيين في جميع أنحاء البلاد تشير إلى رغبة قوية في التغيير".
ويحصل التقنيون الذين يقفون وراء الروبوت على المساعدة من الملياردير الناشط في صندوق التحوط بيل أكمان، الذي وصف تلك الخطوات بأنها تحمي الديمقراطيين من ترشيح مرشح لا يستطيع الفوز.
واعتبرت صحيفة "واشنطن بوست" الأمريكية، أن جهود لجنة العمل السياسي، تعكس السخط المستمر بين الديمقراطيين، بما في ذلك المانحون الأثرياء، من ترشيح بايدن وتشير إلى ظهور طبقة جديدة من المانحين في "سيليكون فالي" على يسار النخبة الحالية بالحزب.
كما أن خطوة روبوت الذكاء الاصطناعي تظهر كيف بدأت التقنيات الجديدة والخطرة، التسلل إلى الانتخابات الرئاسية لعام 2024.
إلى ذلك، يقول الخبراء إن الصوت التفاعلي، مثل ذلك الذي أسسه كريسيلوف وسومرز لصالح فيليبس، يمكن أن يمثل أكبر المخاطر على الانتخابات، حتى إذ كان الروبوت Dean.Bot يقر بأنه ذكاء اصطناعي عندما يُطلب منه ذلك أثناء المحادثة مع الناخب.
وقال بول باريت، نائب مدير مركز ستيرن للأعمال وحقوق الإنسان بجامعة نيويورك، إنه يعتقد أن إخلاء المسؤولية لم يكن كافيا للحماية من إساءة استخدام مثل هذه التقنيات، وفقا لـ"واشنطن بوست".
وتابع: "سرعان ما سيصبح الجميع ساخرين للغاية بشأن كل هذه الاتصالات المزيفة لدرجة أنه لا أحد يصدق أي شيء يقوله أي شخص".
ومن الجدير بالذكر أن شركة OpenAI، التي تصنع ChatGPT، وهو برنامج محادثة يعمل بالذكاء الاصطناعي والذي ساعد في البداية في تشغيل Dean.Bot، تحظر استخدام أدوات الذكاء الاصطناعي الخاصة بها في الحملات السياسية.
كما تحظر الشركة استخدام خدماتها لانتحال شخصية الأشخاص دون موافقتهم.
لذلك، سألت "واشنطن بوست" مجموعة "نحن نستحق الأفضل" عن هذه السياسة، وجاء الرد بأنهم طلبوا من مزود الخدمة الذي تعاقدوا معه لبناء الروبوت، وهو شركة ناشئة تسمى دلفي، إزالة ChatGPT من Dean.Bot، والاعتماد بدلاً من ذلك على برامج مفتوحة أخرى.
وفي حدث للذكاء الاصطناعي في ولاية نيو هامبشاير، الخميس، قال فيليبس نفسه إنه يؤيد الحملات ولجان العمل السياسي التي تستخدم تكنولوجيا الذكاء الاصطناعي ولكن يجب أن تكون هناك حواجز حماية.
وأضاف: "يجب أن يكون لدينا بالفعل لوائح خاصة بالذكاء الاصطناعي للحملات السياسية". وتابع: "أعتقد أنه من خلال إظهار الاستخدامات الجيدة لها، والاستخدامات الفعالة لها، يمكننا بها أن نجعلها شيئًا لا يخافه الناس ولكنهم يحتفلون به بالفعل".
وعلى صعيد الانتخابات، يعاني بايدن من انخفاض معدلات التأييد، وتظهر بعض استطلاعات الرأي أنه يتخلف عن الرئيس الأمريكي السابق دونالد ترامب على المستوى الاتحادي.
لكن في المقابل، فإن فيليبس، الذي ركز حملته في نيو هامبشاير، لم يحقق نجاحًا يذكر في حشد الدعم، وقام مراسل شبكة "سي بي إس نيوز" الأمريكية، مؤخرًا بتصوير فيليبس وهو جالس في الجزء الخلفي من شاحنة حملته الانتخابية بمفرده لأنه لم يحضر أي ناخبين للقاء والترحيب.
المصدر: وكالة أنباء سرايا الإخبارية
كلمات دلالية: الذکاء الاصطناعی العمل السیاسی
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.