"بوليتيكو": تخوف أمريكي كبير من تأثير أدوات الذكاء الاصطناعي في الانتخابات المقبلة
تاريخ النشر: 11th, March 2024 GMT
أعرب مسؤولون عن الانتخابات في الولايات المتحدة عن تخوفهم من تأثير أدوات الذكاء الاصطناعي على العملية الانتخابية التي تحل في نوفمبر المقبل.
وتقول صحيفة "بوليتيكو" في تقرير إن "مكالمة كاذبة من وزير الخارجية يخبر العاملين في مراكز الاقتراع بعدم الحاجة إليهم في يوم الانتخابات أو فيديو مزيف لمدير انتخابات الولاية وهو يمزق أوراق الاقتراع قبل فرزها أو بريد إلكتروني تم إرساله إلى مسؤول انتخابي بالمقاطعة يحاول التصيد الاحتيالي لتسجيل الدخول إلى قاعدة بيانات الناخبين الخاصة به، كلها أدوات يمكن استخدامها خلال العملية الانتخابية.
وتضيف الصحيفة أن مسؤولي الانتخابات يشعرون بالقلق من أن ظهور الذكاء الاصطناعي التوليدي يجعل هذا النوع من الهجوم على العملية أسهل قبل انتخابات نوفمبر، وهم يبحثون عن طرق لمكافحته.
ووفق ما أوردت صحيفة "بوليتيكو"، يعد العاملون في مجال الانتخابات أهدافا معرضة للخطر بشكل فريد مع أنهم أصلا غير محددين تماما، بحيث لا يعرف أحد من هم فعلا، علما بأن معظم الأمريكيين لا يزالون يثقون بمسؤولي الانتخابات على نطاق واسع وقد يكون التزييف الذي تم تنفيذه جيدا خطيرا للغاية ومن الصعب مواجهته.
وبحسب الصحيفة، فإن أحد التهديدات الخاصة يتمثل في انتحال شخصيات مسؤولي الانتخابات أنفسهم عبر الذكاء الاصطناعي، واستخدام ذلك لتضليل عاملين آخرين في الاستحقاق.
وقالت سكرتيرة ولاية نيو مكسيكو، ماغي تولوز أوليفر، عن مقاطع الفيديو المزيفة أو غيرها من المعلومات المضللة التي يتم نشرها حول الانتخابات: "أتوقع بنسبة 100 بالمائة أن يحدث ذلك في هذه الدورة.. سيكون سائدا في الاتصالات الانتخابية هذا العام".
وعلى سبيل المثال، يمكن لسكرتير ولاية مزيف أن يدفع بتعليمات خاطئة يوم الانتخابات، مما يؤدي إلى إرباك مديري الانتخابات المحليين أو العاملين في مراكز الاقتراع وتعطيل التصويت أو يمكن استخدام الذكاء الاصطناعي بـ"محاولة الوصول غير المصرح به إلى أنظمة مهمة" عبر محاكاة شخصية مسؤول ما، وفق الصحيفة.
إقرأ المزيد تزوير صوت بايدن بتقنية الذكاء الاصطناعي في انتخابات نيو هامبشاير التمهيديةوفي سياق التخوف من تأثير الذكاء الاصطناعي على العملية الانتخابية، كشف سكرتيرو الولايات الأميركية، خلال الاجتماع الشتوي للرابطة الوطنية لهم، الشهر الماضي، أنهم بدأوا بالفعل في تطبيق سيناريوهات الذكاء الاصطناعي في تدريباتهم مع المسؤولين المحليين.
وتوقع عدد منهم ظهور مخاطر محتملة بشأن معلومات خاطئة يغذيها الذكاء الاصطناعي، في خطط التواصل مع الناخبين، وفق الصحيفة.
وتوقعت سكرتيرة ولاية نيو مكسيكو، ماغي تولوز أوليفر، ظهور مقاطع فيديو مزيفة، أو سواها من المعلومات المضللة عن الانتخابات، وقالت: "أتوقع بنسبة 100 بالمائة أن يحدث تزييف في الدورة الانتخابية لهذا العام".
وبحسب الصحيفة، فقد أمضى مسؤولو الانتخابات السنوات الماضية في محاولة معرفة كيفية مكافحة البيئة غير الصحية، التي تهز من ثقة الجمهور في النظام الانتخابي، لكن مسؤولي الانتخابات يشعرون بالقلق حاليا من أن الذكاء الاصطناعي "سيجعل هذا التحدي أكثر صعوبة".
وتطرقت الصحيفة إلى تجربة سكرتير ولاية أريزونا أدريان فونتس، الذي نشر أواخر العام الماضي تدريبا شمل نسخة مزيفة له تنشر معلومات كاذبة.
وأشارت إلى أن فونتس أكد على أن "أدوات الذكاء الاصطناعي لديها الكثير من الإمكانات لإحداث الكثير من الضرر".
إقرأ المزيد قراصنة الإنترنت يطورون مهاراتهم بسرعة وقد يهددون انتخابات 2024 من جديد!وفي السياق، بدأت وكالة الأمن السيبراني وأمن البنية التحتية العمل على دمج سيناريوهات الذكاء الاصطناعي في التدريبات الانتخابية، وذلك ضمن جهود حماية "البنية التحتية الحيوية" والأنظمة الانتخابية.
وقالت كبير مستشاري وكالة الأمن السيبراني وأمن البنية التحتية، كيت كونلي، إن "الوكالة تواصلت مباشرة من مسؤولي الانتخابات بشأن "المخاطر المحتملة للذكاء الاصطناعي التوليدي وقدرته على جعلهم أهدافا شخصية".
وأضافت: "يتمتع الذكاء الاصطناعي التوليدي بالقدرة على تكثيف المخاطر السيبرانية والمادية والتشغيلية، لذلك أجرت الوكالة، وستستمر في إجراء تمارين الطاولة والدورات التدريبية بشأن الذكاء الاصطناعي".
ونقلت الصحيفة عن الموظفة والمسجلة في مقاطعة ويلد بولاية كولورادو، كارلي كوبس، قولها: "إننا نرصد رسائل بريد إلكتروني احتيالية أكثر ذكاء، لأن الذكاء الاصطناعي يجعلها أكثر تقدما بعض الشيء".
ووفق الصحيفة، كثف عدد من مديري الانتخابات، خططهم الخاصة بحملات التثقيف العام كما يخططون أيضا "لمضاعفة برامج وتكتيكات مكافحة المعلومات المضللة التي طوروها في السنوات الأخيرة".
المصدر: "بوليتيكو"
المصدر: RT Arabic
كلمات دلالية: البيت الأبيض السلطة القضائية انتخابات جو بايدن دونالد ترامب ذكاء اصطناعي واشنطن الذکاء الاصطناعی فی
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.