الذكاء الاصطناعي يغير وجه الحملات الانتخابية للرئاسة الامريكيه 2024
تاريخ النشر: 24th, February 2024 GMT
في تطور يثير الجدل، تشهد الحملات الانتخابية الرئاسية الامريكية لعام 2024 استخدام الذكاء الاصطناعي في إنتاج الفيديوهات والصور المفبركة بهدف السخرية من المنافسين السياسيين، وتعتبر هذه الاستراتيجية تهديدا للنزاهة والشفافية في العملية الانتخابية، كما تم استثمار تطبيقات الذكاء الاصطناعي في تحليل بيانات الناخبين لتوجيه لهم رسائل سياسية أكثر دقة وتاثيرا.
تشير التقارير إلى أن بعض الفرق الانتخابية تستخدم الذكاء الاصطناعي لإنتاج محتوى مفبرك يستهدف منافسيهم بصورة ساخرة ومسيئة، و يتم استخدام تقنيات التلاعب بالصور والفيديو لإنشاء مشاهد وأحداث وهمية يتم تناقلها عبر وسائل التواصل الاجتماعي والإنترنت بهدف التأثير على الرأي العام وتشويه صورة المنافسين.
في تطور لافت في معركة الانتخابات الرئاسية الامريكيه ، قام الرئيس السابق دونالد ترامب بنشر فيديو ساخر بواسطة تقنية الذكاء الاصطناعي يصور الرئيس الحالي جو بايدن وهو متجه لدار الأيتام بصحبه زوجته، في محاولة لإقناع الناخبين بأنه غير صالح لتولي فترة رئاسة ثانية بسبب عمره المتقدم.
وتم تداول الفيديو على نطاق واسع عبر وسائل التواصل الاجتماعي، مما أثار جدلاً واسعاً وانقساماً في الرأي العام، واظهرت لقطات الفيديو الرئيس بايدن وهو يسيير بشكل بطيء شديد وبصحبته زوجته متجهين نحو دار المسنين ، وتناول الفيديو تعليقات ساخرة تستهزئ بقدراته العقلية والجسدي، وفريق اخر استنكر هذا النوع من الفيديوهات المفبركة مطالبا بضرورة وجود إطار قانوني وأخلاقي يحكم استخدامها بشكل صحيح ومسؤول وضمان أن هذه التكنولوجيا لا تستخدم للتلاعب أو إلحاق الأذى بالآخرين.
*"هيلي "تسخر من "العجوزين*
وفي هجمة اخري باستخدام تقنية الذكاء الاصطناعي ، ضربت نيكي هيلي المرشحة للرئاسة من الحزب الجمهوري عصفورين بحجر واحد ، وانتقدت عمر كل من ترامب والرئيس الحالي جو بايدن ، وبشكل ساخر نشرت صورة على حسابها في إكس ، وهما يرتديان قبعتين من الصوف ووصفتهما بالعجوزين معلقة فوقها "المنافسة التي لا يريد أحد رؤيتها مجدداً"، في إشارة إلى تنافس كل من ترامب وبايدن مجددا كما حصل في 2020.
وانتقدت هيلي عدة مرات في مقابلة تلفزيونية وخطابات أمام مؤيديها عمر الرجلين، ولكن هذه المرة استخدمت تقنية الذكاء الاصطناعي للسخرية من عمر منافسيها.
وأوضح عدد من الخبراء ان استخدام الذكاء الاصطناعي في هذا السياق أمرًا مثيرًا للقلق، حيث يمكن للتقنيات المتقدمة التلاعب بالصور والفيديوهات بخلق صورًا وأحداثًا مزيفة بشكل حقيقي يصعب كشفه، مما يجعل من الصعب على الجمهور تحديد ما هو حقيقي وما هو مفبرك.
يثير هذا الاستخدام المسؤولية الأخلاقية والأمنية للذكاء الاصطناعي في الحملات الانتخابية، فقد يؤدي تداول الصور والفيديوهات المفبركة إلى نشر معلومات زائفة وإشاعات تؤثر على سمعة المرشحين وتشوه صورتهم في ذهن الناخبين .
*المرشحون يعتمدون علي تطبيقات متطورة لتحسين من رسائلهم السياسية*
وعلي الجانب الاخر، هناك الوجه الإيجابي لاستخدام تطبيقات الذكاء الاصطناعي في تعزيز قدرة المرشحين لتحسين استراتيجيات حملاتهم وتحليل بيانات الناخبين وتوجيه الرسائل السياسية بشكل أكثر دقة وتفصيلاً.
أحد التطبيقات الرئيسية للذكاء الاصطناعي في الحملات الانتخابية هو تحليل البيانات الضخمة المتاحة عبر وسائل التواصل الاجتماعي والإنترنت، و يمكن للمرشحين استخدام تقنيات التعلم الآلي وتحليل البيانات لفهم اهتمامات الناخبين ومواقفهم السياسية بشكل أفضل، مما يتيح لهم صياغة رسائل واستراتيجيات انتخابية مخصصة تلبي تلك الاهتمامات وتحقق تأثيرًا أكبر.
بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي مساعدة المرشحين في توجيه حملاتهم الانتخابية، من خلال تحليل البيانات والتصنيف التلقائي، يمكن للذكاء الاصطناعي تحديد المجموعات الديموغرافية المستهدفة بشكل أكثر دقة وتوجيه الجهود الانتخابية بشكل فعال، مما يؤدي إلى توفير المزيد من الوقت والجهد والموارد.
ومع ذلك، تثير استخدامات الذكاء الاصطناعي في الحملات الانتخابية بعض التساؤلات المتعلقة بالخصوصية والأمان، يجب أن يتم استخدام هذه التقنيات بشكل مسؤول ومن خلال الامتثال للقوانين واللوائح المعمول بها، لضمان حماية بيانات الناخبين والحفاظ على سلامة العملية الديمقراطية.
على الرغم من الفوائد المحتملة للاستخدام المناسب للذكاء الاصطناعي في الحملات الانتخابية، يجب أن يتم التعامل معه بحذر ومسؤولية، ووضع إطار قانوني وأخلاقي صارم لضمان استخدام الذكاء الاصطناعي في مصلحة حقوق الأفراد، ولضمان الشفافية والعدالة في العملية الديمقراطية.
المصدر: بوابة الوفد
كلمات دلالية: الذكاء الاصطناعي العملية الانتخابية الانتخابات الرئاسية الأمريكية وسائل التواصل الاجتماعي الذکاء الاصطناعی فی للذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.
إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.
وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي
تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.
لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.
كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.
أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.
وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.
المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.
وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.
قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.
ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.
أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.
أخبار ذات صلةتُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.
وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.
وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.
وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.
الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.
توصي الورقة بعدد من الإجراءات الوقائية، للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.
وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.
مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.
على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.
وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.
وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.
لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)