ضبط ساعة يوم القيامة عند 90 ثانية حتى منتصف الليل.. العالم يتجه نحو كارثة
تاريخ النشر: 24th, January 2024 GMT
تمت إعادة ضبط ساعة يوم القيامة عند 90 ثانية حتى منتصف الليل، وهي أقرب ساعة على الإطلاق إلى منتصف الليل، مما يعكس الحالة المستمرة للخطر غير المسبوق الذي يواجهه العالم.
شددت نشرة علماء الذرة، المشرفين على ساعة يوم القيامة، في إعلانها على أن الساعة يمكن أن تعود إلى الوراء، ولكن يتعين على الحكومات والشعوب اتخاذ إجراءات عاجلة.
تلقي مجموعة متنوعة من التهديدات العالمية بظلال تهديد على مداولات الساعة 2024، بما في ذلك: الحرب بين روسيا وأوكرانيا وتدهور اتفاقيات خفض الأسلحة النووية؛ وأزمة المناخ والتصنيف الرسمي لعام 2023 باعتباره العام الأكثر سخونة على الإطلاق؛ والتطور المتزايد لتقنيات الهندسة الوراثية؛ والتقدم الهائل في الذكاء الاصطناعي التوليدي الذي يمكن أن يؤدي إلى تضخيم المعلومات المضللة وإفساد بيئة المعلومات العالمية مما يزيد من صعوبة حل التحديات الوجودية الأكبر.
وقالت راشيل برونسون، دكتوراه، الرئيس والمدير التنفيذي للنشرة: "لا تخطئوا: إعادة ضبط الساعة عند 90 ثانية حتى منتصف الليل ليس مؤشرا على أن العالم مستقر. العكس تماما. ومن الضروري أن تتحرك الحكومات والمجتمعات في جميع أنحاء العالم. وتظل النشرة مفعمة بالأمل - وملهمة - في رؤية الأجيال الشابة تقود هذه المهمة.
يتم تحديد وقت ساعة القيامة من خلال نشرة مجلس العلوم والأمن لعلماء الذرة (SASB) بالتشاور مع مجلس رعاته، والذي يضم تسعة من الحائزين على جائزة نوبل. سابقًا، في يناير 2023، تم ضبط ساعة يوم القيامة على 90 ثانية قبل منتصف الليل، وهو أقرب وقت إلى منتصف الليل على الإطلاق.
يذكر بيان ساعة يوم القيامة: «تستمر الاتجاهات المشؤومة في توجيه العالم نحو كارثة عالمية. إن الحرب في أوكرانيا والاعتماد الواسع النطاق والمتزايد على الأسلحة النووية يزيدان من خطر التصعيد النووي. تنفق الصين وروسيا والولايات المتحدة مبالغ ضخمة لتوسيع أو تحديث ترساناتها النووية، مما يزيد من خطر الحرب النووية الدائم عن طريق الخطأ أو سوء التقدير. في عام 2023، شهدت الأرض العام الأكثر سخونة على الإطلاق، وأثرت الفيضانات العارمة وحرائق الغابات وغيرها من الكوارث المرتبطة بالمناخ على ملايين الأشخاص حول العالم. ومن ناحية أخرى، تسارعت التطورات السريعة والمثيرة للقلق في علوم الحياة وغيرها من التكنولوجيات المعطلة للنظام القديم، في حين لم تبذل الحكومات سوى جهود ضعيفة للسيطرة عليها. ولكن من الممكن أن يصبح العالم أكثر أمانا. يمكن للساعة أن تبتعد عن منتصف الليل."
قال جيري براون، الرئيس التنفيذي للنشرة: “كما لو كانوا على متن سفينة تايتانيك، فإن القادة يوجهون العالم نحو الكارثة – المزيد من القنابل النووية، وانبعاثات الكربون الهائلة، ومسببات الأمراض الخطيرة، والذكاء الاصطناعي. إن القوى الكبرى مثل الصين وأميركا وروسيا هي وحدها القادرة على سحبنا إلى الوراء. وعلى الرغم من العداءات العميقة، يتعين عليهم أن يتعاونوا ــ وإلا فإن مصيرنا محكوم علينا بالهلاك.
وقال بيل ناي، الذي شارك في إعلان ساعة يوم القيامة لعام 2024: “على مدى عقود، كان العلماء يحذروننا من المخاطر التي تواجه البشرية. قد نواجه كارثة ما لم نتمكن من إدارة التقنيات التي ابتكرناها بشكل أفضل. حان وقت العمل."
الأبعاد المتعددة للتهديد النووي
تبدو النهاية الدائمة للحرب الروسية في أوكرانيا بعيدة المنال، ويظل استخدام روسيا للأسلحة النووية في ذلك الصراع احتمالا جديا. في فبراير 2023، أعلن الرئيس الروسي فلاديمير بوتين قراره "بتعليق" المعاهدة الجديدة لخفض الأسلحة الاستراتيجية (ستارت الجديدة). وفي مارس، أعلن عن نشر أسلحة نووية تكتيكية في بيلاروسيا. في يونيو، حث سيرجي كاراجانوف، مستشار الرئيس الروسي فلاديمير بوتين، موسكو على النظر في شن ضربات نووية محدودة على أوروبا الغربية كوسيلة لإنهاء الحرب في أوكرانيا بشكل إيجابي. وفي أكتوبر، صوت مجلس الدوما الروسي لصالح سحب تصديق موسكو على معاهدة الحظر الشامل للتجارب النووية، مع استمرار مجلس الشيوخ الأميركي في رفض مجرد مناقشة التصديق.
وتهدد برامج الإنفاق النووي في القوى النووية الثلاث الكبرى ــ الصين، وروسيا، والولايات المتحدة ــ بإشعال سباق تسلح نووي ثلاثي مع انهيار بنية الحد من الأسلحة في العالم. وتعمل روسيا والصين على توسيع قدراتهما النووية، وتتزايد الضغوط في واشنطن لكي ترد الولايات المتحدة بالمثل.
وفي الوقت نفسه، تتفاقم الأزمات النووية المحتملة الأخرى. وتستمر إيران في تخصيب اليورانيوم إلى مستوى قريب من الدرجة المستخدمة في تصنيع الأسلحة، في حين تعرقل الوكالة الدولية للطاقة الذرية فيما يتصل بالقضايا الرئيسية. يبدو من غير المرجح أن تنجح الجهود الرامية إلى إعادة تفعيل الاتفاق النووي مع إيران، وما زالت كوريا الشمالية مستمرة صنع أسلحة نووية وصواريخ بعيدة المدى. ويستمر التوسع النووي في باكستان والهند دون توقف أو ضبط النفس.
ولابد أن تشكل مدى ملاءمة المرشحين لتحمل السلطة الرئاسية الهائلة لإطلاق الأسلحة النووية الشغل الشاغل للانتخابات الأميركية في الخريف. ويصدق هذا بشكل خاص بالنظر إلى المخاوف في نهاية عهد الإدارة السابقة، والتي دفعت رئيس هيئة الأركان المشتركة آنذاك الجنرال مارك ميلي إلى اتخاذ خطوات لضمان استشارته في حال سعى الرئيس السابق لإطلاق أسلحة نووية.
ومن المحتمل أن تتصاعد الحرب في غزة بين إسرائيل وحماس إلى صراع أوسع في الشرق الأوسط يمكن أن يشكل تهديدات لا يمكن التنبؤ بها، على الصعيدين الإقليمي والعالمي.
توقعات مشؤومة لتغير المناخ
دخل العالم في عام 2023 إلى منطقة مجهولة حيث عانى من العام الأكثر سخونة على الإطلاق واستمرت انبعاثات غازات الدفيئة العالمية في الارتفاع. وحطمت درجات حرارة سطح البحر في العالم وفي شمال المحيط الأطلسي أرقاما قياسية، ووصل الجليد البحري في القطب الجنوبي إلى أدنى مستوى يومي له منذ ظهور بيانات الأقمار الصناعية. ويخاطر العالم بالفعل بتجاوز هدف اتفاق باريس للمناخ ــ زيادة درجات الحرارة بما لا يزيد على 1.5 درجة مئوية فوق مستويات ما قبل الصناعة ــ بسبب عدم كفاية الالتزامات للحد من انبعاثات الغازات الدفيئة وعدم كفاية تنفيذ الالتزامات التي تم التعهد بها بالفعل. ولوقف المزيد من الانحباس الحراري، يتعين على العالم أن يحقق صافي انبعاثات ثاني أكسيد الكربون إلى الصفر.
لقد استثمر العالم مبلغا قياسيا قدره 1.7 تريليون دولار في الطاقة النظيفة في عام 2023، وتعهدت البلدان التي تمثل نصف الناتج المحلي الإجمالي في العالم بزيادة قدرتها على الطاقة المتجددة إلى ثلاثة أضعاف بحلول عام 2030. ولكن في المقابل، عوضت هذه الاستثمارات استثمارات في الوقود الأحفوري بلغت نحو تريليون دولار. باختصار، الجهود الحالية للحد من انبعاثات غازات الدفيئة غير كافية على الإطلاق لتجنب الآثار البشرية والاقتصادية الخطيرة الناجمة عن تغير المناخ، والتي تؤثر بشكل غير متناسب على أفقر الناس في العالم. وما لم تتم زيادة ملحوظة في الجهود المبذولة، فإن حصيلة المعاناة البشرية الناجمة عن اضطراب المناخ سوف تتزايد حتما.
التهديدات البيولوجية المتطورة
استمرت الثورة في علوم الحياة والتكنولوجيات المرتبطة بها في التوسع في نطاقها في العام الماضي، بما في ذلك، على وجه الخصوص، زيادة تعقيد وكفاءة تكنولوجيات الهندسة الوراثية. ونحن نسلط الضوء على قضية واحدة ذات أهمية خاصة: إن التقارب بين أدوات الذكاء الاصطناعي الناشئة والتقنيات البيولوجية قد يمكّن الأفراد بشكل جذري من إساءة استخدام علم الأحياء.
في أكتوبر، وقع الرئيس الأمريكي جو بايدن أمرا تنفيذيا بشأن "الذكاء الاصطناعي الآمن والمأمون والجدير بالثقة" الذي يدعو إلى الحماية "من مخاطر استخدام الذكاء الاصطناعي لهندسة مواد بيولوجية خطيرة من خلال تطوير معايير جديدة قوية لفحص التخليق البيولوجي". وعلى الرغم من كونه خطوة مفيدة، إلا أن الأمر ليس ملزمًا قانونًا. ومكمن القلق هنا هو أن النماذج اللغوية الكبيرة تمكن الأفراد الذين يفتقرون إلى المعرفة الكافية من تحديد واكتساب ونشر العوامل البيولوجية التي من شأنها أن تلحق الضرر بأعداد كبيرة من البشر والحيوانات والنباتات، وغير ذلك من عناصر البيئة. إن الجهود التي أعيد تنشيطها خلال العام الماضي في الولايات المتحدة لمراجعة وتعزيز الرقابة على أبحاث علوم الحياة المحفوفة بالمخاطر مفيدة، ولكن هناك حاجة إلى المزيد.
مخاطر الذكاء الاصطناعي
أحد أهم التطورات التكنولوجية في العام الماضي كان يتعلق بالتقدم الكبير في الذكاء الاصطناعي التوليدي. ومن الواضح أن الذكاء الاصطناعي يمثل تكنولوجيا نموذجية مدمرة وأن الجهود الأخيرة في مجال الحوكمة العالمية للذكاء الاصطناعي يجب توسيعها.
يتمتع الذكاء الاصطناعي بإمكانات كبيرة لتضخيم المعلومات المضللة وإفساد بيئة المعلومات المطلوبة لحل القضايا العالمية الكبرى والتي تعتمد عليها الديمقراطية. وقد تكون جهود التضليل المدعومة بالذكاء الاصطناعي عاملا يمنع العالم من التعامل بفعالية مع المخاطر النووية، والأوبئة، وتغير المناخ.
تتسارع الاستخدامات العسكرية للذكاء الاصطناعي. ويحدث بالفعل استخدام واسع النطاق للذكاء الاصطناعي في مجالات الاستخبارات والمراقبة والاستطلاع والمحاكاة والتدريب. ومما يثير القلق بشكل خاص الأسلحة الفتاكة المستقلة، التي تحدد الأهداف وتدمرها دون تدخل بشري. إن القرارات الرامية إلى وضع الذكاء الاصطناعي في السيطرة على الأنظمة المادية المهمة - وخاصة الأسلحة النووية - يمكن أن تشكل بالفعل تهديدا وجوديا مباشرا للبشرية.
ومن حسن الحظ أن العديد من البلدان تدرك أهمية تنظيم الذكاء الاصطناعي وبدأت في اتخاذ خطوات للحد من احتمالات الضرر. وتشمل هذه الخطوات الأولية إطارًا تنظيميًا مقترحًا من قبل الاتحاد الأوروبي، وأمرًا تنفيذيًا من الرئيس بايدن، وإعلانًا دوليًا لمعالجة مخاطر الذكاء الاصطناعي، وتشكيل هيئة استشارية جديدة للأمم المتحدة. لكن هذه مجرد خطوات صغيرة؛ ويتعين علينا أن نفعل الكثير من أجل إرساء قواعد ومعايير فعّالة، على الرغم من التحديات الهائلة التي ينطوي عليها حكم الذكاء الاصطناعي.
كيفية إعادة عقارب الساعة إلى الوراء
الجميع على الأرض مصلحة في الحد من احتمالات وقوع كارثة عالمية بسبب الأسلحة النووية، وتغير المناخ، والتقدم في علوم الحياة، والتقنيات المعطلة، والفساد على نطاق واسع في النظام البيئي للمعلومات في العالم. إن هذه التهديدات، منفردة وفي تفاعلها، تتسم بطابع وحجم لا يمكن لأي دولة أو زعيم أن يسيطر عليها. وهذه هي مهمة الزعماء والأمم الذين يعملون معًا في الإيمان المشترك بأن التهديدات المشتركة تتطلب عملاً مشتركًا.
وكخطوة أولى، وعلى الرغم من الخلافات العميقة بينها، يتعين على ثلاث من القوى الرائدة في العالم ــ الولايات المتحدة، والصين، وروسيا ــ أن تبدأ حواراً جاداً حول كل من التهديدات العالمية المذكورة هنا. وعلى أعلى المستويات، يتعين على هذه البلدان الثلاثة أن تتحمل المسؤولية عن الخطر الوجودي الذي يواجهه العالم الآن. ولديهم القدرة على انتشال العالم من حافة الكارثة. وينبغي لهم أن يفعلوا ذلك بوضوح وشجاعة ودون تأخير.
تأسست نشرة العلماء الذريين في عام 1945 على يد ألبرت أينشتاين وجي روبرت أوبنهايمر وعلماء جامعة شيكاغو الذين ساعدوا في تطوير أول أسلحة ذرية في مشروع مانهاتن، وقد أنشأت نشرة العلماء الذريين ساعة يوم القيامة بعد ذلك بعامين، باستخدام صور نهاية العالم (منتصف الليل). والمصطلح المعاصر للانفجار النووي (العد التنازلي إلى الصفر) لنقل التهديدات للإنسانية والكوكب. يتم ضبط ساعة يوم القيامة كل عام من قبل مجلس العلوم والأمن التابع للنشرة بالتشاور مع مجلس رعاته، والذي يضم تسعة من الحائزين على جائزة نوبل. أصبحت الساعة مؤشرًا معترفًا به عالميًا لضعف العالم أمام الكوارث العالمية التي تسببها التقنيات التي يصنعها الإنسان.
المصدر: بوابة الوفد
إقرأ أيضاً:
بين التلاعب والشفافية.. هل يغير الذكاء الاصطناعي مسار الانتخابات الأميركية؟
تقرع الانتخابات الأميركية طبولها، وتشتعل المنافسة بين المرشحين في صراع محموم للفوز بكرسي البيت الأبيض مطبخ القرار الأميركي، والذي أصبح يتطلب مع الثورة التكنولوجية أكثر من مجرد خطاب سياسي، بل إستراتيجية متقدمة تعتمد على الذكاء الاصطناعي كواجهة للسوق الدعائي.
وعلى الرغم من فوائد التقدم التكنولوجي السريع، يثير شبح الذكاء الاصطناعي الذعر في مسار الانتخابات، حيث تتجلى مخاطر التلاعب ونشر المعلومات المضللة بشكل يهدد نزاهة العملية الانتخابية، وهو ما يولد قلقا حقيقيا بشأن الديمقراطية الأميركية.
هل المخاوف بشأن تهديدات الذكاء الاصطناعي لنزاهة الانتخابات مبررة أم مبالغ فيها؟في وقت مبكر من هذا العام، حذر المراقبون والتقنيون من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024، وذلك من خلال نشر المعلومات المضللة عبر الصور المزيفة والإعلانات السياسية المخصصة.
وقد انتشرت هذه المخاوف بين الجمهور، حيث أظهر استطلاع رأي حديث من مؤسسة "بيو" (Pew Research Center) أن 39% يقولون إن الذكاء الاصطناعي سيستخدم على الأغلب لأغراض سيئة خلال الحملة الرئاسية، مقارنة بـ5% فقط قالوا إنه سيتم استخدامه غالبا لأغراض جيدة. وقال 27% آخرون إنه سيتم استخدامه على قدم المساواة بين الخير والشر.
وتقول أغلبية 57% من البالغين في الولايات المتحدة -بما في ذلك حصص متطابقة تقريبا من الجمهوريين والديمقراطيين- إنهم "قلقون للغاية أو قلقون جدا" من أن الأشخاص أو المنظمات التي تسعى للتأثير على الانتخابات ستستخدم الذكاء الاصطناعي لإنشاء وتوزيع معلومات مزيفة أو مضللة حول المرشحين والحملات.
ومع بدء العدّ التنازلي ليومين يفصلاننا عن موعد الانتخابات الأميركية، يبدو أن المخاوف من أن يتمّ إفساد الانتخابات أو تحديدها بواسطة الذكاء الاصطناعي قد كانت مبالغا فيها.
حيث كتبت مجتمع الاستخبارات الأميركية (U.S Intelligence Community) في شهر سبتمبر/أيلول الماضي أنه بينما كانت الجهات الأجنبية مثل روسيا تستخدم الذكاء الاصطناعي التوليدي لتحسين وتسريع محاولاتها للتأثير على الناخبين، فإن هذه الأدوات لم تحدث ثورة في مثل هذه العمليات.
وفي سياق مماثل، يعترف المطلعون على التكنولوجيا أن عام 2024 لم يكن عاما متميزا في استخدام الذكاء الاصطناعي التوليدي في السياسة، إذ تقول بيتسي هوفر مؤسسة مختبرات "هايير غراوند" (Higher Ground Labs)، وهي صندوق استثماري يستثمر في تكنولوجيا السياسية، "هناك الكثير من الحملات والمنظمات التي تستخدم الذكاء الاصطناعي بطريقة أو بأخرى. لكن برأيي لم تصل إلى مستوى التأثير الذي توقعه الناس أو خافوا منه".
من جهة أخرى، ووفقا لتقرير صادر عن مجلة "تايم" (TIME) الأميركية، يحذر الباحثون من أن تأثيرات الذكاء الاصطناعي التوليدي على هذه الدورة الانتخابية لم تُفهم بعد، خاصة بسبب استخدامها على منصات المراسلة الخاصة.
وأكدوا أنه حتى لو بدا تأثير الذكاء الاصطناعي على هذه الحملة غير ملحوظ، فمن المحتمل أن يتضخم في الانتخابات القادمة مع تحسن التكنولوجيا وزيادة استخدامها بين الجمهور العام والعاملين في السياسة.
ويقول سوني غاندي -نائب رئيس الشؤون السياسية في "إنكود جاستس" (Encode Justice)- "أنا متأكد أنه في سنة أو سنتين ستتحسن نماذج الذكاء الاصطناعي". وأضاف "أنا قلق جدا بشأن كيف ستبدو الأمور في عام 2026 وبالتأكيد في عام 2028".
وفي وقت مبكر من هذا العام، أنشأ مجموعة من الباحثين في جامعة "بوردو" (Purdue) مشروع قاعدة بيانات للحوادث المتعلقة بالتزييف العميق السياسي، والتي سجلت منذ ذلك الحين أكثر من 500 حادثة.
المراقبون والتقنيون حذروا من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024 (شترستوك)ومن المثير للدهشة، أن الغالبية العظمى من تلك الفيديوهات لم تصنع لخداع الناس، بل هي في الغالب سخرية، أو تعليم، أو تعليق سياسي، كما تقول الباحثة في المشروع كريستينا ووكر.
وبحسب ووكر، فإن معاني هذه الفيديوهات للمشاهدين غالبا ما تتغير مع انتشارها عبر دوائر سياسية مختلفة، حيث قالت "ينشر شخص ما تزييفا عميقا ويكتب ‘هذا تزييف عميق أنشأته لإظهار إيكس ويو وزاد’. وبعد 20 إعادة تغريد يشاركه شخص آخر كما لو كان حقيقيا".
ويقول دانييل شيف، باحث آخر في المشروع، إن العديد من التزييفات العميقة من المحتمل أن تكون مصممة لتعزيز آراء الأشخاص الذين كانوا بالفعل يميلون للاعتقاد برسائلها.
وأفادت شركة ميتا في أغسطس/آب أن التكتيكات المدفوعة بالذكاء الاصطناعي التوليدي قد قدمت فقط مكاسب طفيفة في الإنتاجية وتوليد المحتوى للتأثير على الحملات، وخلصت إلى أن إستراتيجيات صناعة التكنولوجيا للتقليل من انتشارها تبدو فعالة في الوقت الحالي.
وفي السياق نفسه، يبدو أن الباحثين غير واثقين من مدى تأثير الذكاء الاصطناعي على العملية الانتخابية، حيث قالت ميا هوفمان، زميلة بحث في مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون (Georgetown’s Center for Security and Emerging Technology)، إنه من الصعب تحديد تأثير الذكاء الاصطناعي على الناخبين لعدة أسباب، أحدها هو أن الشركات التكنولوجية الكبرى قد حدّت من كمية البيانات التي تشاركها حول المنشورات.
حيث أنهت شركة "إيكس" الوصول المجاني إلى واجهة برمجة التطبيقات الخاصة بها، وأغلقت ميتا مؤخرا خدمة "كراودتانجل" (Crowd tangle) على فيسبوك وإنستغرام، وهو ما يجعل من الصعب على الباحثين تتبع خطاب الكراهية والمعلومات المضللة عبر تلك المنصات.
وتقول هوفمان "نحن تحت رحمة ما تشاركه هذه الشركات معنا".
وتشعر هوفمان بالقلق من أن المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تتزايد على منصات المراسلة المغلقة مثل واتساب، التي تحظى بشعبية خاصة بين المجتمعات المهاجرة في الولايات المتحدة.
وتقول إنه من الممكن أن تكون هناك جهود قوية للذكاء الاصطناعي تستخدم للتأثير على الناخبين في الولايات المتأرجحة، ولكن من الصعب معرفة فعاليتها إلا بعد الانتخابات.
وتضيف "مع تزايد الأهمية الانتخابية لهذه المجموعات، يتم استهدافها بشكل متزايد بحملات تأثير مخصصة تهدف إلى تقليل أصواتهم وتغيير آرائهم. وبسبب تشفير التطبيقات، فإن المعلومات المضللة تكون أكثر خفاء عن جهود التحقق من الحقائق".
الباحثون غير واثقين من مدى تأثير الذكاء الاصطناعي على العملية الانتخابية (وكالة الأنباء الأوروبية) تصاعد عمليات التزييف العميق السياسيتقول مجلة "تايم" (TIME) الأميركية إن الذكاء الاصطناعي كان له تأثير واضح على السياسة العالمية، فمثلا في دول جنوب آسيا استخدم المرشحون الذكاء الاصطناعي لإغراق الجمهور بمقالات وصور ومقاطع فيديو مزيفة.
وفي فبراير/شباط تم نشر مقطع فيديو مزيف يظهر عمدة لندن صادق خان وهو يدلي بتعليقات تحريضية قبل مسيرة كبيرة مؤيدة لفلسطين، وقال خان وقتها إن المقطع الصوتي أشعل اشتباكات عنيفة بين المتظاهرين المؤيدين والمتظاهرين المعارضين.
ونذكر العملية التي حدثت في الولايات المتحدة أيضا في شهر فبراير/شباط، حيث تلقى سكان نيوهامشير رسائل صوتية مزيفة للرئيس الأميركي جو بايدن وهو يحثهم على عدم التصويت، وقامت لجنة الاتصالات الفدرالية بسرعة بحظر المكالمات الآلية التي تحتوي على أصوات مولدة بالذكاء الاصطناعي.
وتم توجيه اتهامات جنائية للمستشار السياسي الديمقراطي الذي أنشأ الرسائل الصوتية، وكانت هذه الاتهامات بمثابة رسالة تحذيرية قوية للآخرين الذين قد يحاولون استخدام تكتيكات مماثلة.
حيث قال المدعي العام في نيوهامشير جون فورميلا في بيان أعلن فيه التهم: "آمل أن ترسل إجراءات التنفيذ الخاصة بنا إشارة رادعة قوية لأي شخص قد يفكر في التدخل في الانتخابات، سواء من خلال استخدام الذكاء الاصطناعي أو غيره".
ولم تردع هذه الاتهامات والتحذيرات السياسيين الذين صعّدوا أكثر في عمليات التزييف العميق، بمن فيهم الرئيس السابق دونالد ترامب، الذي قام في شهر أغسطس/آب الماضي بنشر صور باستخدام الذكاء الاصطناعي لتايلور سويفت تؤيد ترشحه. بالإضافة إلى صور لكامالا هاريس وهي ترتدي ملابس شيوعية.
وفي سبتمبر/أيلول الماضي تم تداول مقطع فيديو مرتبط بحملة معلومات مضللة روسية يتهم هاريس بالتورط في حادث اصطدام وهروب، حيث تمت مشاهدته ملايين المرات على وسائل التواصل الاجتماعي.
وفي سياق متصل، أشار تقرير مجلة "تايم" أن روسيا كانت معقلا للاستخدامات الخبيثة للذكاء الاصطناعي، حيث يقوم الفاعلون من الدولة بإنشاء نصوص، وصور، وصوتيات، ومقاطع فيديو تم استخدامها في الولايات المتحدة، وغالبا ما تهدف إلى تضخيم المخاوف المتعلقة بالهجرة.
ولم يبد واضحا إن كانت هذه الحملات قد أثرت كثيرا على الناخبين، حيث قالت وزارة العدل الأميركية في سبتمبر/أيلول إنها قامت بتعطيل واحدة من تلك الحملات، المعروفة باسم "دوبلغانغر" (Doppelganger) والتي سعت إلى نشر دعاية الحكومة الروسية.
وقالت وزارة العدل إن الهدف من هذا الجهد هو تقليل الدعم الدولي لأوكرانيا، وتعزيز السياسات الموالية لروسيا، والتأثير على الناخبين في الولايات المتحدة وأماكن أخرى.
وكتبت مجتمع الاستخبارات الأميركي في الشهر نفسه أن هؤلاء الفاعلين الأجانب قد واجهوا عدة تحديات في نشر هذه الفيديوهات، بما في ذلك الحاجة إلى تجاوز القيود المدمجة في العديد من أدوات الذكاء الاصطناعي.
ما الذكاء الاصطناعي التوليدي وكيف يمكن استخدامه بشكل خبيث؟وفقا لوكالة "سيزا" (Cisa) الأميركية، فإن الذكاء الاصطناعي التوليدي هو نوع من البرمجيات يستخدم نماذج إحصائية تعمم الأنماط والهياكل الموجودة في البيانات الحالية، لإعادة تنظيم البيانات الموجودة أو إنشاء محتوى جديد، حيث يمكن أن يتراوح هذا المحتوى من كتابة رموز الحاسوب إلى تأليف نصوص جديدة، وتطوير وسائط تركيبية مثل ملفات الفيديو، والصور، والصوت.
وتقول "سيزا" إن القدرات المولدة للذكاء الاصطناعي أصبحت معتمدة على نطاق واسع، ومن الضروري أن يفهم مسؤولو الانتخابات كيف يمكن لهذه القدرات أن تؤثر على أمن ونزاهة البنية التحتية للانتخابات.
وبالرغم من أن قدرات الذكاء الاصطناعي توفر فرصا لزيادة الإنتاجية، وهو ما يعزز أمن وإدارة الانتخابات، فإن هذه القدرات أيضا تستطيع أن تلحق ضررا أكبر، حيث يمكن للجهات الفاعلة الخبيثة بما في ذلك الجهات الفاعلة في الدولة القومية الأجنبية ومجرمي الإنترنت، الاستفادة من هذه القدرات نفسها لأغراض شائنة.
وأشار المصدر نفسه إلى أنه بالنسبة لدورة انتخابات 2024، من المرجح ألا تؤدي قدرات الذكاء الاصطناعي التوليدية إلى مخاطر جديدة، لكنها قد تضخم المخاطر الحالية على البنية التحتية للانتخابات.
وطرحت وكالة "سيزا" أمثلة عن كيفية استخدام الجهات الخبيثة قدرات الذكاء الاصطناعي التوليدية، حيث تشمل:
١- الذكاء الاصطناعي لتوليد الفيديو
من النص إلى الفيديو: يمكن أن تستخدم جهة فاعلة من دولة أجنبية برنامج تحويل النص إلى فيديو، لإنشاء مقاطع فيديو مزيفة لمذيعين حقيقيين يقدمون أخبارا مزيفة لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية. فيديوهات التزييف العميق: يستخدم مجرمو الإنترنت مقاطع الفيديو المزيفة العميقة لأشخاص مشهورين لإقناع الجمهور بالوقوع في فخ الاحتيال.٢- الذكاء الاصطناعي لتوليد الصورة
من النص إلى الصورة: تستخدم الجهات الفاعلة من دول أجنبية مولدات النص إلى صورة لإنشاء صور زائفة ومضللة لتغيير تصور الجمهور للحقائق خلال الأزمات. صور معدلة بواسطة الذكاء الاصطناعي: تقوم الجهات الفاعلة من دول أجنبية بإنشاء صور تركيبية لملفات تعريف حسابات مزيفة تستخدم في عمليات التأثير. إضافة إلى تعديل الصور أو الفيديوهات الأصلية لدعم سرد هذه العمليات.٣- الذكاء الاصطناعي لتوليد الصوت
من النص إلى الصوت: يستخدم مجرمو الإنترنت الصوت الناتج عن الذكاء الاصطناعي لانتحال شخصية الموظفين والوصول إلى المعلومات الحساسة، أو إقناع المنظمات باتخاذ إجراءات محددة. استنساخ الصوت: يستخدم مجرمو الإنترنت أدوات الذكاء الاصطناعي المولدة لاستنساخ صوت الضحايا غير المشككين، كجزء من عملية الاحتيال الصوتية أو حملات التضليل.٤- الذكاء الاصطناعي لتوليد النص:
من النص إلى النص (نماذج اللغة الكبيرة): تستخدم الجهات الفاعلة في الدولة الأجنبية نصوصا تم إنشاؤها بواسطة الذكاء الاصطناعي، لتعزيز عمليات التأثير الأجنبي السرية بمحتوى باللغة الإنجليزية، حيث يكون صحيحا من الناحية النحوية بتكاليف هامشية أقل. يستخدم مجرمو الإنترنت أيضا روبوتات الدردشة المعززة بالذكاء الاصطناعي في حملات الهندسة الاجتماعية المتطورة والتصيد الاحتيالي.ووفقا للمركز الوطني للأمن السيبراني، يحدث التصيد الاحتيالي عندما يرسل مهاجمون سيبرانيون رسائل بريد إلكتروني احتيالية تحتوي على روابط لمواقع ويب ضارة، وقد تحتوي هذه المواقع على برامج ضارة مثل برامج الفدية التي يمكنها تخريب الأنظمة.
وتُعرّف شركة "كاسبرسكي" (Kaspersky) الهندسة الاجتماعية على أنها تقنية تلاعب تستغل الخطأ البشري للحصول على معلومات خاصة، أو الوصول إلى ممتلكات قيمة، إذ تستند إلى كيفية تفكير الناس وتصرفهم.
وتعمل هجمات الهندسة الاجتماعية بشكل خاص للتلاعب بسلوك المستخدم، فعندما يتعرف المهاجم على العوامل التي تحفز أفعال المستخدم، يمكنه خداعه والتلاعب به بفعالية، حيث يسعى القراصنة إلى استغلال نقص المعرفة لدى المستخدمين الذين لا يدركون القيمة الكاملة لبياناتهم الشخصية.
الأهداف المحتملة للاستخدام الضار للذكاء الاصطناعي المتعلقة بالانتخاباتتشير وكالة "سيزا" (CISA) إلى أن الجهات الفاعلة الخبيثة تستطيع استخدام أدوات الذكاء الاصطناعي التوليدي لتقليل التكاليف وزيادة حجم الحوادث الإلكترونية، وعمليات التأثير الأجنبي، وذلك عن طريق خلق سلالات من البرامج الضارة التي يمكن أن تتهرب من دفاعات الأمن السيبراني.
كما يمكنها أن تزيد من فعالية هجمات حجب الخدمة الموزعة "دي دي أو س" (DDoS)، والتي يمكن أن تقضي على مواقع الويب، بما في ذلك مواقع الويب المتعلقة بالانتخابات، عن طريق إغراقها بكميات هائلة من البيانات.
يمكن أن تستخدم جهة فاعلة من دولة أجنبية برنامج تحويل النص إلى فيديو، لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية (رويترز) إليكم أمثلة محتملة عن الاستهداف الخبيث للانتخابات باستخدام الذكاء الاصطناعي:١- العمليات الانتخابية
يمكن استخدام روبوتات الدردشة، أو الصوت، أو مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لنشر معلومات مضللة حول الوقت، أو الطريقة ، أو مكان التصويت عبر الرسائل النصية، أو البريد الإلكتروني، أو قنوات وسائل التواصل الاجتماعي، أو الطباعة. يمكن أن يزيد استخدام المحتوى والأدوات التي ينتجها الذكاء الاصطناعي من نطاق وفاعلية عمليات التأثير الأجنبية، وحملات المعلومات المضللة التي تستهدف عمليات الانتخابات. يمكن استخدام قدرات الذكاء الاصطناعي لتوليد سجلات انتخابية مزيفة مقنعة.٢- مكاتب الانتخابات
يمكن استخدام أدوات استنساخ الصوت لانتحال شخصيات موظفي مكاتب الانتخابات للوصول إلى إدارة الانتخابات الحساسة أو المعلومات الأمنية. يمكن أن تستخدم أدوات الذكاء الاصطناعي لتنفيذ هجمات تصيّدية عالية الجودة ضد مسؤولي الانتخابات أو الموظفين للوصول إلى المعلومات الحساسة. يمكن استخدام أدوات برمجة الذكاء الاصطناعي لتطوير برمجيات ضارة، وربما حتى برمجيات خبيثة محسنة يمكنها التهرب بشكل أكبر من أنظمة الكشف. يمكن استخدام النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي والاستنساخ الصوتي لتوليد مكالمات مزيفة للناخبين وإرباك مراكز الاتصال.٣- المسؤولون الانتخابيون
يمكن استخدام المحتوى الناتج عن الذكاء الاصطناعي، مثل المساومة على مقاطع الفيديو المزيفة العميقة، بهدف مضايقة مسؤولي الانتخابات أو انتحال شخصياتهم، أو نزع الشرعية عنهم. يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء ملفات صوتية، أو مقاطع فيديو تنتحل صفة مسؤولي الانتخابات، والتي تنشر معلومات خاطئة للجمهور حول أمن أو نزاهة عملية الانتخابات. يمكن عن طريق الذكاء الاصطناعي تعزيز تجميع بيانات المعلومات العامة لتمكين هجمات التعقب (Doxing Attacks) ضد المسؤولين الانتخابيين. ومصطلح "دوكينغ" (doxing) حسب شركة "كاسبرسكي" هو اختصار لعبارة "دروبينغ دوكس" (dropping dox)، حيث تعني "دوكس" (dox) في اللغة العامية "الوثائق". وعادة ما يعتبر الـ"دوكينغ" فعلا خبيثا، حيث يستخدم ضد الأشخاص الذين يختلف معهم المتسلل ويكرههم.والـ"دوكينغ" ويكتب أحيانا (doxxing) هو فعل للكشف عن معلومات التعريف لشخص ما عبر الإنترنت، مثل اسمه الحقيقي، وعنوان المنزل، ومكان العمل، والهاتف والمعلومات المالية وغيرها من المعلومات الشخصية، ثم يتم تعميم هذه المعلومات وسط الجمهور دون إذن الضحية.
٤- الموردون الانتخابيون
يمكن لتكنولوجيا الذكاء الاصطناعي أن تتيح استخداما متقدما لتقنيات التصيد الاحتيالي والهندسة الاجتماعية. يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء فيديو مزيف لمورد انتخابي يدلي ببيان كاذب يثير تساؤلات عن أمان تقنيات الانتخابات.ووضحت وكالة "سيزا" أنه وعلى الرغم من أن التطورات والاستخدامات الخبيثة لقدرات الذكاء الاصطناعي التوليدي تؤثر على مشهد المخاطر، فإن المسؤولين عن الانتخابات في وضع جيد للتخفيف من هذه التهديدات المحتملة بشكل فعال.
وأشارت إلى أن هؤلاء المسؤولين معتادون على المخاطر مثل الاحتيال الإلكتروني، وعمليات التأثير الأجنبية التي يمكن أن تضخمها تقنيات الذكاء الاصطناعي التوليدي.
أمام كل هذه التحديات، هل سيتمكن المترشح الفائز في الانتخابات الأميركية من الجلوس على الكرسي الأبيض دون تهديدات عالم الآلة؟ وهل ستكون هناك تدابير فعالة تضمن ديمقراطية محصنة ضد تهديدات الذكاء الاصطناعي؟