ثورة الذكاء الاصطناعي في علوم المناخ
تاريخ النشر: 10th, January 2024 GMT
لقد شهدنا حديثا بداية تحول نموذجي في علوم الأرض. وقد أظهرت دراسة نُشرت في مجلة نيتشر (Nature) البريطانية في يوليو الماضي أن الشبكة العصبية (الذكاء الاصطناعي) تنبأت بأحوال الطقس بشكل أفضل من المركز الأوروبي للتنبؤات الجوية المتوسطة المدى، الذي يمتلك نظام التنبؤ الأكثر تقدمًا في العالم. وبعد ذلك، في نوفمبر، أعلنت شركة «ديب مايند» البريطانية المُتخصصة في مجال الذكاء الاصطناعي التابعة لشركة جوجل أن أجهزة الذكاء الاصطناعي للتنبؤ بأحوال الطقس أنتجت تنبؤات أقوى.
يتمثل النهج التقليدي للتنبؤ بالطقس في استخدام الملاحظات التي يتم أخذها في مرحلة زمنية كشروط أولية للمعادلات القائمة على المبادئ المادية. وعلى النقيض من ذلك، سوف يستوعب الذكاء الاصطناعي البيانات التي تم جمعها على مدى فترات طويلة من الزمن ثم «يتعلم» الديناميكيات التي يتعين على المعادلات التقليدية وصفها بوضوح.
تعتمد كل من الأساليب التقليدية والأساليب المُستندة إلى الذكاء الاصطناعي على الحواسيب الفائقة، ولكن الذكاء الاصطناعي ليس بحاجة إلى نظريات مُطورة رسميًا. تُحدد التنبؤات الجوية متى وأين تطير الطائرات، والمسارات التي تسلكها السفن، وتُساعد على إدارة جميع أنواع المخاطر المدنية والعسكرية التي تأتي مع بيئة مُتغيرة. هذا أمر مهم للغاية. وفي حين لا تزال تطبيقات الذكاء الاصطناعي في هذا المجال في بداياتها نسبيًا، ولا تزال هناك الكثير من الأمور التي يتعين العمل عليها، كما هو الحال في القطاعات الأخرى، فإن التنبؤ المُعتمد على الذكاء الاصطناعي قد يحل محل العمالة الماهرة، نظرًا لأن الشبكات العصبية لا تتطلب معرفة بالأرصاد الجوية الديناميكية (إن مؤلفي الدراسة التي نُشرت في مجلة «نيتشر» هم مهندسون ليس لديهم مثل هذه الخلفية). لكن الآثار المُترتبة على ذلك لا تتوقف عند هذا الحد.
في كتابته عن مشكلة التنبؤات الإحصائية في الخمسينات من القرن الماضي، أشار نوربرت وينر، مؤسس علم التحكم الآلي، إلى حقيقة مفادها أنه إذا كنا نعرف بالفعل تاريخ نظام يعرض خصائص مُعينة، فإن إضافة المعرفة بالمعادلات التي تحكم ديناميكياته لن يؤدي بالضرورة إلى تحسين توقعاتنا. كان وينر إلى حد كبير يُعبر عن وجهة نظر نظرية، لأن القيود المفروضة على الملاحظات والبيانات والقدرة الحاسوبية وغيرها من العوامل لم تكن تسمح بأي شيء آخر في ذلك الوقت. لكن الآن، تتناول حجته العنصر الأكثر أهمية، مما يبرز التداعيات الأوسع المُترتبة على التطورات الحديثة في مجال الذكاء الاصطناعي.
في السنوات القليلة الماضية، قمنا بزيادة كبيرة في بيانات الرصد الخاصة بنا عن الأرض. وفي الفترة ما بين عامي 1993 و2003، تم إطلاق 25 قمرًا صناعيًا فقط لرصد الأرض إلى الفضاء؛ ولكن بين عامي 2014 و2022، ارتفع العدد إلى 997، ليصل إجمالي أسطول الأقمار الصناعية المُخصص لرصد ومراقبة كوكب الأرض والأقمار الصناعية الأخرى الموجودة حاليًا في الفضاء إلى حوالي 7560. وبفضل وجود بنية تحتية فضائية واسعة تعمل على بث البيانات حول أي شيء تقريبًا - بدءًا من نمو النباتات، وبخار المياه، ومنشآت البنية التحتية، إلى الأشعة تحت الحمراء، وارتفاع المظلة، وقياسات حالة الغلاف الجوي - فقد دخلنا عصرًا ذهبيًا لرصد الأرض. يصف هذا الأرشيف المتنامي من البيانات تقريبًا كل ما نقوم به نحن والطبيعة على الأرض. وعند دمجه مع نماذج الذكاء الاصطناعي الجديدة وبنيتنا التحتية الحاسوبية الآخذة في التوسع، فإنه يمكن أن يُغير فهمنا للكوكب ودورنا فيه بشكل جذري.
يجب النظر هنا في أزمة التغيرات المناخية. على مدار الأربعين عامًا الماضية، استرشدت استجابة الإنسانية لأزمة المناخ بالهيئة الحكومية الدولية المعنية بتغير المناخ، وهي هيئة علمية مُقسمة حسب الاختصاص: تستخدم العلوم الفيزيائية نماذج لنظام الأرض تضم الكثير من القواسم المُشتركة مع تلك المستخدمة في التنبؤات الجوية، في حين يقوم الاقتصاديون والجغرافيون بشكل منفصل بتحديد مدى تأثير سياسات التكيف والتخفيف من آثار تغير المناخ والتركيز على دورها في مجتمعاتنا.
يتوافق تقسيم العمل هذا مع تقسيم في المنهجيات - الذي ينعكس في مجموعات العمل الثلاثية التابعة للفريق الحكومي الدولي المعني بتغير المناخ. في حين تتحرر نماذج نظام الأرض القائمة على الفيزياء من معادلات المبادئ الأولى، فإن خبراء الاقتصاد ومُصممي نماذج التأثير يستخدمون مجموعة من الأساليب التجريبية والنظريات غير القابلة للاختزال. يمكن للذكاء الاصطناعي أن يُعطل كل هذه الإجراءات.
وعلى الرغم من أنه من غير المرجح أن يحل محل النموذج المناخي التقليدي تمامًا - نظرًا إلى أن سجلنا في مجال الرصد ليس طويلًا بما يكفي لتقديم صورة وافية من الناحية الإحصائية للظواهر المناخية على مر القرون - إلا أنه يؤدي بالفعل دورًا مهمًا في هذا المجال. الأمر الأهم بالنسبة لنا ليس كيفية تصرف النظام المناخي ولكن مدى تأثيره على العالم الذي نعيش فيه نحن والمخلوقات الأخرى.
يمكن أن تساعدنا نماذج الذكاء الاصطناعي - المُحايدة نوعًا ما لأي نظريات علمية أو نماذج تأديبية - في استنتاج وربما التنبؤ بكيفية تغير الكتلة الحيوية على المناظر الطبيعية بمرور الوقت. وهذا بدوره يمكنه تحسين كيفية إدارتنا للغابات والزراعة، وبناء الأدوات التشخيصية وأنظمة الإنذار المُبكر فيما يتصل بمخاطر الحريق أو الفيضانات، وفهم كيفية ارتباط اقتصاديات الطاقة بهذه التغييرات، أو التنبؤ بآثارها على الاقتصاد الأوسع نطاقًا بل وحتى على المفاوضات المُتعلقة بالمناخ. وكل هذا يأتي في مقدمة كيفية نجاح الذكاء الاصطناعي في تسريع الانتقال إلى اقتصاد منخفض الكربون.
بطبيعة الحال، لا يُعد الذكاء الاصطناعي بديلًا عن الفهم العلمي. سيظل العلم مسعى إنسانيا أساسيا، حيث تكمن القيمة في طرح السؤال الصحيح بدلًا من مجرد استخلاص الإجابة من البيانات. ومع ذلك، ينبغي تحقيق أقصى استفادة من التحول المعرفي الذي يُبشر به صعود الذكاء الاصطناعي. يمكن أن يساعدنا هذا الأخير في تحديد ظواهر جديدة يمكن ملاحظتها والتي أفلتت حتى الآن من العدسات التأديبية. كما يمكن أن يُساعدنا أيضًا في إدارة أنظمة على نطاق المناظر الطبيعية المُعقدة للغاية بحيث لا يمكن أن تكون عرضة للتنظير. إنها الأداة الاستكشافية النهائية لكسر الحدود التأديبية. يشكل هذا التحول أيضًا تحديًا سياسيًا عميقًا.
والواقع أن القطاع الخاص يتحكم بشكل متزايد في البنية التحتية التي تُحرك هذه العملية - الأقمار الصناعية لمراقبة الأرض والحوسبة. إن أكبر مالك منفرد للأقمار الصناعية التي تراقب الأرض هي شركة أمريكية تسمى «بلانيت لابس». كما تُعد شركات التكنولوجيا الفائقة - من شركة آي بي إم، وشركة إنفيديا، إلى شركة ديب مايند، وشركة هواوي (التي ألف موظفوها الدراسة التي نُشرت في مجلة نيتشر في يوليو الماضي) - في صدارة التعلم الآلي.
ومع إمكانية الوصول إلى رؤوس الأموال والموارد التي لا مثيل لها، يمكن لهذه الشركات بسهولة التفوق على معظم مراكز البحوث العامة. يمكن أن تدعم بعضها أهدافًا خيرية ونبيلة، لكن في النهاية ليس لديها أي التزام بتقديم الخدمات العامة أو القلق بشأن الوصول العادل إلى بنيتها التحتية. بينما نواجه الآثار المترتبة على الثورة الرقمية والبيئة الطبيعية المُتغيرة، قد يحمل الذكاء الاصطناعي مفتاح الكشف عن بعض التعقيدات التي تجاوزت فهمنا. ولكن مع وجود وسائل البحث بكثرة في أيدي القطاع الخاص، سيحتاج صُناع السياسات إلى توخي الحذر لضمان توفير هذه الأدوات الجديدة للمنافع العامة، بدلًا من الفوائد الخاصة فحسب، وأن تؤدي الأسئلة المطروحة عليهم إلى تقديم إجابات تسترشد بها الأهداف السياسية المشروعة للبلدان.
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی یمکن أن
إقرأ أيضاً:
بين التلاعب والشفافية.. هل يغير الذكاء الاصطناعي مسار الانتخابات الأميركية؟
تقرع الانتخابات الأميركية طبولها، وتشتعل المنافسة بين المرشحين في صراع محموم للفوز بكرسي البيت الأبيض مطبخ القرار الأميركي، والذي أصبح يتطلب مع الثورة التكنولوجية أكثر من مجرد خطاب سياسي، بل إستراتيجية متقدمة تعتمد على الذكاء الاصطناعي كواجهة للسوق الدعائي.
وعلى الرغم من فوائد التقدم التكنولوجي السريع، يثير شبح الذكاء الاصطناعي الذعر في مسار الانتخابات، حيث تتجلى مخاطر التلاعب ونشر المعلومات المضللة بشكل يهدد نزاهة العملية الانتخابية، وهو ما يولد قلقا حقيقيا بشأن الديمقراطية الأميركية.
هل المخاوف بشأن تهديدات الذكاء الاصطناعي لنزاهة الانتخابات مبررة أم مبالغ فيها؟في وقت مبكر من هذا العام، حذر المراقبون والتقنيون من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024، وذلك من خلال نشر المعلومات المضللة عبر الصور المزيفة والإعلانات السياسية المخصصة.
وقد انتشرت هذه المخاوف بين الجمهور، حيث أظهر استطلاع رأي حديث من مؤسسة "بيو" (Pew Research Center) أن 39% يقولون إن الذكاء الاصطناعي سيستخدم على الأغلب لأغراض سيئة خلال الحملة الرئاسية، مقارنة بـ5% فقط قالوا إنه سيتم استخدامه غالبا لأغراض جيدة. وقال 27% آخرون إنه سيتم استخدامه على قدم المساواة بين الخير والشر.
وتقول أغلبية 57% من البالغين في الولايات المتحدة -بما في ذلك حصص متطابقة تقريبا من الجمهوريين والديمقراطيين- إنهم "قلقون للغاية أو قلقون جدا" من أن الأشخاص أو المنظمات التي تسعى للتأثير على الانتخابات ستستخدم الذكاء الاصطناعي لإنشاء وتوزيع معلومات مزيفة أو مضللة حول المرشحين والحملات.
ومع بدء العدّ التنازلي ليومين يفصلاننا عن موعد الانتخابات الأميركية، يبدو أن المخاوف من أن يتمّ إفساد الانتخابات أو تحديدها بواسطة الذكاء الاصطناعي قد كانت مبالغا فيها.
حيث كتبت مجتمع الاستخبارات الأميركية (U.S Intelligence Community) في شهر سبتمبر/أيلول الماضي أنه بينما كانت الجهات الأجنبية مثل روسيا تستخدم الذكاء الاصطناعي التوليدي لتحسين وتسريع محاولاتها للتأثير على الناخبين، فإن هذه الأدوات لم تحدث ثورة في مثل هذه العمليات.
وفي سياق مماثل، يعترف المطلعون على التكنولوجيا أن عام 2024 لم يكن عاما متميزا في استخدام الذكاء الاصطناعي التوليدي في السياسة، إذ تقول بيتسي هوفر مؤسسة مختبرات "هايير غراوند" (Higher Ground Labs)، وهي صندوق استثماري يستثمر في تكنولوجيا السياسية، "هناك الكثير من الحملات والمنظمات التي تستخدم الذكاء الاصطناعي بطريقة أو بأخرى. لكن برأيي لم تصل إلى مستوى التأثير الذي توقعه الناس أو خافوا منه".
من جهة أخرى، ووفقا لتقرير صادر عن مجلة "تايم" (TIME) الأميركية، يحذر الباحثون من أن تأثيرات الذكاء الاصطناعي التوليدي على هذه الدورة الانتخابية لم تُفهم بعد، خاصة بسبب استخدامها على منصات المراسلة الخاصة.
وأكدوا أنه حتى لو بدا تأثير الذكاء الاصطناعي على هذه الحملة غير ملحوظ، فمن المحتمل أن يتضخم في الانتخابات القادمة مع تحسن التكنولوجيا وزيادة استخدامها بين الجمهور العام والعاملين في السياسة.
ويقول سوني غاندي -نائب رئيس الشؤون السياسية في "إنكود جاستس" (Encode Justice)- "أنا متأكد أنه في سنة أو سنتين ستتحسن نماذج الذكاء الاصطناعي". وأضاف "أنا قلق جدا بشأن كيف ستبدو الأمور في عام 2026 وبالتأكيد في عام 2028".
وفي وقت مبكر من هذا العام، أنشأ مجموعة من الباحثين في جامعة "بوردو" (Purdue) مشروع قاعدة بيانات للحوادث المتعلقة بالتزييف العميق السياسي، والتي سجلت منذ ذلك الحين أكثر من 500 حادثة.
المراقبون والتقنيون حذروا من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024 (شترستوك)ومن المثير للدهشة، أن الغالبية العظمى من تلك الفيديوهات لم تصنع لخداع الناس، بل هي في الغالب سخرية، أو تعليم، أو تعليق سياسي، كما تقول الباحثة في المشروع كريستينا ووكر.
وبحسب ووكر، فإن معاني هذه الفيديوهات للمشاهدين غالبا ما تتغير مع انتشارها عبر دوائر سياسية مختلفة، حيث قالت "ينشر شخص ما تزييفا عميقا ويكتب ‘هذا تزييف عميق أنشأته لإظهار إيكس ويو وزاد’. وبعد 20 إعادة تغريد يشاركه شخص آخر كما لو كان حقيقيا".
ويقول دانييل شيف، باحث آخر في المشروع، إن العديد من التزييفات العميقة من المحتمل أن تكون مصممة لتعزيز آراء الأشخاص الذين كانوا بالفعل يميلون للاعتقاد برسائلها.
وأفادت شركة ميتا في أغسطس/آب أن التكتيكات المدفوعة بالذكاء الاصطناعي التوليدي قد قدمت فقط مكاسب طفيفة في الإنتاجية وتوليد المحتوى للتأثير على الحملات، وخلصت إلى أن إستراتيجيات صناعة التكنولوجيا للتقليل من انتشارها تبدو فعالة في الوقت الحالي.
وفي السياق نفسه، يبدو أن الباحثين غير واثقين من مدى تأثير الذكاء الاصطناعي على العملية الانتخابية، حيث قالت ميا هوفمان، زميلة بحث في مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون (Georgetown’s Center for Security and Emerging Technology)، إنه من الصعب تحديد تأثير الذكاء الاصطناعي على الناخبين لعدة أسباب، أحدها هو أن الشركات التكنولوجية الكبرى قد حدّت من كمية البيانات التي تشاركها حول المنشورات.
حيث أنهت شركة "إيكس" الوصول المجاني إلى واجهة برمجة التطبيقات الخاصة بها، وأغلقت ميتا مؤخرا خدمة "كراودتانجل" (Crowd tangle) على فيسبوك وإنستغرام، وهو ما يجعل من الصعب على الباحثين تتبع خطاب الكراهية والمعلومات المضللة عبر تلك المنصات.
وتقول هوفمان "نحن تحت رحمة ما تشاركه هذه الشركات معنا".
وتشعر هوفمان بالقلق من أن المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تتزايد على منصات المراسلة المغلقة مثل واتساب، التي تحظى بشعبية خاصة بين المجتمعات المهاجرة في الولايات المتحدة.
وتقول إنه من الممكن أن تكون هناك جهود قوية للذكاء الاصطناعي تستخدم للتأثير على الناخبين في الولايات المتأرجحة، ولكن من الصعب معرفة فعاليتها إلا بعد الانتخابات.
وتضيف "مع تزايد الأهمية الانتخابية لهذه المجموعات، يتم استهدافها بشكل متزايد بحملات تأثير مخصصة تهدف إلى تقليل أصواتهم وتغيير آرائهم. وبسبب تشفير التطبيقات، فإن المعلومات المضللة تكون أكثر خفاء عن جهود التحقق من الحقائق".
الباحثون غير واثقين من مدى تأثير الذكاء الاصطناعي على العملية الانتخابية (وكالة الأنباء الأوروبية) تصاعد عمليات التزييف العميق السياسيتقول مجلة "تايم" (TIME) الأميركية إن الذكاء الاصطناعي كان له تأثير واضح على السياسة العالمية، فمثلا في دول جنوب آسيا استخدم المرشحون الذكاء الاصطناعي لإغراق الجمهور بمقالات وصور ومقاطع فيديو مزيفة.
وفي فبراير/شباط تم نشر مقطع فيديو مزيف يظهر عمدة لندن صادق خان وهو يدلي بتعليقات تحريضية قبل مسيرة كبيرة مؤيدة لفلسطين، وقال خان وقتها إن المقطع الصوتي أشعل اشتباكات عنيفة بين المتظاهرين المؤيدين والمتظاهرين المعارضين.
ونذكر العملية التي حدثت في الولايات المتحدة أيضا في شهر فبراير/شباط، حيث تلقى سكان نيوهامشير رسائل صوتية مزيفة للرئيس الأميركي جو بايدن وهو يحثهم على عدم التصويت، وقامت لجنة الاتصالات الفدرالية بسرعة بحظر المكالمات الآلية التي تحتوي على أصوات مولدة بالذكاء الاصطناعي.
وتم توجيه اتهامات جنائية للمستشار السياسي الديمقراطي الذي أنشأ الرسائل الصوتية، وكانت هذه الاتهامات بمثابة رسالة تحذيرية قوية للآخرين الذين قد يحاولون استخدام تكتيكات مماثلة.
حيث قال المدعي العام في نيوهامشير جون فورميلا في بيان أعلن فيه التهم: "آمل أن ترسل إجراءات التنفيذ الخاصة بنا إشارة رادعة قوية لأي شخص قد يفكر في التدخل في الانتخابات، سواء من خلال استخدام الذكاء الاصطناعي أو غيره".
ولم تردع هذه الاتهامات والتحذيرات السياسيين الذين صعّدوا أكثر في عمليات التزييف العميق، بمن فيهم الرئيس السابق دونالد ترامب، الذي قام في شهر أغسطس/آب الماضي بنشر صور باستخدام الذكاء الاصطناعي لتايلور سويفت تؤيد ترشحه. بالإضافة إلى صور لكامالا هاريس وهي ترتدي ملابس شيوعية.
وفي سبتمبر/أيلول الماضي تم تداول مقطع فيديو مرتبط بحملة معلومات مضللة روسية يتهم هاريس بالتورط في حادث اصطدام وهروب، حيث تمت مشاهدته ملايين المرات على وسائل التواصل الاجتماعي.
وفي سياق متصل، أشار تقرير مجلة "تايم" أن روسيا كانت معقلا للاستخدامات الخبيثة للذكاء الاصطناعي، حيث يقوم الفاعلون من الدولة بإنشاء نصوص، وصور، وصوتيات، ومقاطع فيديو تم استخدامها في الولايات المتحدة، وغالبا ما تهدف إلى تضخيم المخاوف المتعلقة بالهجرة.
ولم يبد واضحا إن كانت هذه الحملات قد أثرت كثيرا على الناخبين، حيث قالت وزارة العدل الأميركية في سبتمبر/أيلول إنها قامت بتعطيل واحدة من تلك الحملات، المعروفة باسم "دوبلغانغر" (Doppelganger) والتي سعت إلى نشر دعاية الحكومة الروسية.
وقالت وزارة العدل إن الهدف من هذا الجهد هو تقليل الدعم الدولي لأوكرانيا، وتعزيز السياسات الموالية لروسيا، والتأثير على الناخبين في الولايات المتحدة وأماكن أخرى.
وكتبت مجتمع الاستخبارات الأميركي في الشهر نفسه أن هؤلاء الفاعلين الأجانب قد واجهوا عدة تحديات في نشر هذه الفيديوهات، بما في ذلك الحاجة إلى تجاوز القيود المدمجة في العديد من أدوات الذكاء الاصطناعي.
ما الذكاء الاصطناعي التوليدي وكيف يمكن استخدامه بشكل خبيث؟وفقا لوكالة "سيزا" (Cisa) الأميركية، فإن الذكاء الاصطناعي التوليدي هو نوع من البرمجيات يستخدم نماذج إحصائية تعمم الأنماط والهياكل الموجودة في البيانات الحالية، لإعادة تنظيم البيانات الموجودة أو إنشاء محتوى جديد، حيث يمكن أن يتراوح هذا المحتوى من كتابة رموز الحاسوب إلى تأليف نصوص جديدة، وتطوير وسائط تركيبية مثل ملفات الفيديو، والصور، والصوت.
وتقول "سيزا" إن القدرات المولدة للذكاء الاصطناعي أصبحت معتمدة على نطاق واسع، ومن الضروري أن يفهم مسؤولو الانتخابات كيف يمكن لهذه القدرات أن تؤثر على أمن ونزاهة البنية التحتية للانتخابات.
وبالرغم من أن قدرات الذكاء الاصطناعي توفر فرصا لزيادة الإنتاجية، وهو ما يعزز أمن وإدارة الانتخابات، فإن هذه القدرات أيضا تستطيع أن تلحق ضررا أكبر، حيث يمكن للجهات الفاعلة الخبيثة بما في ذلك الجهات الفاعلة في الدولة القومية الأجنبية ومجرمي الإنترنت، الاستفادة من هذه القدرات نفسها لأغراض شائنة.
وأشار المصدر نفسه إلى أنه بالنسبة لدورة انتخابات 2024، من المرجح ألا تؤدي قدرات الذكاء الاصطناعي التوليدية إلى مخاطر جديدة، لكنها قد تضخم المخاطر الحالية على البنية التحتية للانتخابات.
وطرحت وكالة "سيزا" أمثلة عن كيفية استخدام الجهات الخبيثة قدرات الذكاء الاصطناعي التوليدية، حيث تشمل:
١- الذكاء الاصطناعي لتوليد الفيديو
من النص إلى الفيديو: يمكن أن تستخدم جهة فاعلة من دولة أجنبية برنامج تحويل النص إلى فيديو، لإنشاء مقاطع فيديو مزيفة لمذيعين حقيقيين يقدمون أخبارا مزيفة لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية. فيديوهات التزييف العميق: يستخدم مجرمو الإنترنت مقاطع الفيديو المزيفة العميقة لأشخاص مشهورين لإقناع الجمهور بالوقوع في فخ الاحتيال.٢- الذكاء الاصطناعي لتوليد الصورة
من النص إلى الصورة: تستخدم الجهات الفاعلة من دول أجنبية مولدات النص إلى صورة لإنشاء صور زائفة ومضللة لتغيير تصور الجمهور للحقائق خلال الأزمات. صور معدلة بواسطة الذكاء الاصطناعي: تقوم الجهات الفاعلة من دول أجنبية بإنشاء صور تركيبية لملفات تعريف حسابات مزيفة تستخدم في عمليات التأثير. إضافة إلى تعديل الصور أو الفيديوهات الأصلية لدعم سرد هذه العمليات.٣- الذكاء الاصطناعي لتوليد الصوت
من النص إلى الصوت: يستخدم مجرمو الإنترنت الصوت الناتج عن الذكاء الاصطناعي لانتحال شخصية الموظفين والوصول إلى المعلومات الحساسة، أو إقناع المنظمات باتخاذ إجراءات محددة. استنساخ الصوت: يستخدم مجرمو الإنترنت أدوات الذكاء الاصطناعي المولدة لاستنساخ صوت الضحايا غير المشككين، كجزء من عملية الاحتيال الصوتية أو حملات التضليل.٤- الذكاء الاصطناعي لتوليد النص:
من النص إلى النص (نماذج اللغة الكبيرة): تستخدم الجهات الفاعلة في الدولة الأجنبية نصوصا تم إنشاؤها بواسطة الذكاء الاصطناعي، لتعزيز عمليات التأثير الأجنبي السرية بمحتوى باللغة الإنجليزية، حيث يكون صحيحا من الناحية النحوية بتكاليف هامشية أقل. يستخدم مجرمو الإنترنت أيضا روبوتات الدردشة المعززة بالذكاء الاصطناعي في حملات الهندسة الاجتماعية المتطورة والتصيد الاحتيالي.ووفقا للمركز الوطني للأمن السيبراني، يحدث التصيد الاحتيالي عندما يرسل مهاجمون سيبرانيون رسائل بريد إلكتروني احتيالية تحتوي على روابط لمواقع ويب ضارة، وقد تحتوي هذه المواقع على برامج ضارة مثل برامج الفدية التي يمكنها تخريب الأنظمة.
وتُعرّف شركة "كاسبرسكي" (Kaspersky) الهندسة الاجتماعية على أنها تقنية تلاعب تستغل الخطأ البشري للحصول على معلومات خاصة، أو الوصول إلى ممتلكات قيمة، إذ تستند إلى كيفية تفكير الناس وتصرفهم.
وتعمل هجمات الهندسة الاجتماعية بشكل خاص للتلاعب بسلوك المستخدم، فعندما يتعرف المهاجم على العوامل التي تحفز أفعال المستخدم، يمكنه خداعه والتلاعب به بفعالية، حيث يسعى القراصنة إلى استغلال نقص المعرفة لدى المستخدمين الذين لا يدركون القيمة الكاملة لبياناتهم الشخصية.
الأهداف المحتملة للاستخدام الضار للذكاء الاصطناعي المتعلقة بالانتخاباتتشير وكالة "سيزا" (CISA) إلى أن الجهات الفاعلة الخبيثة تستطيع استخدام أدوات الذكاء الاصطناعي التوليدي لتقليل التكاليف وزيادة حجم الحوادث الإلكترونية، وعمليات التأثير الأجنبي، وذلك عن طريق خلق سلالات من البرامج الضارة التي يمكن أن تتهرب من دفاعات الأمن السيبراني.
كما يمكنها أن تزيد من فعالية هجمات حجب الخدمة الموزعة "دي دي أو س" (DDoS)، والتي يمكن أن تقضي على مواقع الويب، بما في ذلك مواقع الويب المتعلقة بالانتخابات، عن طريق إغراقها بكميات هائلة من البيانات.
يمكن أن تستخدم جهة فاعلة من دولة أجنبية برنامج تحويل النص إلى فيديو، لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية (رويترز) إليكم أمثلة محتملة عن الاستهداف الخبيث للانتخابات باستخدام الذكاء الاصطناعي:١- العمليات الانتخابية
يمكن استخدام روبوتات الدردشة، أو الصوت، أو مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لنشر معلومات مضللة حول الوقت، أو الطريقة ، أو مكان التصويت عبر الرسائل النصية، أو البريد الإلكتروني، أو قنوات وسائل التواصل الاجتماعي، أو الطباعة. يمكن أن يزيد استخدام المحتوى والأدوات التي ينتجها الذكاء الاصطناعي من نطاق وفاعلية عمليات التأثير الأجنبية، وحملات المعلومات المضللة التي تستهدف عمليات الانتخابات. يمكن استخدام قدرات الذكاء الاصطناعي لتوليد سجلات انتخابية مزيفة مقنعة.٢- مكاتب الانتخابات
يمكن استخدام أدوات استنساخ الصوت لانتحال شخصيات موظفي مكاتب الانتخابات للوصول إلى إدارة الانتخابات الحساسة أو المعلومات الأمنية. يمكن أن تستخدم أدوات الذكاء الاصطناعي لتنفيذ هجمات تصيّدية عالية الجودة ضد مسؤولي الانتخابات أو الموظفين للوصول إلى المعلومات الحساسة. يمكن استخدام أدوات برمجة الذكاء الاصطناعي لتطوير برمجيات ضارة، وربما حتى برمجيات خبيثة محسنة يمكنها التهرب بشكل أكبر من أنظمة الكشف. يمكن استخدام النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي والاستنساخ الصوتي لتوليد مكالمات مزيفة للناخبين وإرباك مراكز الاتصال.٣- المسؤولون الانتخابيون
يمكن استخدام المحتوى الناتج عن الذكاء الاصطناعي، مثل المساومة على مقاطع الفيديو المزيفة العميقة، بهدف مضايقة مسؤولي الانتخابات أو انتحال شخصياتهم، أو نزع الشرعية عنهم. يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء ملفات صوتية، أو مقاطع فيديو تنتحل صفة مسؤولي الانتخابات، والتي تنشر معلومات خاطئة للجمهور حول أمن أو نزاهة عملية الانتخابات. يمكن عن طريق الذكاء الاصطناعي تعزيز تجميع بيانات المعلومات العامة لتمكين هجمات التعقب (Doxing Attacks) ضد المسؤولين الانتخابيين. ومصطلح "دوكينغ" (doxing) حسب شركة "كاسبرسكي" هو اختصار لعبارة "دروبينغ دوكس" (dropping dox)، حيث تعني "دوكس" (dox) في اللغة العامية "الوثائق". وعادة ما يعتبر الـ"دوكينغ" فعلا خبيثا، حيث يستخدم ضد الأشخاص الذين يختلف معهم المتسلل ويكرههم.والـ"دوكينغ" ويكتب أحيانا (doxxing) هو فعل للكشف عن معلومات التعريف لشخص ما عبر الإنترنت، مثل اسمه الحقيقي، وعنوان المنزل، ومكان العمل، والهاتف والمعلومات المالية وغيرها من المعلومات الشخصية، ثم يتم تعميم هذه المعلومات وسط الجمهور دون إذن الضحية.
٤- الموردون الانتخابيون
يمكن لتكنولوجيا الذكاء الاصطناعي أن تتيح استخداما متقدما لتقنيات التصيد الاحتيالي والهندسة الاجتماعية. يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء فيديو مزيف لمورد انتخابي يدلي ببيان كاذب يثير تساؤلات عن أمان تقنيات الانتخابات.ووضحت وكالة "سيزا" أنه وعلى الرغم من أن التطورات والاستخدامات الخبيثة لقدرات الذكاء الاصطناعي التوليدي تؤثر على مشهد المخاطر، فإن المسؤولين عن الانتخابات في وضع جيد للتخفيف من هذه التهديدات المحتملة بشكل فعال.
وأشارت إلى أن هؤلاء المسؤولين معتادون على المخاطر مثل الاحتيال الإلكتروني، وعمليات التأثير الأجنبية التي يمكن أن تضخمها تقنيات الذكاء الاصطناعي التوليدي.
أمام كل هذه التحديات، هل سيتمكن المترشح الفائز في الانتخابات الأميركية من الجلوس على الكرسي الأبيض دون تهديدات عالم الآلة؟ وهل ستكون هناك تدابير فعالة تضمن ديمقراطية محصنة ضد تهديدات الذكاء الاصطناعي؟