تمت إعادة ضبط ساعة يوم القيامة عند 90 ثانية حتى منتصف الليل، وهي أقرب ساعة على الإطلاق إلى منتصف الليل، مما يعكس الحالة المستمرة للخطر غير المسبوق الذي يواجهه العالم. 

شددت نشرة علماء الذرة، المشرفين على ساعة يوم القيامة، في إعلانها على أن الساعة يمكن أن تعود إلى الوراء، ولكن يتعين على الحكومات والشعوب اتخاذ إجراءات عاجلة.

تلقي مجموعة متنوعة من التهديدات العالمية بظلال تهديد على مداولات الساعة 2024، بما في ذلك: الحرب بين روسيا وأوكرانيا وتدهور اتفاقيات خفض الأسلحة النووية؛ وأزمة المناخ والتصنيف الرسمي لعام 2023 باعتباره العام الأكثر سخونة على الإطلاق؛ والتطور المتزايد لتقنيات الهندسة الوراثية؛ والتقدم الهائل في الذكاء الاصطناعي التوليدي الذي يمكن أن يؤدي إلى تضخيم المعلومات المضللة وإفساد بيئة المعلومات العالمية مما يزيد من صعوبة حل التحديات الوجودية الأكبر.

وقالت راشيل برونسون، دكتوراه، الرئيس والمدير التنفيذي للنشرة: "لا تخطئوا: إعادة ضبط الساعة عند 90 ثانية حتى منتصف الليل ليس مؤشرا على أن العالم مستقر. العكس تماما. ومن الضروري أن تتحرك الحكومات والمجتمعات في جميع أنحاء العالم. وتظل النشرة مفعمة بالأمل - وملهمة - في رؤية الأجيال الشابة تقود هذه المهمة.

يتم تحديد وقت ساعة القيامة من خلال نشرة مجلس العلوم والأمن لعلماء الذرة (SASB) بالتشاور مع مجلس رعاته، والذي يضم تسعة من الحائزين على جائزة نوبل. سابقًا، في يناير 2023، تم ضبط ساعة يوم القيامة على 90 ثانية قبل منتصف الليل، وهو أقرب وقت إلى منتصف الليل على الإطلاق.

يذكر بيان ساعة يوم القيامة: «تستمر الاتجاهات المشؤومة في توجيه العالم نحو كارثة عالمية. إن الحرب في أوكرانيا والاعتماد الواسع النطاق والمتزايد على الأسلحة النووية يزيدان من خطر التصعيد النووي. تنفق الصين وروسيا والولايات المتحدة مبالغ ضخمة لتوسيع أو تحديث ترساناتها النووية، مما يزيد من خطر الحرب النووية الدائم عن طريق الخطأ أو سوء التقدير. في عام 2023، شهدت الأرض العام الأكثر سخونة على الإطلاق، وأثرت الفيضانات العارمة وحرائق الغابات وغيرها من الكوارث المرتبطة بالمناخ على ملايين الأشخاص حول العالم. ومن ناحية أخرى، تسارعت التطورات السريعة والمثيرة للقلق في علوم الحياة وغيرها من التكنولوجيات المعطلة للنظام القديم، في حين لم تبذل الحكومات سوى جهود ضعيفة للسيطرة عليها. ولكن من الممكن أن يصبح العالم أكثر أمانا. يمكن للساعة أن تبتعد عن منتصف الليل."

قال جيري براون، الرئيس التنفيذي للنشرة: “كما لو كانوا على متن سفينة تايتانيك، فإن القادة يوجهون العالم نحو الكارثة – المزيد من القنابل النووية، وانبعاثات الكربون الهائلة، ومسببات الأمراض الخطيرة، والذكاء الاصطناعي. إن القوى الكبرى مثل الصين وأميركا وروسيا هي وحدها القادرة على سحبنا إلى الوراء. وعلى الرغم من العداءات العميقة، يتعين عليهم أن يتعاونوا ــ وإلا فإن مصيرنا محكوم علينا بالهلاك.

وقال بيل ناي، الذي شارك في إعلان ساعة يوم القيامة لعام 2024: “على مدى عقود، كان العلماء يحذروننا من المخاطر التي تواجه البشرية. قد نواجه كارثة ما لم نتمكن من إدارة التقنيات التي ابتكرناها بشكل أفضل. حان وقت العمل."

 

الأبعاد المتعددة للتهديد النووي

تبدو النهاية الدائمة للحرب الروسية في أوكرانيا بعيدة المنال، ويظل استخدام روسيا للأسلحة النووية في ذلك الصراع احتمالا جديا. في فبراير 2023، أعلن الرئيس الروسي فلاديمير بوتين قراره "بتعليق" المعاهدة الجديدة لخفض الأسلحة الاستراتيجية (ستارت الجديدة). وفي مارس، أعلن عن نشر أسلحة نووية تكتيكية في بيلاروسيا. في يونيو، حث سيرجي كاراجانوف، مستشار الرئيس الروسي فلاديمير بوتين، موسكو على النظر في شن ضربات نووية محدودة على أوروبا الغربية كوسيلة لإنهاء الحرب في أوكرانيا بشكل إيجابي. وفي أكتوبر، صوت مجلس الدوما الروسي لصالح سحب تصديق موسكو على معاهدة الحظر الشامل للتجارب النووية، مع استمرار مجلس الشيوخ الأميركي في رفض مجرد مناقشة التصديق.
وتهدد برامج الإنفاق النووي في القوى النووية الثلاث الكبرى ــ الصين، وروسيا، والولايات المتحدة ــ بإشعال سباق تسلح نووي ثلاثي مع انهيار بنية الحد من الأسلحة في العالم. وتعمل روسيا والصين على توسيع قدراتهما النووية، وتتزايد الضغوط في واشنطن لكي ترد الولايات المتحدة بالمثل.
وفي الوقت نفسه، تتفاقم الأزمات النووية المحتملة الأخرى. وتستمر إيران في تخصيب اليورانيوم إلى مستوى قريب من الدرجة المستخدمة في تصنيع الأسلحة، في حين تعرقل الوكالة الدولية للطاقة الذرية فيما يتصل بالقضايا الرئيسية. يبدو من غير المرجح أن تنجح الجهود الرامية إلى إعادة تفعيل الاتفاق النووي مع إيران، وما زالت كوريا الشمالية مستمرة صنع أسلحة نووية وصواريخ بعيدة المدى. ويستمر التوسع النووي في باكستان والهند دون توقف أو ضبط النفس.
ولابد أن تشكل مدى ملاءمة المرشحين لتحمل السلطة الرئاسية الهائلة لإطلاق الأسلحة النووية الشغل الشاغل للانتخابات الأميركية في الخريف. ويصدق هذا بشكل خاص بالنظر إلى المخاوف في نهاية عهد الإدارة السابقة، والتي دفعت رئيس هيئة الأركان المشتركة آنذاك الجنرال مارك ميلي إلى اتخاذ خطوات لضمان استشارته في حال سعى الرئيس السابق لإطلاق أسلحة نووية.
ومن المحتمل أن تتصاعد الحرب في غزة بين إسرائيل وحماس إلى صراع أوسع في الشرق الأوسط يمكن أن يشكل تهديدات لا يمكن التنبؤ بها، على الصعيدين الإقليمي والعالمي.
 

توقعات مشؤومة لتغير المناخ

دخل العالم في عام 2023 إلى منطقة مجهولة حيث عانى من العام الأكثر سخونة على الإطلاق واستمرت انبعاثات غازات الدفيئة العالمية في الارتفاع. وحطمت درجات حرارة سطح البحر في العالم وفي شمال المحيط الأطلسي أرقاما قياسية، ووصل الجليد البحري في القطب الجنوبي إلى أدنى مستوى يومي له منذ ظهور بيانات الأقمار الصناعية. ويخاطر العالم بالفعل بتجاوز هدف اتفاق باريس للمناخ ــ زيادة درجات الحرارة بما لا يزيد على 1.5 درجة مئوية فوق مستويات ما قبل الصناعة ــ بسبب عدم كفاية الالتزامات للحد من انبعاثات الغازات الدفيئة وعدم كفاية تنفيذ الالتزامات التي تم التعهد بها بالفعل. ولوقف المزيد من الانحباس الحراري، يتعين على العالم أن يحقق صافي انبعاثات ثاني أكسيد الكربون إلى الصفر.
لقد استثمر العالم مبلغا قياسيا قدره 1.7 تريليون دولار في الطاقة النظيفة في عام 2023، وتعهدت البلدان التي تمثل نصف الناتج المحلي الإجمالي في العالم بزيادة قدرتها على الطاقة المتجددة إلى ثلاثة أضعاف بحلول عام 2030. ولكن في المقابل، عوضت هذه الاستثمارات استثمارات في الوقود الأحفوري بلغت نحو تريليون دولار. باختصار، الجهود الحالية للحد من انبعاثات غازات الدفيئة غير كافية على الإطلاق لتجنب الآثار البشرية والاقتصادية الخطيرة الناجمة عن تغير المناخ، والتي تؤثر بشكل غير متناسب على أفقر الناس في العالم. وما لم تتم زيادة ملحوظة في الجهود المبذولة، فإن حصيلة المعاناة البشرية الناجمة عن اضطراب المناخ سوف تتزايد حتما.
 

التهديدات البيولوجية المتطورة

استمرت الثورة في علوم الحياة والتكنولوجيات المرتبطة بها في التوسع في نطاقها في العام الماضي، بما في ذلك، على وجه الخصوص، زيادة تعقيد وكفاءة تكنولوجيات الهندسة الوراثية. ونحن نسلط الضوء على قضية واحدة ذات أهمية خاصة: إن التقارب بين أدوات الذكاء الاصطناعي الناشئة والتقنيات البيولوجية قد يمكّن الأفراد بشكل جذري من إساءة استخدام علم الأحياء.
في أكتوبر، وقع الرئيس الأمريكي جو بايدن أمرا تنفيذيا بشأن "الذكاء الاصطناعي الآمن والمأمون والجدير بالثقة" الذي يدعو إلى الحماية "من مخاطر استخدام الذكاء الاصطناعي لهندسة مواد بيولوجية خطيرة من خلال تطوير معايير جديدة قوية لفحص التخليق البيولوجي". وعلى الرغم من كونه خطوة مفيدة، إلا أن الأمر ليس ملزمًا قانونًا. ومكمن القلق هنا هو أن النماذج اللغوية الكبيرة تمكن الأفراد الذين يفتقرون إلى المعرفة الكافية من تحديد واكتساب ونشر العوامل البيولوجية التي من شأنها أن تلحق الضرر بأعداد كبيرة من البشر والحيوانات والنباتات، وغير ذلك من عناصر البيئة. إن الجهود التي أعيد تنشيطها خلال العام الماضي في الولايات المتحدة لمراجعة وتعزيز الرقابة على أبحاث علوم الحياة المحفوفة بالمخاطر مفيدة، ولكن هناك حاجة إلى المزيد.
 

مخاطر الذكاء الاصطناعي

أحد أهم التطورات التكنولوجية في العام الماضي كان يتعلق بالتقدم الكبير في الذكاء الاصطناعي التوليدي. ومن الواضح أن الذكاء الاصطناعي يمثل تكنولوجيا نموذجية مدمرة وأن الجهود الأخيرة في مجال الحوكمة العالمية للذكاء الاصطناعي يجب توسيعها.
يتمتع الذكاء الاصطناعي بإمكانات كبيرة لتضخيم المعلومات المضللة وإفساد بيئة المعلومات المطلوبة لحل القضايا العالمية الكبرى والتي تعتمد عليها الديمقراطية. وقد تكون جهود التضليل المدعومة بالذكاء الاصطناعي عاملا يمنع العالم من التعامل بفعالية مع المخاطر النووية، والأوبئة، وتغير المناخ.
تتسارع الاستخدامات العسكرية للذكاء الاصطناعي. ويحدث بالفعل استخدام واسع النطاق للذكاء الاصطناعي في مجالات الاستخبارات والمراقبة والاستطلاع والمحاكاة والتدريب. ومما يثير القلق بشكل خاص الأسلحة الفتاكة المستقلة، التي تحدد الأهداف وتدمرها دون تدخل بشري. إن القرارات الرامية إلى وضع الذكاء الاصطناعي في السيطرة على الأنظمة المادية المهمة - وخاصة الأسلحة النووية - يمكن أن تشكل بالفعل تهديدا وجوديا مباشرا للبشرية.
ومن حسن الحظ أن العديد من البلدان تدرك أهمية تنظيم الذكاء الاصطناعي وبدأت في اتخاذ خطوات للحد من احتمالات الضرر. وتشمل هذه الخطوات الأولية إطارًا تنظيميًا مقترحًا من قبل الاتحاد الأوروبي، وأمرًا تنفيذيًا من الرئيس بايدن، وإعلانًا دوليًا لمعالجة مخاطر الذكاء الاصطناعي، وتشكيل هيئة استشارية جديدة للأمم المتحدة. لكن هذه مجرد خطوات صغيرة؛ ويتعين علينا أن نفعل الكثير من أجل إرساء قواعد ومعايير فعّالة، على الرغم من التحديات الهائلة التي ينطوي عليها حكم الذكاء الاصطناعي.
 

كيفية إعادة عقارب الساعة إلى الوراء

الجميع على الأرض مصلحة في الحد من احتمالات وقوع كارثة عالمية بسبب الأسلحة النووية، وتغير المناخ، والتقدم في علوم الحياة، والتقنيات المعطلة، والفساد على نطاق واسع في النظام البيئي للمعلومات في العالم. إن هذه التهديدات، منفردة وفي تفاعلها، تتسم بطابع وحجم لا يمكن لأي دولة أو زعيم أن يسيطر عليها. وهذه هي مهمة الزعماء والأمم الذين يعملون معًا في الإيمان المشترك بأن التهديدات المشتركة تتطلب عملاً مشتركًا.

وكخطوة أولى، وعلى الرغم من الخلافات العميقة بينها، يتعين على ثلاث من القوى الرائدة في العالم ــ الولايات المتحدة، والصين، وروسيا ــ أن تبدأ حواراً جاداً حول كل من التهديدات العالمية المذكورة هنا. وعلى أعلى المستويات، يتعين على هذه البلدان الثلاثة أن تتحمل المسؤولية عن الخطر الوجودي الذي يواجهه العالم الآن. ولديهم القدرة على انتشال العالم من حافة الكارثة. وينبغي لهم أن يفعلوا ذلك بوضوح وشجاعة ودون تأخير.

تأسست نشرة العلماء الذريين في عام 1945 على يد ألبرت أينشتاين وجي روبرت أوبنهايمر وعلماء جامعة شيكاغو الذين ساعدوا في تطوير أول أسلحة ذرية في مشروع مانهاتن، وقد أنشأت نشرة العلماء الذريين ساعة يوم القيامة بعد ذلك بعامين، باستخدام صور نهاية العالم (منتصف الليل).  والمصطلح المعاصر للانفجار النووي (العد التنازلي إلى الصفر) لنقل التهديدات للإنسانية والكوكب. يتم ضبط ساعة يوم القيامة كل عام من قبل مجلس العلوم والأمن التابع للنشرة بالتشاور مع مجلس رعاته، والذي يضم تسعة من الحائزين على جائزة نوبل. أصبحت الساعة مؤشرًا معترفًا به عالميًا لضعف العالم أمام الكوارث العالمية التي تسببها التقنيات التي يصنعها الإنسان.

 

المصدر: بوابة الوفد

إقرأ أيضاً:

أخلاقيات الذكاء الاصطناعي

في مقالي السابق بعنوان: «الفن والذكاء الاصطناعي» تناولت هذا الموضوع من بُعد واحد فقط، وهو التساؤل مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الإبداعية، ونفيت عن هذا الفن المصنوع صفة الإبداع، مع التسليم بأهميته ودوره في مجالات معينة لا تُحسَب على الفنون الجميلة. وبوسعنا هنا التساؤل عن مدى مشروعية الفن المصنوع وفقًا للذكاء الاصطناعي من الناحية الأخلاقية. غير أن هذا سيكون مجرد مثال من الأمثلة على مسألة «أخلاقيات الذكاء الاصطناعي» التي تتعدد وتتباين في تطبيقاتها بناءً على تعدد وتباين مجالات الذكاء الاصطناعي ذاته، إذ إنها لا تقتصر على مجال الفن وحده، وإنما تمتد لتشمل كل المجالات العلمية والمعرفية عمومًا التي تؤثر في كل مناحي حياتنا، فهي تمتد لتشمل على سبيل المثال: عملية التفاعل الأخلاقي مع الروبوتات الخاصة بالرعاية الطبية والاجتماعية؛ واستخدام الأسلحة في الحروب؛ فضلًا عن استخدام برامج الذكاء الاصطناعي في عملية التزييف المتقن في مجال الفن والثقافة.

لعل الأخلاقيات المتعلقة باستخدام الآلة الذكية هي أكثر المسائل التي ترِد على الأذهان حينما نتطرق إلى مناقشة أخلاقيات الذكاء الاصطناعي. وهناك اعتقاد شائع بأنه حينما يتم تصميم الآلة الذكية لكي تتخذ مواقف وقرارات، فإن كل شيء يكون على ما يُرَام؛ لأن الناس يعتقدون أن الآلات - بخلاف البشر- لا ترتكب أخطاء، ولا تتورط في اتخاذ قرارات منحازة. ولكن هذا الاعتقاد واهم؛ لأن الآلات الذكية المصممة لكي تعمل باعتبارها «روبوتات» هي آلات من صنع البشر، وهي يتم تزويدها بمعلومات من صنع البشر. وأنا أستخدم هنا كلمة «معلومات» على سبيل التبسيط؛ لأن ما يتم تزويد الآلة به هو برامج خوارزمية شديدة التعقيد، والآلة تكون مصممة على هذا الأساس وعلى الغرض الذي أُنشِئت من أجله. وعلى هذا، فإن تصميم الآلة نفسه يكون عُرضة للتحيز الذي يمكن أن يحدث بطريقة قصدية أو بطريقة غير قصدية. ولهذا يرى بعض الباحثين أن الآلة تواجه المشكلات الأخلاقية نفسها التي نواجهها نحن البشر؛ وهي في النهاية تتخذ القرارات التي سنتخذها أو نود أن نتخذها لو كنا في موقفها.

غير أن المسألة الأخلاقية هنا أعقد من ذلك بكثير؛ لأن برمجة الآلات الذكية وفقًا لخوارزميات معينة لا يعني أن هذه الآلات سوف تتخذ دائمًا قرارًا واحدًا ثابتًا وصائبًا باستمرار؛ لأنها قد تتلقى معطيات مستمدة من العالم الخارجي لا تتطابق مع برمجة الآلات للاستجابة للمعطيات؛ إذ إن المعطيات المستمدة من العالم الخارجي قد تكون ملتبسة مع معطيات أخرى مشابهة بحيث لا تستطيع الآلة أن تحدد بدقة المعطيات المقصودة؛ ويكون عليها أن تتخذ قرارًا قد يكون خاطئًا. ويتضح هذه بوجه خاص في استخدام الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تتصرف ذاتيًّا؛ ومن ثم تصبح عُرضة للخطأ. وليس ببعيد ما يحدث في عالمنا الراهن؛ إذ نجد أن إسرائيل تستخدم هذا النوع من الأسلحة في قتل الفلسطينيين، بل استخدمته في قتل فريق من أعضاء منظمة الغذاء العالمي، متذرعة بهذه الحجة العلمية، وهي أن هذه الأسلحة قابلة لارتكاب الخطأ، ولكنه ليس خطأ بشريّا، أي أنها ليست مبرمجة وفقًا لهذا القصد.

ولكن أخلاقيات الذكاء الاصطناعي تصبح أكثر تعقيدًا حينما ننظر في استخدام الروبوتات في مجال الرعاية الطبية والاجتماعية بوجه عام. ولقد تطورت صناعة هذه الروبوتات وبرمجتها بشكل مذهل، بحيث أصبحنا نجد في عالمنا الآن روبوتات تشبه البشر من الجنسين بمختلف أشكالهم وألوانهم، وهي روبوتات مبرمَجة على أداء الخدمات والرعاية الفائقة، بل التعبير عن المشاعر المتبادلة. وقد أطلق كل هذا عنان الخيال لدى السينمائيين الذين صنعوا أفلامًا تصور هذا الموضوع وتتنبأ بما يمكن أن يؤول إليه في المستقبل القريب. وهناك عشرات الأفلام التي تمثلت هذا الموضوع خلال العقد الأخير، ونال بعضها جوائز الأوسكار. وهناك فيلم - لا يحضرني اسمه - يعد مثالًا جيدًا هنا. يحكي الفيلم عن استعانة زوجين بروبوت يقوم بالخدمة والرعاية الاجتماعية الفائقة، بناءً على إعلان شركة صانعة عن المزايا العديدة لهذا الروبوت الذي هو أحدث إنتاجها. ولأن الروبوت كان مصممًا لأداء كل ما هو مطلوب منه بكل دقة، بل كان أيضًا مصممًا للتعبير عن مشاعره من خلال تعبير صوته ووجهه أيضًا؛ فقد نشأت علاقة عاطفية بين الروبوت والزوجة، واعتاد كل منهما البقاء مع الآخر. وليس ببعيد عنا ما تداولته الأخبار مؤخرًا عن زواج بين شاب ياباني والأنثى الروبوت التي يرافقها! ومثل هذا النوع من الأخبار يتكرر من حين لآخر هنا وهناك.

ولكن أخلاقيات الذكاء الاصطناعي في مجال الفن تتبدى بشكل مختلف، ودور العنصر الإنساني فيه يكون أكثر اتساعًا، والمشكلة الأخلاقية الأساسية هنا تكمن في إمكانية استخدام الآلة الذكية (المبرمجة) في عملية التزييف وانتهاك حقوق الملكية الفكرية: فلقد أصبح من المألوف قيام بعض المحترفين بسرقة «التيمة الأساسية» في لوحة ما، وإدخال بعض التعديلات والرتوش على تفاصيل اللوحة لكي تبدو في النهاية وكأنها عمل إبداعي! كما أن مستخدمي الذكاء الاصطناعي يمكنهم محاكاة أسلوب فنان ما وإنتاج أعمال ينسبونها إليه، ولكن من حسن الحظ أن هناك برامج في الذكاء الاصطناعي نفسه يمكنها الكشف عن هذا التزييف.

كل ما سبق يعني أن الذكاء الاصطناعي هو- كالتكنولوجيا عمومًا- أداة محايدة يمكن حسن استخدامها أو إساءة استخدامها؛ وبالتالي فإن هناك حاجة إلى وضع حدود للذكاء الاصطناعي، من خلال مبادئ تشريعية ومواثيق أخلاقية دولية لها طبيعة إلزامية.

د. سعيد توفيق أستاذ علم الجمال والفلسفة المعاصرة بجامعة القاهرة

مقالات مشابهة

  • أخلاقيات الذكاء الاصطناعي
  • الخبراء يجتمعون في مسقط لإعداد "ميثاق العالم الإسلامي للذكاء الاصطناعي"
  • حلقة إقليمية تستعرض البرامج التنفيذية لإعداد ميثاق العالم الإسلامي للذكاء الاصطناعي
  • حلقةُ عمل إقليمية حول ميثاق العالم الإسلامي للذكاء الاصطناعي في منطقتي آسيا والشرق الأوسط
  • هواوي تعلن عن بدء التشغيل التجاري لشبكات الجيل الخامس المتقدمة ودعم عصر الذكاء الاصطناعي
  • رئيس البنك الأهلي ينتقد تصرفات رابطة الأندية
  • نشرة منتصف الليل: استثناء هذه الأنشطة من مواعيد غلق المحلات.. وتفاصيل التغيير الوزاري وعدد الراحلين
  • دولة أوروبية تهدد بـالأسلحة النووية إذا تعرض استقلالها
  • إغلاق المحال التجارية العاشرة مساءً والكافيهات والبازرات الثانية عشرة منتصف الليل
  • الرئيس الصربي يحذر من صراع عالمي وشيك.. الشرق والغرب يتجه لشراء الأسلحة