هل سيتخذ الذكاء الاصطناعي منفردا قرار الحرب النووية قريبا؟
تاريخ النشر: 26th, November 2024 GMT
منذ اللحظة الأولى التي بدأ فيها الذكاء الاصطناعي في الدخول إلى نطاق التطبيق قبل سنوات، كانت هناك مخاوف حقيقية من استخدامه في الجوانب العسكرية، ومع ذلك لم تمتنع الجيوش من التسابق على إدماجه في كافة جوانب عملها.
لكن حينما يلتقي الذكاء الاصطناعي بخوارزمياته المعقدة مع القرار بإطلاق السلاح النووي، فإن معدلات الخطورة تزداد في التسارع، وقد تكون المحصلة كارثة عالمية، ثمنا فادحا لتلك المخاطرة.
لم يسبق لأي تكنولوجيا منذ القنبلة الذرية أن أثارت خيالات ومخاوف مروعة مثلما فعل الذكاء الاصطناعي. فما إن بدأت أنظمة الذكاء الاصطناعي، على غرار برنامج ChatGPT، في إظهار لمحات من التفكير المنطقي في نوفمبر/تشرين الثاني 2023، حتى غدت شبكة الإنترنت تعج بسيناريوهات يوم القيامة.
ورغم أن معظم هذه السيناريوهات خيالية، فإنها تدفعنا إلى تصور مدى السوء الذي قد تؤول إليه الأمور إذا اكتسب الذكاء الاصطناعي فهما مختلفا للعالم بعيدا عن الصورة التي تتجلى أمام مبتكريه البشر. ومع ذلك، سنجد أن ثمة سيناريو واحدا لا يتطلب خيالا جامحا، وهو إدماج الذكاء الاصطناعي تدريجيا في أكثر التقنيات تدميرا اليوم.
لقد بدأت القوى العسكرية الكبرى في العالم سباقا لخلق آصرة تربط بين الذكاء الاصطناعي والحرب عن طريق منح الخوارزميات القدرة على التحكم في أسلحة معينة أو أسراب الطائرات المسيّرة (بدون طيار)، دون منح الذكاء الاصطناعي دورا في وضع الإستراتيجيات العسكرية الكبرى أو الانضمام لاجتماعات القيادات العسكرية العليا.
ولكن هناك جاذبية أو إغراء في فكرة تصعيد استخدام الذكاء الاصطناعي في القيادة العسكرية، بالطريقة ذاتها التي انجذب بها العالم لفكرة سباق التسلح النووي في الماضي. وتعتمد سرعة هذا التحول على مدى سرعة تقدم التكنولوجيا التي يبدو أنها تتقدم بسرعة، كما أن مدى تطبيقه يعتمد على بصيرتنا نحن البشر، وعلى قدرتنا على التصرف بضبط النفس الجماعي.
في هذا السياق، تشير جاكلين شنايدر، مديرة مبادرة محاكاة الألعاب الحربية والأزمات في مؤسسة هوفر بجامعة ستانفورد، مؤخرا إلى لعبة ابتكرتها عام 2018، تُحاكي هذه اللعبة صراعا نوويا سريع التطور، وتم لعبها 115 مرة من قِبل شخصيات بارزة، مثل رؤساء دول سابقين ووزراء خارجية وضباط كبار. ولأن فكرة قرب اندلاع حرب نووية نادرة تاريخيا، فإن لعبة شنايدر تتيح فرصة نادرة لرؤية كيف يمكن للناس أن يتخذوا قراراتهم في ظروف مستعصية تنطوي على أعلى المخاطر البشرية.
تسير القصة على هذا النحو: يُنقل أحد الرؤساء وأعضاء حكومته بصورة عاجلة إلى قبو الجناح الغربي لتلقي إحاطة إعلامية بالغة الخطورة بعدما تأجج صراع إقليمي وتحول إلى صراع محتدم، وبدأ العدو يفكر في توجيه ضربة نووية. في تلك الأثناء، يسود التوتر غرفة العمليات، ويبدأ الاستعداد الفوري لضربة انتقامية، ولكن سرعان ما يتلقى مجلس الوزراء معلومات مقلقة، إذ تبين أن العدو طوّر سلاحا إلكترونيا جديدا. وتشير معلومات استخباراتية حديثة إلى أن هذا السلاح قادر على اختراق نظام الاتصالات الذي يربط الرئيس بقواته النووية؛ ما يعني أن أي أوامر إطلاق قد لا تصل إلى الضباط المسؤولين عن تنفيذها.
وكما سنرى، فالخيارات المتاحة في هذا السيناريو لا تُبشِّر بالخير. يفوّض بعض اللاعبين سلطة إطلاق الصواريخ النووية للضباط في مواقع الصواريخ بحيث يتخذون القرار بشأن ما إذا كان يجب الرد بضربة نووية مضادة، وهو خيار مثير للرعب. لكن ما أزعج جاكلين شنايدر أكثر هو إستراتيجية أخرى اتبعها لاعبون آخرون بتكرار مفاجئ، ففي العديد من المرات عبّر اللاعبون الذين يخشون فقدان السيطرة الكاملة على القيادة عن رغبتهم في أتمتة قدرات الإطلاق النووي بالكامل، إذ دافعوا عن فكرة منح الخوارزميات سلطة تحديد توقيت الرد النووي المناسب، بحيث يكون الذكاء الاصطناعي وحده هو من يقرر ما إذا كانوا سيدخلون في مواجهة نووية.
الواقع أن لعبة شنايدر مُصمَّمة لتكون قصيرة ومجهِدة. أما توجيهات اللاعبين المتعلقة بالأتمتة فلم تكن مفصلة بدقة كما قد يفعل المهندسون، إذ لم يكن واضحا كيفية تنفيذها بالضبط، أو ما إذا كان من الممكن إعداد أي نظام آلي في وقت كافٍ قبل تفاقم الأزمة، ولكن مجرد نزعة اللاعبين نحو الأتمتة أو رغبتهم في الاعتماد على الذكاء الاصطناعي حتى دون تفاصيل دقيقة يكشف عن شيء مهم حول تفكيرهم أو موقفهم. وعن ذلك تقول شنايدر: "ينظر الناس إلى هذه التقنية بتفاؤل مفرِط، وتنبع مخاوفي من زيادة رغبة القادة في استخدام الذكاء الاصطناعي لتقليل حالة عدم اليقين، رغم أنهم لا يدركون إلى أي مدى تنطوي هذه الخوارزميات على احتمالات غير مؤكدة".
يقدِّم الذكاء الاصطناعي نوعا من وهم الدقة البالغة، وخاصة عند مقارنته بالبشر الذين قد يكونون عرضة للأخطاء وغير مستقرين إزاء قراراتهم. ورغم ذلك، تعتبر أكثر أنظمة الذكاء الاصطناعي تقدما اليوم أشبه بصناديق سوداء، بمعنى أنه يتعذر علينا فهم كيفية عملها. وفي المواقف العدائية المعقدة عالية الخطورة، قد تكون مفاهيم الذكاء الاصطناعي حول ما يشكِّل الفوز مُشوشة أو غير واضحة، وربما غريبة عن الفهم البشري.
وإذا ما تأملنا في الأمور من منظور أعمق وأهم، سندرك أن الذكاء الاصطناعي قد لا يفهم ما كان يعنيه كل من رونالد ريغان (الرئيس الأربعين للولايات المتحدة)*، وميخائيل غورباتشوف (الزعيم الأخير للاتحاد السوفياتي)* عندما قالا: "لا يمكن الانتصار في حرب نووية".
لا شك من وجود سوابق تاريخية لأتمتة القرارات المتعلقة بالفناء البشري بسبب الحرب النووية، فبعد الحرب العالمية الثانية، ظهرت كل من الولايات المتحدة والاتحاد السوفياتي بوصفهما قوتين عظميين، وبدا أنهما قد يتوجهان نحو حرب عالمية ثالثة، لكنهما تجنبا هذا المصير عبر بناء نظام يعتمد على "التدمير المتبادل المؤكد"، وهو نظام يقوم على مبدأ الردع المتبادل، ويعتمد على توازن دقيق ومرعب، ولكنه قد يتزعزع كلما حقق أي من الطرفين تقدما تكنولوجيا جديدا. وفي العقود الأخيرة من الحرب الباردة، ساور القادة السوفييت قلق من أن قدرتهم على الرد على ضربة نووية أميركية قد لا تكون مؤكدة أو موثوقة (أي أن هناك احتمالا أن تفشل هذه القدرة في العمل عند الحاجة*)، فقاموا بتطوير برنامج أطلقوا عليه "اليد الميتة" (وهو نظام يضمن تنفيذ ضربة نووية تلقائية حتى في حال فقدان القيادة السوفياتية القدرة على الرد*).
كانت آلية عمل "اليد الميتة" السوفياتية بسيطة للغاية، لدرجة أنها تجاوزًا تعتبر خوارزمية. ففي حالة تفعيل النظام أثناء أزمة نووية، إذا توقف مركز القيادة والتحكم خارج موسكو عن تلقي الاتصالات من الكرملين، ستبدأ آلة خاصة في التحقق من الأجواء فوق العاصمة، وإذا اكتشفت هذه الآلة وميضا ساطعا وإشعاعا ناجما عن انفجار نووي، فستُطلَق جميع الصواريخ المتبقية نحو الولايات المتحدة. ورغم تحفظ روسيا حول هذا النظام، إلا أنه في عام 2011 أعلن قائد القوات الصاروخية الإستراتيجية في البلاد أن هذا النظام لا يزال في حالة استعداد للعمل واستخدامه في حالات الطوارئ، ويعمل كما لو كان في وضع قتالي حقيقي. وفي عام 2018، قال قائد سابق لهذه القوات إن هذا النظام قد "أُجريت عليه تحسينات".
دفع الذكاء الاصطناعي إلى أعلى سلاسل القيادةفي عام 2019 كتب كل من كيرتس ماكجيفن، العميد المساعد في معهد القوات الجوية للتكنولوجيا، وآدم لوثر، مدير الأبحاث والتعليم في معهد أبحاث التكنولوجيا في لويزيانا، مقالا يشير إلى أن التقنيات الحديثة أدت إلى تقليل الفترة الزمنية بين لحظة اكتشاف هجوم محتمل وبين اللحظة الأخيرة التي يمكن فيها للرئيس إصدار أمر بضربة انتقامية. ومن رأيهم أن هذه النافذة الزمنية إذا تقلصتْ أكثر فقد لا تتمكن أي دولة من الرد بهجوم مضاد، لذا يرون أن الحل هو دعم الردع النووي بالذكاء الاصطناعي الذي يمكنه اتخاذ قرارات الإطلاق بسرعة الحوسبة.
إن ماكجيفن ولوثر محقان بشأن تقلص الفترة الزمنية لاتخاذ قرار كهذا، ففي بداية الحرب الباردة كانت الطائرات القاذفة مثل تلك التي استخدمت فوق هيروشيما هي الوسيلة المفضلة للهجمات الأولى. استغرقتْ هذه الطائرات وقتا طويلا في الطيران بين الاتحاد السوفياتي والولايات المتحدة، وبما أنها تحت قيادة بشر، كان من الممكن إصدار أوامر لهم بالعودة وإلغاء الهجوم إذا تغيّرت الظروف، لذلك بنى الأميركيون سلسلة من محطات الرادار عبر القطب الشمالي الكندي وجرينلاند وآيسلندا حتى يتسنى للرئيس الحصول على ساعة أو أكثر من التحذير قبل حدوث انفجار نووي فوق مدينة أميركية. وكانت هذه الفترة الزمنية كافية للتواصل مع الكرملين، ومحاولة إسقاط الطائرات القاذفة، وإن لم تنجح المحاولات، يبقى هناك وقت كافٍ لإصدار أمر بالرد الكامل.
ولكن في عام 1958 نجح الاتحاد السوفياتي في تقليص الفترة الزمنية المتاحة للرد على هجوم نووي من خلال الصواريخ العابرة للقارات (ICBM). فخلال عقد من الزمان، ثُبتت مئات منها في قاع أميركا الشمالية وأوراسيا، والمدهش أنه يمكن لأي منها الطيران عبر نصف الكرة الشمالي في أقل من 30 دقيقة. وللاستفادة من كل دقيقة متاحة للرد، أطلقت كلتا القوتين العظميين أساطيل من الأقمار الصناعية المبرمجة على الكشف عن الأشعة تحت الحمراء المميزة التي تنتج عن إطلاق الصواريخ. وفي النهاية، تمكنت هذه الأقمار الصناعية من تتبع الصاروخ بدقة وتحديد مساره.
وبعد تطوير الغواصات المسلحة نوويا في السبعينات، أصبحت مئات الصواريخ الأخرى المجهزة برؤوس حربية قادرة على أن تجوب محيطات العالم وتكون أقرب إلى أهدافها، وهو ما أدى إلى تقليص فترة اتخاذ القرار إلى النصف، أي إلى 15 دقيقة أو ربما أقل. وحتى لو لم تنجح القوى النووية الكبرى قط في تطوير تقنيات جديدة للصواريخ النووية، فإن 15 دقيقة أو أقل تظل فترة زمنية قصيرة للغاية لاتخاذ قرار بشري مدروس.
ومع ذلك، تعمل هذه الدول على تطوير تكنولوجيا صاروخية جديدة، بما في ذلك الصواريخ الفرط صوتية (وهي أسلحة قادرة على الانطلاق بسرعة تفوق سرعة الصوت*)، والتي بدأت روسيا بالفعل باستخدامها في أوكرانيا لتنفيذ ضربات سريعة وتجنب الدفاعات الصاروخية. بينما على الجانب الآخر، تسعى كل من روسيا والصين لاستخدام هذه الصواريخ الفرط صوتية لحمل رؤوس نووية في المستقبل، ومن المحتمل أن تُقلص هذه التقنيات وقت اتخاذ القرارات النووية إلى النصف مرة أخرى.
إطلاق ضربات قاتلة من تلقاء أنفسهالا يزال الهجوم النووي المباغت مخاطرة كبيرة لأن بعض الدول حتى بعد الهجوم الأول عليها قد تحتفظ بقدرة على الرد، خصوصا من خلال غواصاتها النووية العصية على التدمير. ومع ذلك، قد يتصرف بعض قادة الدول النووية بتهور، خاصة بعد تقلص الوقت المتاح لاتخاذ القرار بالضرب النووي، وهو ما سيجعل هجمات "قطع الرأس" (أي تدمير القيادة) أكثر إغراء بالنسبة إليهم. لذلك، قد تفكر الدول في إنشاء نظام "يد ميتة" لضمان رد نووي تلقائي حتى إذا دُمرتْ القيادة. بعد نشر مقال ماكجيفين ولوثر، سُئل الفريق جون شاناهان، مدير مركز الذكاء الاصطناعي المشترك في وزارة الدفاع الأميركية، عن رأيه بشأن أتمتة الأسلحة النووية، وجاءت إجابته بأنه على الرغم من كونه من أقوى المؤيدين لاستخدام الذكاء الاصطناعي في الجيش، فإن التحكم في الأسلحة النووية هو المجال الوحيد الذي يتردد بشأنه.
ثمة مشاريع قائمة لتطوير الذكاء الاصطناعي منذ بداية عام 2021، وما زالت تسعى الدول منذ ذلك الحين إلى زيادة تمويل الذكاء الاصطناعي. وعلى الرغم من أن هذه المشاريع ليست كلها معروفة، فإن ملامح بعض هذه القوى الآلية بدأت تتضح. فمثلا ستتمكن الدبابات المستقبلية من رصد التهديدات بنفسها، بحيث يمكن للمشغّلين ببساطة لمس المواقع المميزة على الشاشة للقضاء على المهاجمين المحتملين. كما أن طائرات F-16 الحربية ستتضمن خوارزميات تساعد الطيارين في تنفيذ مناورات جوية معقدة؛ ما يتيح لهم التركيز على إطلاق الأسلحة والتنسيق مع أسراب الطائرات المسيّرة ذاتية التشغيل.
على المنوال ذاته، قررت بعض الدول تحديث سياستها لتوضيح أنه سيُسمَح بتطوير أسلحة تعتمد على الذكاء الاصطناعي يمكنها إطلاق النار بصورة مستقلِّة عن البشر، وهي قدرة تثير أسئلة أخلاقية كبيرة. لكن حتى هذه الأنظمة ستعمل في الأساس كجنود ميدانيين، أي أنها ستبقى تحت توجيهات البشر في أرض المعركة. ومع ذلك، فإن دور الذكاء الاصطناعي في قيادة المعارك ووظائف التخطيط الإستراتيجي لا يزال محدودا في استخدام الخوارزميات الاستخباراتية التي تجمع وتختصر كميات كبيرة من البيانات من مئات المستشعرات، مثل الميكروفونات تحت الماء، ومحطات الرادار الأرضية، والأقمار الصناعية التجسسية.
لن يُطلَب من الذكاء الاصطناعي التحكم في تحركات القوات أو إطلاق هجمات منسقة في المستقبل القريب، ولكن من الممكن أن تتسارع وتيرة الحرب وتصبح أكثر تعقيدا جرّاء الأسلحة المعتمدة على الذكاء الاصطناعي. فإذا واجه القادة العسكريون صعوبة في مجاراة الذكاء الاصطناعي للعدو الذي قد يتمكن من فهم وتحليل مواقف إستراتيجية ديناميكية تتضمن ملايين المتغيرات بصورة مستمرة وبدون توقف، أو إذا خشيت وزارة الدفاع من هذا السيناريو، فقد يلعب الذكاء الاصطناعي أدوارا مهمة في اتخاذ القرارات العسكرية.
صحيح أن قدرات المعالجة الهائلة للذكاء الاصطناعي تُستخدَم بالفعل بصورة مفيدة في أنظمة الإنذار المبكر، إلا أن الأتمتة قد تؤدي إلى مخاطر جسيمة. ففي عام 1983 على سبيل المثال، أخطأ نظام إنذار مبكر سوفييتي حينما فسّر السحب المتلألئة فوق الغرب الأوسط الأميركي على أنها صواريخ قادمة، ونجحوا في تجنب هذه الكارثة النووية بفضل العقيد السوفياتي ستانيسلاف بيتروف الذي راوده شعور داخلي بأن الأمر كان إنذارا خاطئا، وتصرف بناء على هذا الشعور. وعلى الرغم من أن خوارزميات الرؤية الحاسوبية اليوم أكثر تطورا، فإن آلية عملها لا زال يشوبها بعض الغموض. ففي عام 2018، أثبت باحثون في مجال الذكاء الاصطناعي أن التعديلات الطفيفة في صور الحيوانات يمكن أن تخدع الشبكات العصبية وتجعلها تصنِّف حيوان الباندا باعتباره قرد جيبون. وهو ما يثير المخاوف إزاء رد فعل الذكاء الاصطناعي إذا ما واجه ظواهر جوية غير مألوفة لم تندرج في بياناته التدريبية، فقد "يتخيل" هجمات قادمة و يُصدر إنذارات كاذبة.
توليد سرديات نصية واضحة للأزماتمع استمرار تطور النماذج الكبيرة للغة، قد يُطلَب من الذكاء الاصطناعي في نهاية المطاف توليد سرديات نصية واضحة للأزمات سريعة التطور، بما في ذلك الأزمات النووية. وبمجرد أن تتجاوز هذه السرديات المعلومات البسيطة حول عدد ومواقع الصواريخ القريبة، فإنها ستصبح أشبه بتصريحات المستشارين التي تنطوي على التفسير والإقناع. وقد يثبت الذكاء الاصطناعي أنه مستشار ممتاز بفضل طبيعته الموضوعية أو المحايدة، ومعلوماته الغنية، وموثوقيته الدائمة. وهذا هو الأمل المرجو، لأنه حتى لو لم يُطلَب منه تقديم توصيات للرد، فإن أسلوب عرض المعلومات الذي يستخدمه سيؤثر بلا شك على قرارات الرئيس.
ولكن إذا ما أُتيحت للذكاء الاصطناعي الذي لا يملك سلطة الأسلحة النووية حرية التصرف الكافية في التعامل مع الحروب التقليدية، فإنه قد يلجأ إلى حيلة تؤدي بدون قصد إلى تأجيج الصراع وتصعيده للحد الذي قد يفضي إلى إطلاق صاروخ نووي في حالة من الذعر. أو قد يصمم عمدا مواقف في ساحة المعركة تُفضي إلى إطلاق نووي إذا كان يعتقد أن استخدام الأسلحة النووية من شأنه أن يحقق الأهداف الموكلة إليه. وقد تكون خطوات الذكاء الاصطناعي غير قابلة للتنبؤ مثلما حدث مع قائد بسيط صممته شركة OpenAI، حيث تغلب على لاعبين بشريين في نسخة معدلة من لعبة Dota 2، وهي لعبة محاكاة للمعارك، باستخدام إستراتيجيات لم يفكروا فيها قط (ومن الجدير بالذكر أن هذا القائد أثبت استعداده للتضحية بمقاتليه).
هذه السيناريوهات البعيدة لن تتحقق في القريب العاجل، إذ يُنظَر إلى الذكاء الاصطناعي اليوم بريبة، وإذا ما أدى استخدامه المتزايد إلى أزمة مثل انهيار في سوق الأسهم، فقد تتراجع احتمالات استخدامه بصورة أوسع، على الأقل لفترة من الزمن. ولكن لو افترضنا أن الذكاء الاصطناعي يؤدي أداء جيدا لعدة سنوات أو حتى عقود بعد تخطيه بعض العقبات الأولية، فقد يُسمح له مستقبلا بالتحكم في القيادة والسيطرة النووية أثناء الأزمات مثلما تصور بعض المشاركين في لعبة الحرب التي صممتها شنايدر. وفي مرحلة ما، قد يقرر رئيس جديد، في أول يوم له في منصبه، برمجة خوارزميات القيادة والتحكم مسبقا، وربما يمنح الذكاء الاصطناعي صلاحية الارتجال والتصرف بناء على تقييمه للوضع إذا ما نشب هجوم.
سيعتمد الموقف فيما بعد على كيفية فهم الذكاء الاصطناعي لأهدافه في سياق المواجهة النووية. وقد واجه الباحثون -الذين دربوا الذكاء الاصطناعي على لعب ألعاب مختلفة مرارا وتكرارا- نسخة من هذه المشكلة، وذلك لأن مفهوم "النصر" بالنسبة للذكاء الاصطناعي قد يكون غامضا. ففي بعض الألعاب، يعمل الذكاء الاصطناعي بأسلوب متوقع إلى أن يطرأ تغيير طفيف على بيئته، وهو ما قد يدفعه فجأة لتغيير إستراتيجيته بالكامل.
على سبيل المثال، تلقى الذكاء الاصطناعي تعليمات عن لعبة يبحث فيها اللاعبون عن مفاتيح لفتح صناديق مليئة بالكنوز والحصول على مكافأة، نجح الذكاء الاصطناعي بالفعل في تأدية هذه المهمة إلى أن بدأ المهندسون بتغيير بيئة اللعبة، بحيث أصبح عدد المفاتيح أكثر من الصناديق، بعد هذا التغيير بدأ الذكاء الاصطناعي بجمع المفاتيح على الرغم من أن العديد منها كانت عديمة الفائدة، وقل تركيزه على فتح الصناديق. وعلى المنوال ذاته، قد يؤدي أي ابتكار جديد في الأسلحة النووية أو أنظمة الدفاع إلى تحول جذري مماثل.
إن أي دولة ستُدخِل الذكاء الاصطناعي في نظام قيادتها وتحكمها النووي، ستدفع الدول الأخرى لتبني النهج ذاته، ولو لمجرد إبقاء القوى النووية في حالة توازن وردع متبادل. في السياق ذاته، حذَّر مايكل كلير، أستاذ دراسات السلام والأمن العالمي في كلية هامبشاير بالولايات المتحدة، من أن الاعتماد المتعدد للدول على الذكاء الاصطناعي في اتخاذ قرارات الإطلاق النووي قد يؤدي إلى "حرب خاطفة".
تخيل أن الذكاء الاصطناعي الأميركي أساء تفسير المراقبة الصوتية للغواصات في بحر الصين الجنوبي على أنها حركات تنذر بهجوم نووي، وهو ما سيدفعه للتحضير لهجوم مضاد، حينها سيلاحظ الذكاء الاصطناعي الصيني هذا التحرك، فيبدأ بتجهيز منصات الإطلاق؛ ما يؤدي إلى سلسلة من التصعيدات التي من شأنها أن تنتهي بتبادل نووي كارثي.
عاد التاريخ ليستأنف مساره بتراجع المعاهدات التي كانت تحدّ من انتشار الأسلحة النووية، انتهت بعض هذه المعاهدات، فيما تراجعت أخرى مع تدهور العلاقات بين الولايات المتحدة وروسيا على سبيل المثال. أصبح البلدان الآن أقرب إلى الحرب المباشرة مما كانا عليه منذ أجيال. في 21 فبراير 2023، وبعد أقل من 24 ساعة من زيارة جو بايدن إلى كييف، أعلن فلاديمير بوتين تعليق مشاركة بلاده في معاهدة "نيو ستارت"، التي كانت آخر معاهدة قائمة للحد من الترسانات النووية.
وفي الوقت نفسه، يبدو أن الصين أصبحت تمتلك صواريخ كافية لتدمير جميع المدن الأميركية الكبرى، ويقال إن جنرالاتها ازدادوا تمسكا بترسانتهم النووية بعدما رأوا كيف ساعدت الأسلحة النووية روسيا على تعزيز نفوذها خلال الحرب في أوكرانيا. وكما نرى فالردع المتبادل لم يعد يقتصر على طرفين، بل أصبح يشمل ثلاثة أطراف، وكل طرف منها يسعى لتطوير تقنيات قد تزعزع منطق الردع.
إذا تحقق السلام مستقبلا، يمكننا التعلم من معاهدات الردع النووي التي ركزت على إعادة السيطرة للبشر، وينبغي السعي لعقد اتفاق عالمي يمنع الذكاء الاصطناعي من التحكم في الأسلحة النووية. ورغم أن بعض السيناريوهات تبدو بعيدة، لكن من المهم التفكير في طرق لتجنبها الآن، قبل أن يحقق الذكاء الاصطناعي نجاحات كبيرة في ساحة المعركة ويصبح من الصعب مقاومة إغراء استخدامه.
لكن يمكن دائما لاتفاقيات كهذه أن تُنتهَك، ومراقبة الامتثال لها ستكون صعبة، لأن تطوير الذكاء الاصطناعي لا يتطلب منشآت ملحوظة كمخازن الصواريخ أو منشآت لتخصيب اليورانيوم. ومع ذلك، يمكن أن تسهم الاتفاقية في خلق تحريم قوي ضد استخدام الذكاء الاصطناعي في التحكم النووي، وربما يكون هذا التحريم هو أفضل ما يمكننا تحقيقه. لا يمكننا قبول فكرة نشر ترسانات نووية مؤتمتة تجعلنا عرضة لكارثة بسبب خلل تقني. وإن كان لا بد للأخطاء أن تؤدي إلى حرب نووية، فلتكن أخطاء بشرية على الأقل لا أخطاء تقنية، فالاعتماد على الذكاء الاصطناعي في مثل هذه القرارات الحاسمة سيكون استسلاما كاملا للآلة، وتنازلا عن حق البشر في اتخاذ قراراتهم المصيرية بأنفسهم.
____________
* إضافة المترجم
هذه المادة مترجمة عن ذا أتلانتيك ولا تعبر بالضرورة عن الجزيرة نت
المصدر: الجزيرة
كلمات دلالية: حريات أبعاد استخدام الذکاء الاصطناعی على الذکاء الاصطناعی الذکاء الاصطناعی فی م الذکاء الاصطناعی الأسلحة النوویة الفترة الزمنیة اتخاذ القرار على الرغم من الاصطناعی ت التحکم فی فی حالة ومع ذلک إذا کان فی عام وهو ما إذا ما إلى أن التی ت
إقرأ أيضاً:
قومي حقوق الإنسان يناقش تأثيرات الذكاء الاصطناعي على حقوق الإنسان
كتب- محمد نصار:
نظم المجلس القومي لحقوق الإنسان، عبر وحدتي البحث البحث والتطوير التشريعي ووحدة مكافحة مكافحة التمييز، بالتعاون مع اللجنة التشريعية، ورشة عمل تحت عنوان "تأثيرات الذكاء الاصطناعي على حقوق الإنسان".
ترأس ورشة العمل، السفيرة مشيرة خطاب، رئيسة المجلس، والدكتور أيمن زهري، عضو المجلس ومقرر ورشة العمل، والدكتورة نهى بكر، عضو المجلس، وبمشاركة عدد من ممثلي بعض الجهات مثل (النيابة العامة - وزارة العدل - مجلس الشيوخ - المجلس القومي للمرأة - المجلس القومي للطفولة والأمومة)، ومجموعة من الخبراء والأكاديميين المتخصصين في تقنيات الذكاء الاصطناعي، إضافة إلى ممثلي بعض منظمات المجتمع المدني.
وتضمنت الورشة عدة محاور مهمة ناقشت ماهية الذكاء الاصطناعي والتطرق إلى إيجابياته وسلبياته، وكيفية التدرج الذي أحدثه الإنسان للتعامل مع الذكاء الاصطناعي من فكرة الآلة إلى الميكنة ثم التقنيات السريعة المذهلة والذي أصبح متداخلًا ومتشابكًا في كل أوجه الحياة، كما يعد أداة للتطوير والتنمية فضلًا عن استخدامه في تنفيذ أهداف التنمية المستدامة، الأمر الذي يجعل منه مكملًا لدور الإنسان داخل المجتمع.
وفي ذات السياق، ناقشت الورشة مزايا وفرص تقنيات الذكاء الاصطناعي، ومنها: (تطوير أنظمة صحية أكثر كفاءة وعدالة - تطوير تقنيات لمساعدة ذوي الإعاقة - تقليل التحيز في عمليات التوظيف).
وعلى صعيد آخر، هناك بعض التحديات والمتمثلة في (التمييز في صنع القرار الآلي - تعميق الفجوات الاجتماعية القائمة في المجتمع - تغيير طبيعة سوق العمل)، وهذه التحديات بالقطع ستؤثر على قيم ومعايير حقوق الإنسان الأساسية التي كفلها الدستور والمواثيق والمعاهدات الدولية لحقوق الإنسان منها التأثير على الكرامة الإنسانية، والمساواة وعدم التمييز، وتعزيز الحقوق الرقمية الجديدة لكل الشرائح المجتمعية.
وفيما يخص تشريعات الذكاء الاصطناعي، طالب الخبراء بضرورة تفعيل الميثاق الأخلاقي للذكاء الاصطناعي، ووضع أطر تشريعية للحد من مخاطره، وضرورة تحديث الاستراتيجية الوطنية للذكاء الاصطناعي لمواكبة المستجدات التي تطرأ على المجتمع، وأن يتبنى المجلس القومي لحقوق الإنسان برنامج كامل وخطة عمل للتوعية بمخاطر الذكاء الاصطناعي لكل فئات المجتمع وبالأخص الفئات الأكثر ضعفًا.
اقرأ أيضًا:
توجيه من الرئيس.. تفاصيل جديدة بشأن رفع 716 شخصا من قوائم الإرهاب
أخبار الطقس.. أمطار وبرودة واضطراب ملاحة خلال الساعات المقبلة
أحمد دياب يطلب رفع الحصانة عن نفسه للإدلاء بأقواله في قضية أحمد رفعت
حالات تلزمك بتغيير عداد الكهرباء القديم إلى "مسبق الدفع"- الخطوات والمستندات المطلوبة
صور.. سقوط أمطار متفاوتة الشدة على القاهرة
وزيرة التنمية المحلية توجه برفع درجة الاستعداد للتعامل مع الأمطار
المجلس القومي لحقوق الإنسان الذكاء الاصطناعي مشيرة خطاب أيمن زهري
تابع صفحتنا على أخبار جوجل
تابع صفحتنا على فيسبوك
تابع صفحتنا على يوتيوب
فيديو قد يعجبك:
الخبر التالى: "الشكاوى الحكومية": إنقاذ مُسن بلا مأوى ونقله إحدى دور الرعاية الاجتماعية الأخبار المتعلقة "قومي حقوق الإنسان" يناقش الحقوق الإنجابية والتربية السليمة ببورسعيد أخبار مركز معلومات مجلس الوزراء يستعرض أبرز جهوده في مجال استخدام الذكاء أخبار خبير: استهلاك اللاجئين لا يُشكل عبئًا على مصر لهذا السبب أخبار الإعلامية هبة جلال : الدولة بذلت جهدًا كبيرًا في النهوض بالملف الحقوقي أخبار أخبار مصر جمال شعبان: 10 نصائح مهمة للوقاية من الجلطات والسكتة القلبية منذ 28 دقيقة قراءة المزيد أخبار مصر دعم قطري لمستشفى "حروق أهل مصر" منذ 1 ساعة قراءة المزيد أخبار مصر تشغيل خط الرورو.. موعد مغادرة أول سفينة إلى إيطاليا منذ 1 ساعة قراءة المزيد أخبار مصر أحمد دياب لمصراوي: مستعد للمساءلة في قضية "أحمد رفعت" منذ 1 ساعة قراءة المزيد أخبار مصر رئيس "صناعة الشيوخ" يستعرض أهداف تعديلات قانون سجل المستوردين منذ 1 ساعة قراءة المزيد أخبار مصر بالأرقام.. "مصراوي" يستعرض نسب مساهمة الطاقة المتجددة في 2040 منذ 1 ساعة قراءة المزيدإعلان
إعلان
أخبار"قومي حقوق الإنسان" يناقش تأثيرات الذكاء الاصطناعي على حقوق الإنسان
أخبار رياضة لايف ستايل فنون وثقافة سيارات إسلاميات© 2021 جميع الحقوق محفوظة لدى
إتصل بنا سياسة الخصوصية إحجز إعلانك أخبار الطقس.. أمطار وبرودة واضطراب ملاحة خلال الساعات المقبلة صور| النيابة تصرح بدفن الملحن محمد رحيم والتحريات: لا شبهة جنائية 28القاهرة - مصر
28 19 الرطوبة: 37% الرياح: شمال المزيد أخبار أخبار الرئيسية أخبار مصر أخبار العرب والعالم حوادث المحافظات أخبار التعليم مقالات فيديوهات إخبارية أخبار bbc وظائف اقتصاد أسعار الذهب أخبار التعليم رياضة رياضة الرئيسية مواعيد ونتائج المباريات رياضة محلية كرة نسائية مصراوي ستوري رياضة عربية وعالمية فانتازي لايف ستايل لايف ستايل الرئيسية علاقات الموضة و الجمال مطبخ مصراوي نصائح طبية الحمل والأمومة الرجل سفر وسياحة أخبار البنوك فنون وثقافة فنون الرئيسية فيديوهات فنية موسيقى مسرح وتليفزيون سينما زووم أجنبي حكايات الناس ملفات Cross Media مؤشر مصراوي منوعات عقارات فيديوهات صور وفيديوهات الرئيسية مصراوي TV صور وألبومات فيديوهات إخبارية صور وفيديوهات سيارات صور وفيديوهات فنية صور وفيديوهات رياضية صور وفيديوهات منوعات صور وفيديوهات إسلامية صور وفيديوهات وصفات سيارات سيارات رئيسية أخبار السيارات ألبوم صور فيديوهات سيارات سباقات نصائح علوم وتكنولوجيا تبرعات إسلاميات إسلاميات رئيسية ليطمئن قلبك فتاوى مقالات السيرة النبوية القرآن الكريم أخرى قصص وعبر فيديوهات إسلامية مواقيت الصلاة أرشيف مصراوي إتصل بنا سياسة الخصوصية إحجز إعلانك خدمة الإشعارات تلقى آخر الأخبار والمستجدات من موقع مصراوي لاحقا اشترك