الجزائر تدعو إلى وضع إطار ملزم لمنع سوء استخدام الذكاء الاصطناعي العسكري
تاريخ النشر: 20th, December 2024 GMT
دعا ممثل الجزائر الدائم لدى الأمم المتحدة، السفير عمار بن جامع، اليوم في نيويورك، إلى وضع إطار ملزم يمنع سوء استخدام الذكاء الاصطناعي العسكري بما ينتهك القانون الدولي والقانون الإنساني.
وفي كلمة أمام مجلس الأمن الدولي أبرز بن جامع الاستراتيجية الإفريقية التي تهدف إلى استغلال الذكاء الاصطناعي كقوة من أجل السلام والأمن والتحول الإيجابي.
وأكد بن جامع خلال جلسة إحاطة رفيعة المستوى حول الذكاء الاصطناعي في إطار بند “صون السلم والأمن الدوليين” قائلا: أنه “الأوان قد آن من أجل وضع إطار ملزم يمنع سوء استخدام الذكاء الاصطناعي العسكري بما ينتهك القانون الدولي والقانون الدولي الإنساني”.
كما شدد بن جامع على أن “القانون الدولي ليس اختيارًا في هذا المجال الجديد. إن ميثاق الأمم المتحدة ومبادئ العمل الإنساني وحقوق الإنسان ليست اقتراحات، فهي لا تزال الأساس لأي تطبيق عسكري للذكاء الاصطناعي”.
وتابع بن جامع في السياق ذاته “فلننظر إلى ما حققناه باعتمادنا خلال هذه السنة اتفاقية دولية شاملة بشأن مكافحة استخدام تكنولوجيا المعلومات والاتصالات لأغراض إجرامية، بقيادة الجزائر، وهذا يثبت أن العمل متعدد الأطراف المجدي ليس ممكنًا فحسب، وإنما هو حتمي. فالخيار أمامنا لا يمكن أن يكون متحيزًا، إذ يمكننا أن نترك الذكاء الاصطناعي يعمّق عدم المساواة ويتسبب في كوابيس أمنية، أو أن نستفيد منه من أجل السلام والأمن والتنمية في كل الدول”.
والمناسبة أشار بن جامع إلى أن “استراتيجية الذكاء الاصطناعي في القارة الإفريقية والاتفاق الإفريقي ليست مجرد سياسات، وإنما رؤية تهدف إلى استغلال الذكاء الاصطناعي كقوة من أجل السلام والأمن والتحول الإيجابي”.
ومن أجل تحقيق هذه الرؤية والاستجابة للتحديات، أوضح بن جامع أن هناك خمسة تدابير بالغة الأهمية:
إنشاء آليات دورية شاملة تعتني بالخبرة الأمنية في مجال الذكاء الاصطناعي، حيث لا تكون الدول النامية مجرد مراقبة وإنما مشاركة متكافئة في صنع المستقبل.
إنشاء إطار عالمي لذكاء اصطناعي مسؤول يوازن بين السيادة الوطنية والتعاون الدولي.
إطلاق برامج بناء قدرات موجهة في مجال الذكاء الاصطناعي، حيث تُعتبر المعرفة أساسًا للبقاء والتقدم.
وضع بروتوكولات ذات شفافية لضمان سلامة الذكاء الاصطناعي، لأن الشفافية في عصر الرقمية ليست اختيارًا.
بناء بنية تحتية رقمية متينة ودعم الدول النامية في وضع استراتيجيات للذكاء الاصطناعي، لضمان عدم تخلف أي دولة عن هذه الثورة.
وأكد بن جامع أن “الذكاء الاصطناعي يمكن أن يتنبأ بالنزاعات، ويسهم في حفظ السلام، ويحسن الاستجابة الإنسانية، ويعزز التنمية المستدامة، لكنه يحمل في الوقت ذاته مخاطر على نفس درجة الضخامة”.
المصدر: النهار أونلاين
كلمات دلالية: الذکاء الاصطناعی بن جامع من أجل
إقرأ أيضاً:
الذكاء الاصطناعي… أهو باب لمستقبل واعد أم مدخل إلى المجهول؟
في إحدى المناسبات الاجتماعية، وجدت نفسي طرفاً في نقاش محتدم حول الذكاء الإصطناعي. كان بعض الحاضرين يرونه المستقبل الحتمي، الذي لا مهرب منه، وأنه سيُحدث نقلة نوعية في حياتنا، جاعلاً إياها أكثر يسرًا وإنتاجًا. وعلى الضفة الأخرى، وقف من يراه تهديدًا داهمًا، وكابوسًا مقبلًا قد يعصف بوظائف البشر، وربما يُفضي إلى نهايات مأساوية لا تختلف كثيرًا عمّا تُصوّره أفلام الخيال العلمي. وبين هذين الرأيين، جلست متأملاً، أتساءل: ما الذي يدعو بعض الناس إلى هذا الخوف العميق من الذكاء الإصطناعي؟
طالعتُ مؤخرًا مقالًا تناول هذه المسألة بشيء من التحليل، وبيّن أن رفض الذكاء الإصطناعي لا يعود إلى الخشية من فقدان الوظائف فحسب، بل يمتد إلى أسباب نفسية أعمق وأبعد غورًا. ومن أبرز هذه الأسباب، أن الذكاء الإصطناعي بالنسبة للكثيرين لا يزال بمنزلة “الصندوق الأسود”؛ يُنجز أعمالًا مبهرة دون أن يُفصح عن كيفية اتخاذه لتلك القرارات أو الأسباب الكامنة خلفها. والبشر بطبيعتهم يميلون إلى الفهم والإدراك، فإذا واجهوا أنظمة تتخذ قرارات غامضة، دون تفسير بيّن، نشأ لديهم شعور بالتهديد. ولذا، فإن الثقة بتقنيات الذكاء الإصطناعي تزداد حين تكون قراراتها مفسّرة ومعلّلة، سيما إذا اقترنت بشروحات مقنعة تبيّن لماذا اختارت هذه النتيجة دون غيرها.
ثم أن ثمة عقبة أخرى، وهي أن الذكاء الإصطناعي يفتقر إلى المشاعر والعواطف. والناس بطبعهم يفضّلون التفاعل مع من يُظهر تعاطفًا وتفهّمًا لحالاتهم النفسية والانفعالية. من هنا، يبدو الرفض واضحًا لاستخدام هذه التقنيات في مجالات تتطلب لمسة إنسانية، كالعلاج النفسي أو تقديم المشورة في العلاقات الشخصية. إلا أن بعض الشركات تسعى لتجاوز هذه المعضلة، بمحاولة إضفاء مسحة إنسانية على الذكاء الإصطناعي، وذلك بمنحه أسماء مألوفة وأصواتًا ودودة، كما هو الحال مع “أليكسا” و”سيري”، مما يُسهّل على المستخدمين التفاعل معه وقبوله.
ومن بين الأسباب التي تُثير حفيظة البعض تجاه هذه التقنية، اعتقادهم بأنها جامدة لا تتغير، ولا تملك مرونة البشر في التعلّم من الأخطاء. فالإنسان، وإن أخطأ، يتعلّم ويطوّر أداءه، بينما يُنظر إلى الذكاء الإصطناعي على أنه آلة صمّاء، لا تعرف التراجع ولا التصحيح. غير أن الحقيقة أن كثيرًا من الأنظمة الذكية مصمّمة لتتعلّم وتتطور مع مرور الوقت، كما نرى في خوارزميات التوصيات لدى “نتفليكس”، التي تتحسّن كلما زاد تفاعل المستخدم معها.
أما أكثر ما يُثير الهلع، فهو الخوف من أن يبلغ الذكاء الإصطناعي حدّ الاستقلال التام، فيتّخذ قرارات دون تدخل بشري، مما يولّد شعورًا بفقدان السيطرة. لذا، ليس من الغريب أن نرى الكثير من الناس يتحفّظون على السيارات ذاتية القيادة، خشية أن تنقلب إلى “آلات مجنونة” تتحكّم في مصائرهم. والحل يكمن في إيجاد توازن دقيق، يُبقي الإنسان داخل دائرة القرار، ويمنحه شعورًا بأنه ما زال ممسكًا بزمام الأمور.
ومهما بلغ الذكاء الإصطناعي من تطوّر وتقدّم، فلن يكون بديلاً عن الإنسان، بل أداة في خدمته، تُعينه على تحسين حياته وتيسيرها. فالرهان الحقيقي لا يكمن في مقاومته أو رفضه، بل في إدراك كيفية التعامل معه بحكمة، بحيث يتحوّل إلى حليف لا خصم، وشريك لا خصيم.
jebadr@