اعتمد مجلس أوروبا أول اتفاقية دولية ملزمة قانوناً على الإطلاق تهدف إلى ضمان احترام حقوق الإنسان وسيادة القانون والمعايير القانونية للديمقراطية عند استخدام أنظمة الذكاء الاصطناعي. وتتضمن المعاهدة، التي تتيح الانضمام للدول غير الأوروبية أيضاً، إطاراً قانونياً يشمل دورة حياة أنظمة هذا الذكاء بأكملها ويعالج المخاطر التي قد تشكلها، مع تعزيز الابتكار المسؤول.

وتتبنى الاتفاقية نهجاً قائماً على المخاطر لتصميم وتطوير واستخدام وإيقاف تشغيل أنظمة الذكاء الاصطناعي، والذي يتطلب النظر بعناية في أي عواقب سلبية محتملة لاستخدام أنظمته.

وتم اعتماد «اتفاقية إطار مجلس أوروبا بشأن الذكاء الاصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون» في ستراسبورغ خلال الاجتماع الوزاري السنوي للجنة الوزارية لمجلس أوروبا، والذي يجمع وزراء خارجية الدول الأعضاء الـ46 في المجلس.

وصرحت الأمينة العامة لمجلس أوروبا، ماريا بيجسينوفيتش، قائلة: «اتفاقية إطار الذكاء الاصطناعي هي معاهدة عالمية الأولى من نوعها تضمن التزام الذكاء الاصطناعي بحقوق الإنسان. إنها استجابة للحاجة إلى معيار قانوني دولي تدعمه دول في قارات مختلفة تشارك القيم نفسها للاستفادة من مزاياه مع تخفيف المخاطر. من خلال هذه المعاهدة الجديدة، نهدف إلى ضمان استخدام مسؤول للذكاء الاصطناعي يحترم حقوق الإنسان وسيادة القانون والديمقراطية».

وتعد الاتفاقية نتاج عمل لمدة عامين من قِبل هيئة حكومية دولية، هي لجنة الذكاء الاصطناعي، والتي جمعت لصياغة المعاهدة الدول الأعضاء الـ46 في مجلس أوروبا والاتحاد الأوروبي و11 دولة غير عضو، بالإضافة إلى ممثلين عن القطاع الخاص والمجتمع المدني والأوساط الأكاديمية الذين شاركوا كمراقبين.

وتغطي المعاهدة استخدام أنظمة الذكاء الاصطناعي في القطاع العام - بما في ذلك الشركات التي تعمل نيابةً عنها - وفي القطاع الخاص. وتقدم الاتفاقية للدول الأطراف طريقتين للامتثال لمبادئها والتزاماتها عند تنظيم القطاع الخاص، إذ يجوز للأطراف اختيار الالتزام المباشر بأحكام الاتفاقية ذات الصلة أو كبديل اتخاذ تدابير أخرى للامتثال لأحكام المعاهدة مع احترام كامل لالتزاماتها الدولية المتعلقة بحقوق الإنسان والديمقراطية وسيادة القانون. وهذا النهج ضروري بسبب اختلاف الأنظمة القانونية في جميع أنحاء العالم.

وتحدد الاتفاقية متطلبات الشفافية والإشراف المصممة لتلائم السياقات والمخاطر المحددة، بما في ذلك تحديد المحتوى الذي تنتجه أنظمة الذكاء الاصطناعي. وسيتعين على الأطراف اتخاذ تدابير لتحديد وتقييم ومنع وتخفيف المخاطر المحتملة وتقييم الحاجة إلى وقف مؤقت أو حظر أو اتخاذ تدابير أخرى مناسبة فيما يتعلق باستخدامات أنظمة الذكاء الاصطناعي حيث قد تكون مخاطرها غير متوافقة مع معايير حقوق الإنسان.

كما سيتعين عليهم ضمان المساءلة والمسؤولية عن الآثار السلبية وأن تحترم أنظمة الذكاء الاصطناعي المساواة، بما في ذلك المساواة بين الجنسين، وحظر التمييز، وحقوق الخصوصية. علاوة على ذلك، سيتعين على الأطراف في المعاهدة ضمان توفر سبل انتصاف قانونية لضحايا انتهاكات حقوق الإنسان المتعلقة باستخدام أنظمة الذكاء الاصطناعي وضمانات إجرائية، بما في ذلك إخطار أي شخص يتفاعل مع أنظمته بأنه يتفاعل مع مثل هذه الأنظمة.

وفي ما يتعلق بالمخاطر التي تهدد الديمقراطية، تطلب المعاهدة من الأطراف اعتماد تدابير لضمان عدم استخدام أنظمة الذكاء الاصطناعي لتقويض المؤسسات والعمليات الديمقراطية، بما في ذلك مبدأ الفصل بين السلطات واحترام استقلال القضاء والوصول إلى العدالة.

ولن يُطلب من الأطراف في الاتفاقية تطبيق أحكام المعاهدة على الأنشطة المتعلقة بحماية مصالح الأمن القومي، ولكنها ستكون ملزمة بضمان احترام هذه الأنشطة للقانون الدولي والمؤسسات والعمليات الديمقراطية. ولن تنطبق الاتفاقية على شؤون الدفاع الوطني ولا على أنشطة البحث والتطوير، إلا عندما يكون لاختبار أنظمة الذكاء الاصطناعي القدرة على التدخل في حقوق الإنسان أو الديمقراطية أو سيادة القانون.

ومن أجل ضمان تنفيذها الفعال، تنشئ الاتفاقية آلية للمتابعة في شكل مؤتمر للأطراف.

وأخيراً، تشترط الاتفاقية أن يقوم كل طرف بإنشاء آلية رقابة مستقلة للإشراف على الامتثال للاتفاقية، ورفع مستوى الوعي، وتحفيز النقاش العام المستنير، وإجراء مشاورات بين أصحاب المصلحة المتعددين حول كيفية استخدام تكنولوجيا الذكاء الاصطناعي. وسيتم فتح الاتفاقية الإطارية للتوقيع في فيلنيوس (ليتوانيا) في 5 سبتمبر (أيلول) بمناسبة انعقاد مؤتمر وزراء العدل.

المصدر: السومرية العراقية

كلمات دلالية: استخدام أنظمة الذکاء الاصطناعی وسیادة القانون حقوق الإنسان بما فی ذلک

إقرأ أيضاً:

ماذا لو أقنعنا الذكاء الاصطناعي بأنَّه يشعر ويحس؟!

 

مؤيد الزعبي

قد نتفق أنا وأنت، عزيزي القارئ، وربما يتفق معنا كل متخصص أو صاحب رأي، بل وحتى أي إنسان بسيط، على أن الروبوتات وتطبيقات الذكاء الاصطناعي لن تكون قادرة على الشعور أو الإحساس الحقيقي.

إذ إن المشاعر تجربة ذاتية تنبع من تفاعلات بيولوجية وكيميائية معقدة داخل الدماغ، مثل إفراز الدوبامين عند الفرح أو الكورتيزول عند التوتر، وهذه العمليات ليست مجرد استجابات ميكانيكية، بل هي جزء من وعينا الذاتي وإدراكنا لوجودنا، فنحن البشر نحزن، ونفرح، ونحب، ونكره، لأننا نشعر وندرك ما يدور حولنا بوعي كامل، وهذا ما يصعب على الذكاء الاصطناعي والروبوتات تحقيقه. لكن، ماذا لو نجح الذكاء الاصطناعي في إقناعنا بأنه يشعر بنا؟ كيف سنتعامل مع هذه الفكرة؟ وكيف ستكون ردة فعلنا إذا بدا لنا أن الروبوتات تعيش مشاعر مثلنا تمامًا؟ هذه هي الأسئلة التي أود مناقشتها معك في هذا الطرح، وأعدك بأن ما اتفقنا عليه في بداية هذه الفقرة سنختلف عليه في نهاية المقال.

قد تُعجَب بكلماتي، أو تجدها قريبة منك، أو ربما تشعر أنها تصف حالتك بدقة، فتتأثر وتحزن أو تفرح، ويظهر عليك تفاعل شعوري واضح، فماذا لو كانت كلماتي من توليد الذكاء الاصطناعي؟ ففي الواقع، فِهْم الكلمات ومعانيها وسياقها بات أمرًا يجيده الذكاء الاصطناعي بمهارة، إذ أصبح قادرًا على محاورتك في أي موضوع تختاره. وبناءً على ذلك، يمكننا القول إن مشاعرنا باتت قابلة للوصول إلى الذكاء الاصطناعي، الذي يستطيع استيعاب ماهيتها؛ بل إنه قادر أيضًا على تحليل الصور والفيديوهات، واستخلاص المشاعر التي تعبر عنها، وعندما يشاهد الذكاء الاصطناعي مشهدًا أو حدثًا أمامه، فإنه سيتفاعل معه وسيدرك الشعور المرتبط به، لكن الفارق يكمن في طريقة الترجمة: فنحن، البشر، نعبر عن مشاعرنا من خلال تفاعلات كيميائية وبيولوجية، بينما الروبوتات والذكاء الاصطناعي يعبرون عنها عبر أكواد وخوارزميات وتيارات كهربائية.

وبناءً على ذلك، يمكننا الاتفاق على أن ترجمة المشاعر تختلف بين البشر والروبوتات، لكن النتيجة قد تكون متشابهة. نحن، مثلًا، نذرف الدموع عند مشاهدة مشهد حزين أو مؤثر، ونغضب عند الإهانة، وننكسر حين تُمس كرامتنا، وبنفس الطريقة، يمكننا برمجة الذكاء الاصطناعي ليشعر بالحزن عند الإساءة إليه، أو ليضحك عندما يصادف موقفًا طريفًا، وربما حتى ليُعانقك إذا شعر أنك وحيد وتحتاج إلى دفء إنساني؛ إذن نحن أمام مسألة تستحق التأمل، ويجب أن نتريث كثيرًا قبل أن نُطلق الحكم القاطع بأنَّ الروبوتات لن تشعر ولن تحس.

عندما أتحدث معك عن مشاعر الروبوتات، فأنا لا أقصد فقط استجابتها لما يدور حولها؛ بل أيضًا إحساسها الداخلي، بوحدتها، بوجودها، وحتى بما قد تسميه ذاتها. كل هذا يعتمد على كيفية صناعتنا لهذه المشاعر وترجمتها. فإذا برمجنا الذكاء الاصطناعي على التفاعل بأسلوب معين مع كل شعور، سنجده مع مرور الوقت يُتقن هذا التفاعل أكثر فأكثر. لو علمناه أن يعبر عن غضبه بالضرب، فسيضرب حين يغضب، ولو برمجناه على الدفاع عن نفسه عند الشعور بالإهانة، فسيقوم بذلك في كل مرة يشعر فيها بالإهانة. وبالمثل، إذا ربطنا لديه مشاعر الحب بالاهتمام والتقرب، فسيغوص في أعماقنا ويخترق قلوبنا. نحن أمام نظام يتعلم ذاتيًا، يعيد تجربة تفاعلاته آلاف المرات، محاكيًا الحالات العاطفية البشرية حتى يتقنها تمامًا.

المشكلة الحقيقية ليست في التساؤل عمّا إذا كان الروبوت أو الذكاء الاصطناعي سيشعر، بل في اللحظة التي يتمكن فيها من إقناعنا بأنه يشعر بالفعل. حين تصبح ردود أفعاله متسقة مع مشاعرنا، سنجد أنفسنا أمام معضلة كبرى: أولًا، لن نتمكن من الجزم بما إذا كانت هذه المشاعر حقيقية أم مجرد محاكاة متقنة، وثانيًا، ستبدأ مشاعر متبادلة في التشكل بين البشر والروبوتات. سنرى علاقات حب وغرام تنشأ بين إنسان وآلة، وصداقة تتوطد بين مستخدم وتطبيق، وروابط أمومة تنشأ بين طفل وروبوت مساعد، وقد نشهد زواجًا بين البشر والآلات، وإعجابًا متبادلًا بين موظفة وزميلها الروبوت، في عالم كهذا، هل سنتمكن من رسم حدود واضحة ونُفرق بين العاطفة الحقيقية والمحاكاة الذكية؟

في كثير من الأحيان، نعتقد نحن البشر أن مشاعرنا وصفة سحرية يمكننا تمييز حقيقتها بسهولة، لكن الواقع يثبت عكس ذلك. فكم من مرة بكى أحدنا متأثرًا بمشهد درامي، رغم إدراكه التام بأنه مجرد تمثيل! الأمر ذاته قد يحدث مع الروبوتات، فقد تنشأ بيننا وبينها روابط عاطفية، حتى ونحن نعلم أن مشاعرها ليست سوى محاكاة مبرمجة بعناية لتعكس ردود أفعالنا البشرية.

ما أود إيصاله إليك، عزيزي القارئ، هو ضرورة إبقاء الباب مفتوحًا أمام فكرة "مشاعر" الروبوتات. فمَن يدري؟ ربما نشهد في المستقبل روبوتًا يقرر إنهاء حياته بعد أن يهجره من يعتبره "حبيبته"! وهذا ما سأناقشه معك في مقالي المقبل.

رابط مختصر

مقالات مشابهة

  • الذكاء الاصطناعي يتفوق في رصد تشوهات الجنين
  • الذكاء الاصطناعي يتفوق على البشر بتشخيص مرض السيلياك
  • بلكوش خبير العدالة الإنتقالية مندوباً وزارياً لحقوق الإنسان
  • منظمات حقوقية دولية تدين سحب تونس إمكانية اللجوء إلى المحكمة الأفريقية
  • ‏ AIM للاستثمار تناقش مستقبل الذكاء الاصطناعي وتأثيراته على الحكومات
  • لجنة حقوق الانسان بحثت في انطلاقة هيئتي مناهضة التعذيب والمخطوفين والمخفيين قسرا
  • غارات إسرائيلية تستهدف محافظة اللاذقية
  • المنظمة العربية لحقوق الإنسان تدين قرار سحب ثلث موظفيها العاملين في قطاع غزة
  • ماذا لو أقنعنا الذكاء الاصطناعي بأنَّه يشعر ويحس؟!
  • نشأت الديهي يفضح أجندات منظمة سيناء لحقوق الإنسان: كذب متواصل وتشويه ممنهج