اعتمد مجلس أوروبا أول اتفاقية دولية ملزمة قانوناً على الإطلاق تهدف إلى ضمان احترام حقوق الإنسان وسيادة القانون والمعايير القانونية للديمقراطية عند استخدام أنظمة الذكاء الاصطناعي. وتتضمن المعاهدة، التي تتيح الانضمام للدول غير الأوروبية أيضاً، إطاراً قانونياً يشمل دورة حياة أنظمة هذا الذكاء بأكملها ويعالج المخاطر التي قد تشكلها، مع تعزيز الابتكار المسؤول.

وتتبنى الاتفاقية نهجاً قائماً على المخاطر لتصميم وتطوير واستخدام وإيقاف تشغيل أنظمة الذكاء الاصطناعي، والذي يتطلب النظر بعناية في أي عواقب سلبية محتملة لاستخدام أنظمته.

وتم اعتماد «اتفاقية إطار مجلس أوروبا بشأن الذكاء الاصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون» في ستراسبورغ خلال الاجتماع الوزاري السنوي للجنة الوزارية لمجلس أوروبا، والذي يجمع وزراء خارجية الدول الأعضاء الـ46 في المجلس.

وصرحت الأمينة العامة لمجلس أوروبا، ماريا بيجسينوفيتش، قائلة: «اتفاقية إطار الذكاء الاصطناعي هي معاهدة عالمية الأولى من نوعها تضمن التزام الذكاء الاصطناعي بحقوق الإنسان. إنها استجابة للحاجة إلى معيار قانوني دولي تدعمه دول في قارات مختلفة تشارك القيم نفسها للاستفادة من مزاياه مع تخفيف المخاطر. من خلال هذه المعاهدة الجديدة، نهدف إلى ضمان استخدام مسؤول للذكاء الاصطناعي يحترم حقوق الإنسان وسيادة القانون والديمقراطية».

وتعد الاتفاقية نتاج عمل لمدة عامين من قِبل هيئة حكومية دولية، هي لجنة الذكاء الاصطناعي، والتي جمعت لصياغة المعاهدة الدول الأعضاء الـ46 في مجلس أوروبا والاتحاد الأوروبي و11 دولة غير عضو، بالإضافة إلى ممثلين عن القطاع الخاص والمجتمع المدني والأوساط الأكاديمية الذين شاركوا كمراقبين.

وتغطي المعاهدة استخدام أنظمة الذكاء الاصطناعي في القطاع العام - بما في ذلك الشركات التي تعمل نيابةً عنها - وفي القطاع الخاص. وتقدم الاتفاقية للدول الأطراف طريقتين للامتثال لمبادئها والتزاماتها عند تنظيم القطاع الخاص، إذ يجوز للأطراف اختيار الالتزام المباشر بأحكام الاتفاقية ذات الصلة أو كبديل اتخاذ تدابير أخرى للامتثال لأحكام المعاهدة مع احترام كامل لالتزاماتها الدولية المتعلقة بحقوق الإنسان والديمقراطية وسيادة القانون. وهذا النهج ضروري بسبب اختلاف الأنظمة القانونية في جميع أنحاء العالم.

وتحدد الاتفاقية متطلبات الشفافية والإشراف المصممة لتلائم السياقات والمخاطر المحددة، بما في ذلك تحديد المحتوى الذي تنتجه أنظمة الذكاء الاصطناعي. وسيتعين على الأطراف اتخاذ تدابير لتحديد وتقييم ومنع وتخفيف المخاطر المحتملة وتقييم الحاجة إلى وقف مؤقت أو حظر أو اتخاذ تدابير أخرى مناسبة فيما يتعلق باستخدامات أنظمة الذكاء الاصطناعي حيث قد تكون مخاطرها غير متوافقة مع معايير حقوق الإنسان.

كما سيتعين عليهم ضمان المساءلة والمسؤولية عن الآثار السلبية وأن تحترم أنظمة الذكاء الاصطناعي المساواة، بما في ذلك المساواة بين الجنسين، وحظر التمييز، وحقوق الخصوصية. علاوة على ذلك، سيتعين على الأطراف في المعاهدة ضمان توفر سبل انتصاف قانونية لضحايا انتهاكات حقوق الإنسان المتعلقة باستخدام أنظمة الذكاء الاصطناعي وضمانات إجرائية، بما في ذلك إخطار أي شخص يتفاعل مع أنظمته بأنه يتفاعل مع مثل هذه الأنظمة.

وفي ما يتعلق بالمخاطر التي تهدد الديمقراطية، تطلب المعاهدة من الأطراف اعتماد تدابير لضمان عدم استخدام أنظمة الذكاء الاصطناعي لتقويض المؤسسات والعمليات الديمقراطية، بما في ذلك مبدأ الفصل بين السلطات واحترام استقلال القضاء والوصول إلى العدالة.

ولن يُطلب من الأطراف في الاتفاقية تطبيق أحكام المعاهدة على الأنشطة المتعلقة بحماية مصالح الأمن القومي، ولكنها ستكون ملزمة بضمان احترام هذه الأنشطة للقانون الدولي والمؤسسات والعمليات الديمقراطية. ولن تنطبق الاتفاقية على شؤون الدفاع الوطني ولا على أنشطة البحث والتطوير، إلا عندما يكون لاختبار أنظمة الذكاء الاصطناعي القدرة على التدخل في حقوق الإنسان أو الديمقراطية أو سيادة القانون.

ومن أجل ضمان تنفيذها الفعال، تنشئ الاتفاقية آلية للمتابعة في شكل مؤتمر للأطراف.

وأخيراً، تشترط الاتفاقية أن يقوم كل طرف بإنشاء آلية رقابة مستقلة للإشراف على الامتثال للاتفاقية، ورفع مستوى الوعي، وتحفيز النقاش العام المستنير، وإجراء مشاورات بين أصحاب المصلحة المتعددين حول كيفية استخدام تكنولوجيا الذكاء الاصطناعي. وسيتم فتح الاتفاقية الإطارية للتوقيع في فيلنيوس (ليتوانيا) في 5 سبتمبر (أيلول) بمناسبة انعقاد مؤتمر وزراء العدل.

المصدر: السومرية العراقية

كلمات دلالية: استخدام أنظمة الذکاء الاصطناعی وسیادة القانون حقوق الإنسان بما فی ذلک

إقرأ أيضاً:

إصدار دليل ممارسات الذكاء الاصطناعي في العملية التعليمية

أصدرت وزارة التربية والتعليم دليل ممارسات الذكاء الاصطناعي في العملية التعليمية، الذي يمثل وثيقة أساسية تهدف إلى توجيه المعلمين والمشرفين وإدارات المدارس في كيفية استخدام الذكاء الاصطناعي بفعالية لتعزيز جودة التعليم وتحقيق أهداف "رؤية عمان 2040"؛

يهدف الدليل إلى توفير الأسس اللازمة لتمكين الهيئة التعليمية من الاستفادة من تقنيات الذكاء الاصطناعي في المدارس، سواء في الجوانب التعليمية أو الإدارية. ويتضمن توجيهًا شاملًا لبناء الخطط، تشكيل الفرق، وتحديد الاحتياجات التي تضمن دمج هذه التقنية الحديثة في كافة العمليات التعليمية.

كما يسعى الدليل إلى تعزيز الوعي لدى المعلمين بآليات الذكاء الاصطناعي وتقديم التدريب المناسب لهم لاستخدام هذه الأدوات بشكل أخلاقي وفعال، بما يسهم في تطوير بيئة تعليمية مبتكرة تعتمد على التكنولوجيا المتقدمة. من خلال ذلك، يهدف الدليل إلى تحسين تجربة التعلم وتعزيز أداء الطلبة باستخدام الأدوات والأساليب المتطورة، بالإضافة إلى دعم ممارسات إيجابية وفعالة في توظيف هذه التقنية.

يؤكد الدليل على ضرورة تنظيم الجهود وتعزيز استخدام الذكاء الاصطناعي داخل البيئة التعليمية، من خلال تشكيل فرق متخصصة، أبرزها الفريق المركزي المعني بإعداد وتنفيذ البرنامج الوطني لاستخدام الذكاء الاصطناعي في التعليم المدرسي. هذه الفرق ستكون مسؤولة عن تنسيق الجهود بين الجهات المختلفة لضمان تنفيذ الخطط التعليمية بشكل فعال، بالإضافة إلى متابعة تطبيق أفضل الممارسات العالمية في هذا المجال.

كما يركز الدليل على أهمية التعاون بين المؤسسات التعليمية المختلفة لتبادل المعرفة والتجارب، وتقديم التقارير الخاصة بتطبيقات الذكاء الاصطناعي إلى لجنة التحول الرقمي في الوزارة لضمان مواكبة التطورات العالمية وتحقيق أهداف استخدام هذه التقنيات بشكل مستدام.

يكشف الدليل آلية تمكين الذكاء الاصطناعي في العملية التعليمية، مع التركيز على الصفوف الدراسية لتحسين جودة التعليم والتعلم. ويتطلب هذا تشكيل فرق عمل متخصصة من الهيئة التعليمية والمعنيين لتحديد الاحتياجات والمتطلبات الخاصة بالذكاء الاصطناعي في المدارس، والإشراف على تطبيقها بما يتوافق مع المبادئ الأخلاقية والتشريعات المعتمدة من قبل الوزارة.

الضوابط الأمنية

يتناول الدليل أيضًا الضوابط الأمنية اللازمة لاستخدام تطبيقات الذكاء الاصطناعي في التعليم المدرسي. في إطار هذا، يشدد على أهمية الالتزام بالقوانين واللوائح الخاصة بحماية البيانات الشخصية، وكذلك الامتناع عن مشاركة أي معلومات حساسة أو سرية خارج نطاق الوزارة. يُطلب أيضًا أن يتم استخدام التطبيقات الموثقة والمصرح بها فقط من قبل الوزارة، مع ضمان حماية البيانات الشخصية والموافقة المسبقة للأفراد عند استخدام تقنيات الذكاء الاصطناعي التي تشمل تصميم شخصيات حقيقية.

المخاطر المحتملة

كما يعرض الدليل أبرز المخاطر المحتملة المرتبطة باستخدام تقنيات الذكاء الاصطناعي في التعليم، بما في ذلك المخاطر الصحية مثل الإجهاد الجسدي الناتج عن الاستخدام المفرط للأجهزة، بالإضافة إلى المشكلات النفسية والاجتماعية مثل التوتر والاكتئاب، والمخاطر المعرفية، حيث قد يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى تقليص التفكير النقدي وضعف المهارات العقلية بسبب الاعتماد على معلومات غير دقيقة.

فضلاً عن المخاطر الاجتماعية، والتي تشمل التفاوت في الوصول إلى التكنولوجيا وتغيرات اجتماعية قد تحدث نتيجة لتحيزات خوارزميات الذكاء الاصطناعي، والمخاطر الأمنية، بما يتعلق بانتهاك الخصوصية والتعرض للاختراقات الإلكترونية التي قد تؤدي إلى تدمير الأنظمة أو تسريب البيانات الحساسة.

ويعد دليل ممارسات الذكاء الاصطناعي في التعليم خطوة مهمة نحو دمج التكنولوجيا المتطورة في العملية التعليمية العمانية، ويعكس التزام الوزارة بتطوير بيئة تعليمية مستدامة تعتمد على الابتكار. ويهدف هذا الدليل إلى ضمان أن يكون استخدام الذكاء الاصطناعي في التعليم أمرًا متكاملًا وآمنًا، بما يعزز من قدرات المعلمين والطلبة على السواء في مواجهة التحديات المستقبلية.

مقالات مشابهة

  • موظفو البنوك.. أين أنتم من الذكاء الاصطناعي؟
  • إصدار دليل ممارسات الذكاء الاصطناعي في العملية التعليمية
  • وزير الشؤون النيابية: مصر حظيت بإشادات دولية وأممية واسعة لتطور ملفها الحقوقي
  • محمود فوزي: لدينا إشادات دولية بنموذج اللجنة العليا الدائمة لحقوق الإنسان
  • الذكاء الاصطناعي يختار الملاعب الأكثر رعبا في العالم
  • هل يغير الذكاء الاصطناعي مستقبل أطفالنا؟
  • الذكاء الاصطناعي يكشف سر الحفاظ على شباب الدماغ
  • دراسة: الذكاء الاصطناعي قادر على الخداع
  • «جوجل» تدخل وضع الذكاء الاصطناعي الجديد إلى محرك البحث
  • أدوات الذكاء الاصطناعي الأكثر شعبية في العام 2024 (إنفوغراف)