الكنيست يدرس مشروع قانون حظر الأونروا.. وفلسطين والاتحاد الأوروبي يحذران
تاريخ النشر: 28th, October 2024 GMT
بدأ الكنيست الإسرائيلي، دراسة تشريع يحظر أي اتصال بين إسرائيل ووكالة الأمم المتحدة لإغاثة وتشغيل اللاجئين الفلسطينيين “الأونروا” في غزة.
قالت وزارة الخارجية والتنمية البريطانية إنه بدون عمل “الأونروا”، سوف يتعرقل بشدة تقديم مساعدات منقذة للحياة للاجئين الفلسطينيين، إن لم يصبح مستحيلاً.
فيما أعرب الاتحاد الأوروبي عن قلقه البالغ إزاء عزم الكنيست الإسرائيلي للتصويت على قرار ضد وكالة الأونروا.
من جانبها، حذرت الرئاسة الفلسطينية، اليوم الاثنين، من مخاطر التشريع الإسرائيلي ضد وكالة غوث وتشغيل اللاجئين الفلسطينيين "الأونروا"، مشيرة إلى أن هذا التشريع يشكل خرقًا للقانون الدولي، واستفزازًا للمجتمع الدولي بأسره.
وحيت الرئاسة، مواقف الدول التي حذرت من مخاطر هذا التشريع الإسرائيلي ضد الأونروا، ومنها كندا وأستراليا وفرنسا وألمانيا واليابان وجمهورية كوريا والمملكة المتحدة، التي عبرت عن ذلك في بيان مشترك.
وأكدت الرئاسة أن وكالة الأونروا هي خط أحمر، وأن قضية اللاجئين هي جوهر القضية الفلسطينية، وأنه لا حل دون حل قضية اللاجئين حلا عادلاً وفق قرارات الشرعية الدولية والقانون الدولي، مشيرة إلى أن الأونروا أنشئت وفق قرار أممي في 18 ديسمبر عام 1949.
ومن المتوقع أن تصوت "الكنيست" الإسرائيلية اليوم، بالقراءتين الثانية والثالثة، على مشروعي قانونين يهددان مستقبل وكالة غوث وتشغيل اللاجئين الفلسطينيين "الأونروا" في الأراضي الفلسطينية المحتلة.
ويتعلق القانون الأول بحظر عمل "الأونروا" في القدس المحتلة، أما الثاني فيشمل سحب الامتيازات والحصانات الممنوحة لموظفي الوكالة الأممية.
المصدر: صدى البلد
كلمات دلالية: الكنيست الإسرائيلي إسرائيل الاونروا غزة
إقرأ أيضاً:
بدء تطبيق قانون الذكاء الاصطناعي في الاتحاد الأوروبي غدا
تبدأ غدا الثاني فبراير 2025 حقبة جديدة بالنسبة للذكاء الاصطناعي حيث تدخل الالتزامات الأولى للقانون المنظم لهذه التقنية في الاتحاد الأوروبي حيز التنفيذ، في حين أن متطلبات الامتثال الكاملة للقانون لن تدخل حيز التنفيذ إلا في منتصف عام 2025. ويجب على الشركات التي تعمل في الاتحاد الأوروبي الآن أن تحترم هذا التشريع.
تصنيفات المخاطر
صنف الاتحاد الأوروبي المخاطر التي يمثلها الذكاء الاصطناعي إلى أربعة أنواع.
خطر غير مقبول
يعتبر نظام الذكاء الاصطناعي، خطرا غير مقبول عندما يكون استخدامه مخالفًا للقيم والحقوق ومبادئ الكرامة والمساواة الأساسية في الاتحاد الأوروبي. وهذا النوع محظور تمامًا في فضاء التكتل المكون من 27 دولة بموجب هذا القانون.
مخاطر عالية
تتضمن هذه المرحلة الأولى من قانون الاتحاد الأوروبي حظرًا كبيرًا على تطبيقات محددة للذكاء الاصطناعي. تحظر اللوائح الجديدة نشر أو استخدام العديد من أنظمة الذكاء الاصطناعي التي صنفت عالية المخاطر، وهي التي تعرض أمن الناس أو حقوقهم الأساسية للخطر.
مخاطر تتعلق بالشفافية
تتفاعل بعض أنظمة الذكاء الاصطناعي مع الأشخاص الطبيعيين، ويمكنها التأثير عليهم وتوجيه سلوكهم. ولذلك، تنطبق على هذه الأنظمة التزامات معينة فيما يتعلق بالمعلومات تجاه الأفراد، من أجل ضمان الشفافية الكاملة من ناحية، وتعزيز الثقة في هذه الأدوات من ناحية أخرى. على سبيل المثال، من الضروري أن يكون مستخدمو روبوتات الدردشة على علم بوضوح بأنهم يتفاعلون مع جهاز وليس أشخاص طبيعيين.
الحد الأدنى من المخاطر
تشمل هذه الفئة جميع أنظمة الذكاء الاصطناعي التي لا تشكل مخاطر معينة فيما يتعلق بالأمن أو حماية الحقوق الأساسية. وبالتالي، لا ينطبق عليها أي التزام محدد. ووفقا للمفوضية الأوروبية، تمثل هذه الأنظمة الغالبية العظمى من تلك المستخدمة حاليا أو من المحتمل استخدامها داخل التكتل
يمكن أن تواجه الشركات التي تنتهك القواعد عقوبات تصل إلى 7% من مبيعاتها السنوية العالمية، مما يحتم على المؤسسات فهم القيود والامتثال لها.
يمثل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي مجرد بداية لمسعى تنظيمي معقد وطموح. مع استمرار الذكاء الاصطناعي في لعب دور محوري متزايد في استراتيجية الأعمال، يتعين على المؤسسات أن تلتزم بالقواعد الجديدة وتتكيف باستمرار مع التغييرات المستقبلية في التشريعات المنظمة للذكاء الاصطناعي.
كما يتعين على شركات الذكاء الاصطناعي إطلاق العنان للإمكانات الكاملة لهذه التكنولوجيا المستقبلية الواعدة والمهمة مع الحفاظ على المعايير الأخلاقية والقانونية.
مصطفى أوفى (أبوظبي)