تبدأ غدا الثاني فبراير 2025 حقبة جديدة بالنسبة للذكاء الاصطناعي حيث تدخل الالتزامات الأولى للقانون المنظم لهذه التقنية في الاتحاد الأوروبي حيز التنفيذ، في حين أن متطلبات الامتثال الكاملة للقانون لن تدخل حيز التنفيذ إلا في منتصف عام 2025. ويجب على الشركات التي تعمل في الاتحاد الأوروبي الآن أن تحترم هذا التشريع.

 
تصنيفات المخاطر
صنف الاتحاد الأوروبي المخاطر التي يمثلها الذكاء الاصطناعي إلى أربعة أنواع.
خطر غير مقبول
يعتبر نظام الذكاء الاصطناعي، خطرا غير مقبول عندما يكون استخدامه مخالفًا للقيم والحقوق ومبادئ الكرامة والمساواة الأساسية في الاتحاد الأوروبي. وهذا النوع محظور تمامًا في فضاء التكتل المكون من 27 دولة بموجب هذا القانون.
مخاطر عالية
تتضمن هذه المرحلة الأولى من قانون الاتحاد الأوروبي حظرًا كبيرًا على تطبيقات محددة للذكاء الاصطناعي. تحظر اللوائح الجديدة نشر أو استخدام العديد من أنظمة الذكاء الاصطناعي التي صنفت عالية المخاطر، وهي التي تعرض أمن الناس أو حقوقهم الأساسية للخطر.
مخاطر تتعلق بالشفافية
تتفاعل بعض أنظمة الذكاء الاصطناعي مع الأشخاص الطبيعيين، ويمكنها التأثير عليهم وتوجيه سلوكهم. ولذلك، تنطبق على هذه الأنظمة التزامات معينة فيما يتعلق بالمعلومات تجاه الأفراد، من أجل ضمان الشفافية الكاملة من ناحية، وتعزيز الثقة في هذه الأدوات من ناحية أخرى. على سبيل المثال، من الضروري أن يكون مستخدمو روبوتات الدردشة على علم بوضوح بأنهم يتفاعلون مع جهاز وليس أشخاص طبيعيين.
الحد الأدنى من المخاطر
تشمل هذه الفئة جميع أنظمة الذكاء الاصطناعي التي لا تشكل مخاطر معينة فيما يتعلق بالأمن أو حماية الحقوق الأساسية. وبالتالي، لا ينطبق عليها أي التزام محدد. ووفقا للمفوضية الأوروبية، تمثل هذه الأنظمة الغالبية العظمى من تلك المستخدمة حاليا أو من المحتمل استخدامها داخل التكتل
يمكن أن تواجه الشركات التي تنتهك القواعد عقوبات تصل إلى 7% من مبيعاتها السنوية العالمية، مما يحتم على المؤسسات فهم القيود والامتثال لها. 
يمثل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي مجرد بداية لمسعى تنظيمي معقد وطموح. مع استمرار الذكاء الاصطناعي في لعب دور محوري متزايد في استراتيجية الأعمال، يتعين على المؤسسات أن تلتزم بالقواعد الجديدة وتتكيف باستمرار مع التغييرات المستقبلية في التشريعات المنظمة للذكاء الاصطناعي.  
كما يتعين على شركات الذكاء الاصطناعي إطلاق العنان للإمكانات الكاملة لهذه التكنولوجيا المستقبلية الواعدة والمهمة مع الحفاظ على المعايير الأخلاقية والقانونية.
مصطفى أوفى (أبوظبي)

أخبار ذات صلة كيف يُساعد الذكاء الاصطناعي في حماية الحياة البرية؟ «شهر الابتكار» يعزز ريادة الإمارات علمياً وتكنولوجياً المصدر: الاتحاد - أبوظبي

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي الاتحاد الأوروبي فی الاتحاد الأوروبی الذکاء الاصطناعی

إقرأ أيضاً:

دولة أوروبية تحظر تطبيق «ديب سيك» للذكاء الاصطناعي

هيئة حماية البيانات الأيرلندية ذكرت الأربعاء أنها وجهت خطابا مكتوبا إلى “ديب سيك” تعبّر فيها عن مخاوفها من احتمال انتهاكها لقانون حماية الخصوصية في الاتحاد الأوروبي.

التغيير: وكالات

قالت هيئة حماية البيانات الإيطالية يوم الخميس إنها حظرت نموذج الذكاء الاصطناعي الصيني “ديب سيك” بسبب نقص المعلومات حول البيانات الشخصية التي يجمعها.

وأوضحت الهيئة في مذكرة على موقعها على الإنترنت أن قرار حظر “ديب سيك” دخل حيز التنفيذ على الفور.

وأعربت الهيئة عن عدم رضاها عن رد “ديب سيك” على استفسارها الأولي بشأن البيانات الشخصية التي يتم جمعها، وأين يتم تخزينها، وكيف يتم إخطار المستخدمين.

وأضافت الهيئة في بيان لها إلى أنه: “على عكس ما توصلت إليه الهيئة، أعلنت الشركة أنها لا تعمل في إيطاليا، وأن التشريعات الأوروبية لا تنطبق عليها”، مشيرة إلى أن التطبيق قد تم تحميله من قبل ملايين الأشخاص حول العالم في غضون أيام قليلة فقط.

وذكرت هيئة حماية البيانات الأيرلندية الأربعاء أنها وجهت خطابا مكتوبا إلى “ديب سيك” تعبّر فيها عن مخاوفها من احتمال انتهاكها لقانون حماية الخصوصية في الاتحاد الأوروبي.

ونقلت وكالة بلومبرغ للأنباء عن غرافام دويل نائب رئيس الهيئة القول “كتبنا إلى ديب سيك لطلب معلومات بشأن معالجة البيانات التي تمت بشأن بيانات أطراف في أيرلندا”.

جدير بالذكر أن “ديب سيك” أطلقت مطلع الأسبوع الحالي نموذج لغة جديدا للذكاء الاصطناعي بإمكانيات تفوق النماذج التي تقدمها الشركات الأميركية الكبرى مثل “أوبن إيه آي” وبتكلفة زهيدة للغاية.

ويعتمد نموذج “ديب سيك” على 2000 رقاقة فقط بتكلفة بلغت 5.6 مليون دولار ليحقق نفس النتائج التي تحققها نماذج الشركات الأميركية التي تحتاج إلى 16 ألف رقاقة بتكلفة تتراوح بين 100 و200 مليون دولار.

وتجري شركة “مايكروسوفت “وشركة “أوبن إيه آي” مالكة تطبيق “تشات جي بي تي” تحقيقا لمعرفة ما إذا كانت مجموعة قرصنة مرتبطة بشركة “ديب سيك” قد حصلت على بيانات خاصة بتقنيات “أوبن إيه آي” بطرق غير قانونية، بحسب مصادر تحدثت لوكالة بلومبرغ.

ورصد باحثون في شؤون الأمن لدى “مايكروسوفت” قبل أشهر أفرادا يُعتقد أنهم مرتبطون بشركة “ديب سيك” وهم يستخرجون كمية كبيرة من البيانات باستخدام واجهة برمجة التطبيقات الخاصة بـشركة “أوبن إيه آي”، حسب الأشخاص الذين طلبوا عدم الكشف عن هوياتهم لأن الأمر سري.

من ناحيته، أوضح ديفيد ساكس، مستشار الذكاء الاصطناعي للرئيس دونالد ترامب، أن هناك أدلة قوية على أن “ديب سيك” اعتمدت على مخرجات نماذج “أوبن إيه آي” للمساعدة في تطوير تقنيتها الخاصة.

الوسومالذكاء الإصطناعي تكنولوجيا ديب سيك

مقالات مشابهة

  • معرض الكتاب.. متخصصون يحذرون من مخاطر الذكاء الاصطناعي في الإعلام
  • حزب الاتحاد: الاصطفاف الوطني أمام معبر رفح يعكس الوعي بحجم مخاطر المنطقة
  • حظر تطبيق Deepseek الصيني للذكاء الاصطناعي
  • دولة أوروبية تحظر تطبيق «ديب سيك» للذكاء الاصطناعي
  • «ديب سييك» تطبيق جديد يقلب موازين الذكاء الاصطناعي
  • “سدايا” تستعرض مستقبل الذكاء الاصطناعي العام والتحديات التي تواجهه بمشاركة أكثر من 16 جهة حكومية
  • ينافس فيسبوك.. ماذا قال زوكربيرج عن تطبيق الذكاء الاصطناعي الصيني DeepSeek؟
  • Deepseek AI.. تطبيق الذكاء الاصطناعي الأفضل على آيفون
  • نظمها مركز «تريندز».. ندوة تناقش دور الذكاء الاصطناعي في خدمة التنمية المستدامة