ويحظر القانون الجديد، الذي يعتبر الأول من نوعه في العالم، عدد من استخدامات الذكاء الاصطناعي يرى أنها تنتهك خصوصية مواطنين 27 تابعة للتكتل.

1- الأنظمة الاحتيالية

يحظر قانون الذكاء الاصطناعي الجديد استخدام الذكاء الاصطناعي لتطوير أنظمة رقمية تعمل على التلاعب بنمط تفكير شخص أو مجموعة من الأشخاص بشكل يؤثر على قدرتهم على التفكير، والحكم على الأمور واتخاذ القرارات.

وهناك صور مختلفة لهذه الأنظمة مثل خوارزميات الذكاء الاصطناعي التي تستخدمها شبكات التواصل الاجتماعي على غرار فيسبوك وانستجرام وتيك توك لتحليل أنماط استخدام الأشخاص لمنصاتهم بهدف فهم طريقة تفكيرهم.

ويرى الاتحاد الأوروبي أن بعض الجهات قد تلجأ إلى "دس أفكار لتغيير الرأي العام في دولة ما".

أعلنت شركة "أبل" تأجيل إطلاق 3 خصائص جديدة للذكاء الاصطناعي وذلك امتثالاً لقواعد التكنولوجيا في الاتحاد الأوروبي.

2- الأنظمة الاستغلالية

يحظر القانون الأوروبي استخدام الذكاء الاصطناعي في استغلال شخص أو مجموعة أو فئة من الأشخاص، اعتماداً على عمرهم أو إعاقتهم أو وضعهم الاجتماعي أو الاقتصادي، وذلك بهدف تشويه سلوك ذلك الشخص، أو أي شخص ينتمي إلى هذه المجموعة، بطريقة تسبب ضرراً كبيراً، لذلك الشخص أو أي شخص آخر.

على سبيل المثال قد يقوم بعض المحتالين باستخدام الذكاء الاصطناعي للتعرف على السمات الشخصية والعمرية لمستخدم تطبيقهم، وفي حال تم التأكد من صغر سنه كونه طفلاً مثلاً أو من ذوي الإعاقة، يقوم بإتمام معاملات مالية خفية داخل التطبيق، اعتماداً على عدم قدرة هذه الفئات على التمييز.

3- الأنظمة المتحيّزة

يمنع القانون استخدام الذكاء الاصطناعي لتطوير أنظمة تقيم الأشخاص بناءً على سلوكهم الاجتماعي وتصنيفهم وفقاً لذلك، مما قد يؤدي إلى معاملة غير عادلة.

من أمثلة هذا الاستخدام المخالف للقانون الجديد، أن تلجأ بعض النوادي الترفيهية إلى نظام ذكاء اصطناعي يجمع ويحلل بيانات من كاميرات المراقبة الفورية، للتعرف على الملامح العامة لهيئة الأشخاص من مرتاديه، للتأكد من توافقهم على شروط الدخول أم لا.

4- أنظمة التنبوء بارتكاب الجرائم

القانون الجديد أيضاً يُجرّم استخدام الأنظمة الذكية التي تتنبأ بارتكاب الأشخاص لجرائم، بناءً على تفاصيل حياتهم الشخصية وسلوكياتهم وسماتهم، دون وجود أية أدلة ملموسة وقوية تثبت ذلك.

ولكن القانون استثنى من هذا التجريم، الأنظمة الذكية التي تُقيمها الدول والمؤسسات الأمنية ومؤسسات إنفاذ القانون، لجمع المعلومات والبيانات وتتبع المشتبه بهم.

المصدر: ٢٦ سبتمبر نت

كلمات دلالية: استخدام الذکاء الاصطناعی

إقرأ أيضاً:

45 مليون تنزيل لـ «فالكون» الإماراتي للذكاء الاصطناعي

أعلن الدكتور حكيم حسيد، كبير الباحثين في وحدة الذكاء الاصطناعي التابعة لمعهد الابتكار التكنولوجي TII، أن سلسلة نماذج «فالكون» للذكاء الاصطناعي تجاوزت 45 مليون تنزيل عالمياً، مما يعكس الإقبال المتزايد على هذه النماذج التي باتت تُستخدم على نطاق واسع من قبل الشركات والمؤسسات والجهات الحكومية حول العالم.
يأتي هذا الإنجاز ليؤكد ريادة أبوظبي في مجال الذكاء الاصطناعي التوليدي، لا سيما مع توجه العالم نحو تبني تقنيات الذكاء الاصطناعي المتقدمة في مختلف القطاعات.
وقال حسيد خلال اليوم الثاني من فعالية «عالم الذكاء الاصطناعي» في إكسبو دبي، إن نماذج «فالكون» تحظى باهتمام واسع من الجهات الحكومية والشركات الكبرى، حيث تستخدمها أكثر من 20 جهة حكومية في تطوير حلولها الرقمية، كما يجري المعهد محادثات مع 7 دول لبحث كيفية تبني هذه النماذج وتكييفها لتناسب احتياجاتها اللغوية والثقافية.
أما بالنسبة للقطاع الخاص، فأوضح الدكتور حسيد أن العديد من الجهات، سواء في الإمارات أو على المستوى العالمي، تستخدم «فالكون» في تطوير تطبيقاتها الخاصة.
وحول الفرق بين «فالكون» وغيره من النماذج مثل «ChatGPT»، أوضح الدكتور حسيد أن «فالكون» يتميز بكونه نموذجاً مفتوح المصدر، مما يعني أن المطورين لديهم إمكانية الوصول الكامل إلى النموذج، وتعديله، واستخدامه لإنشاء تطبيقاتهم الخاصة.
وقال: «على عكس النماذج المغلقة مثل ChatGPT، يمكن للمطورين تحميل فالكون، وفهم كيفية عمله، وبناء تطبيقاتهم الخاصة بناءً عليه، وهذا يمنح الشركات والجهات الحكومية حرية كبيرة في تخصيص الذكاء الاصطناعي ليناسب احتياجاتها، بدلاً من الاعتماد على حلول جاهزة تفرض قيوداً على المستخدمين».
وأضاف: «معظم مستخدمي «فالكون» لا يتفاعلون معه عبر واجهة محادثة، كما هو الحال في ChatGPT، بل يتم دمجه في أنظمة وتطبيقات خاصة، وهو ما يجعله غير ظاهر بشكل مباشر للمستخدمين العاديين».
وتابع: «أطلق الفريق مؤخراً واجهة مستخدم مشابهة لChatGPT لاختبار إمكانيات النموذج وإتاحته للجمهور».
وأوضح أن رحلة «فالكون» بدأت في عام 2022، عندما شرع فريق الباحثين في تطوير نماذج ذكاء اصطناعي توليدي تستند إلى أحدث الخوارزميات، بهدف إنشاء أنظمة أكثر قدرة على فهم النصوص والتفاعل مع البيانات.
ولفت الدكتور حسيد إلى أن المعهد أطلق أول نموذج بحجم 40 مليار بارامتر في مايو 2023، كخطوة أولى نحو بناء نموذج متطور يمكنه منافسة النماذج العالمية، وبعد ذلك، تم إطلاق نموذج أكثر تعقيداً بحجم 180 مليار بارامتر في أغسطس 2023.
وزاد: «في إبريل 2024، أعلن المعهد عن «فالكون 2 11 بي»، الذي لم يقتصر على فهم النصوص فحسب، بل شمل أيضاً القدرة على تحليل الصور والتعرف إلى محتواها، ما جعله أحد أبرز نماذج الذكاء الاصطناعي المتعددة الوسائط».
وتابع: «مثلت هذه الخطوة تحولاً كبيراً في تطوير نماذج الذكاء الاصطناعي، حيث أصبح بإمكان فالكون فهم المشاهد البصرية، مما يفتح الباب أمام تطبيقات جديدة في مجالات مثل الأمن، والتصميم، والرعاية الصحية، والتجارة الإلكترونية». (وام)

مقالات مشابهة

  • إلغاء تعهدات جوجل بشأن استخدام الذكاء الاصطناعي في الأسلحة والمراقبة
  • مؤتمر العلماء يفتتح القمة العالمية للذكاء الاصطناعي في باريس
  • الذكاء الاصطناعي يطرق أبواب الإدارة المغربية
  • الهند تحظر استخدام مساعدي الذكاء الاصطناعي في المؤسسات الحكومية لحماية البيانات
  • أستراليا تحظر برنامج الذكاء الاصطناعي ديب سيك
  • 45 مليون تنزيل لـ «فالكون» الإماراتي للذكاء الاصطناعي
  • ستوجوكومب. استخدام الذكاء الاصطناعي والروبوتات لتحسين رفاهية الأطفال
  • «لا تستخدموه».. طلب غريب من شركة أنثروبيك المتخصصة في الذكاء الاصطناعي
  • «غوغل» تطرح نموذجها الجديد لـ«الذكاء الاصطناعي»
  • تطوير برنامج حماية للذكاء الاصطناعي من الاختراق