الاتحاد الأوروبي يعتمد تشريعا جديدا لتنظيم الذكاء الاصطناعي
تاريخ النشر: 3rd, February 2024 GMT
وافقت الدول الأعضاء في الاتحاد الأوروبي الجمعة على تشريع غير مسبوق على المستوى العالمي لتنظيم الذكاء الاصطناعي بعد مفاوضات مكثفة حول التوازن بين حرية الابتكار والحفاظ على الأمن.
وأعلن سفراء الدول السبع والعشرين "بالإجماع" عن الاتفاق السياسي الذي تم التوصل إليه في ديسمبر بين الدول وأعضاء البرلمان الأوروبي، على ما أعلنت الرئاسة البلجيكية لمجلس الاتحاد الأوروبي.
وكانت المفوضية الأوروبية قدمت مشروعها الذي يحمل عنوان "قانون الذكاء الاصطناعي" في أبريل 2021.
وقد أعطاها ظهور برنامج "تشات جي بي تي" المطور من شركة "أوبن إيه آي" الناشئة في كاليفورنيا، في نهاية عام 2022، والقادر على كتابة أطروحات أو قصائد أو ترجمات في بضع ثوانٍ، بُعداً جديداً، ما ساهم في تسريع المناقشات.
وكشف هذا النظام، على غرار أنظمة أخرى قادرة على إنشاء الأصوات أو الصور، أمام عموم المستخدمين عن الإمكانات الهائلة للذكاء الاصطناعي.
ولكن هذه التكنولوجيا تترافق أيضاً مع مخاطر مختلفة، تشمل نشر صور زائفة تبدو واقعية للغاية، ما يثير مخاوف من الإمكانات الكبيرة للتلاعب بالرأي العام.
وفيما ثمة قواعد تستهدف الذكاء الاصطناعي في بلدان عدة، بينها الصين على سبيل المثال، فإن الإطار القانوني الأوروبي يتمايز لناحية نطاقه.
ورحب المفوض الأوروبي المسؤول عن هذا الملف تييري بريتون، بالتشريع "التاريخي وغير المسبوق على مستوى العالم".
وقال بريتون الجمعة: "لقد أثار قانون الذكاء الاصطناعي اهتماماً كبيراً، لأسباب محقة! اليوم، وافقت الدول على الاتفاق السياسي الصادر في ديسمبر، معترفة بالتوازن المثالي الذي وجده المفاوضون بين الابتكار والأمن".
الحفاظ على القدرة التنافسية
وقد أبدت باريس وبرلين حرصاً حتى النهاية على أن يحمي التشريع الشركات الناشئة المتخصصة في الذكاء الاصطناعي، حتى لا يمنع ظهور "أبطال أوروبيين" في هذا المجال في المستقبل.
وقال دبلوماسيون لوكالة فرانس برس إن المخاوف تم أخذها في الاعتبار قبل وضع اللمسات النهائية على النص. وبذلك حصل البَلدان على توضيحات بشأن تطبيقه.
يوم الثلاثاء، أعرب وزير التكنولوجيا الرقمية الألماني فولكر فيسينغ عن سروره "لأننا حققنا تحسينات للشركات الصغيرة والمتوسطة الحجم، وتجنبنا المتطلبات غير المتناسبة، وتمكنّا من أن نضمن الحفاظ على القدرة التنافسية على المستوى الدولي".
واعتبر من جانبه وزير الاقتصاد الألماني روبرت هابيك الجمعة أن "هذا التشريع يتيح إمكان استغلال الإمكانات الهائلة للذكاء الاصطناعي، مع أخذ المخاطر في الاعتبار. وفي تطبيقه، سنؤكد على سهولة الابتكار والوضوح القانوني للشركات والحاجة إلى هياكل غير بيروقراطية".
غير أن أوساط عالم التكنولوجيا بدت أكثر حذرا.
فقد قال المسؤول عن شؤون أوروبا في مجموعة الضغط "سي سي آي إيه" الناشطة في القطاع بونيفاس دو شامبري الجمعة إن "الكثير من هذه القواعد الجديدة لا تزال غامضة ويمكن أن تبطئ تطوير التطبيقات المبتكرة ونشرها".
وحذر من أن تنفيذ التشريع "بشكل جيد سيكون أمراً حاسما" حتى لا يفرض "عبئا" على القدرة التنافسية.
حواجز تنظيمية
وقالت ماريان توردو بيتكر، من جمعية "فرانس ديجيتال" الناشطة في القطاع الرقمي إن التشريع "يُحدث التزامات كبيرة، على الرغم من بعض التعديلات على الشركات الناشئة والشركات الصغيرة والمتوسطة"، مبدية خشيتها من "حواجز تنظيمية إضافية ستفيد المنافسة الأميركية والصينية".
وفي ما يتعلق بالذكاء الاصطناعي التوليدي، سيتم فرض قواعد على الجميع لضمان جودة البيانات المستخدمة في تطوير الخوارزميات والتحقق من أنها لا تنتهك تشريعات حقوق النشر. وتفرض القواعد الأوروبية على المطورين التأكد من أن الأصوات والصور والنصوص المنتجة محددة بوضوح على أنها من نتاج الذكاء الاصطناعي.
وستُطبق قيود معززة على الأنظمة "عالية المخاطر"، مرتبطة خصوصاً بالبنى التحتية الحيوية، والتعليم، والموارد البشرية، والحفاظ على النظام، إذ ستخضع لسلسلة من الالتزامات مثل توفير التحكم البشري في الآلة، أو التوثيق الفني للمؤسسة، أو تنفيذ المخاطر النظام الإداري.
وينص التشريع على إشراف محدد على أنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، مع واجب إعلام المستخدمين بذلك.
وكما الحال في القواعد الأوروبية الحالية بشأن سلامة المنتجات، يفرض النص ضوابط تعتمد في المقام الأول على الشركات.
ويتضمن التشريع محظورات قليلة، تتعلق بالتطبيقات المخالفة للقيم الأوروبية مثل تصنيف المواطنين أو أنظمة المراقبة الجماعية المستخدمة في الصين، أو تحديد الهوية البيومترية عن بعد للأشخاص في الأماكن العامة.
وفي ما يتعلق بهذه النقطة الأخيرة، حصلت الدول على إعفاءات لبعض مهام إنفاذ القانون مثل مكافحة الإرهاب.
وما زال يتعين على البرلمان الأوروبي أن يصادق بشكل نهائي على التسوية النهائية في الربيع، والتي لم يعد من الممكن تعديلها. وستُطبق قواعد معينة بعد ستة أشهر من اعتمادها، وبعد عامين بالنسبة للأحكام الأخرى.
المصدر: سكاي نيوز عربية
كلمات دلالية: ملفات ملفات ملفات البرلمان الأوروبي الاتحاد الأوروبي المفوضية الأوروبية تشات جي بي تي الذكاء الاصطناعي الذكاء الاصطناعي تكنولوجيا الاتحاد الأوروبي البرلمان الأوروبي الاتحاد الأوروبي المفوضية الأوروبية تشات جي بي تي الذكاء الاصطناعي اتحاد أوروبي الذکاء الاصطناعی
إقرأ أيضاً:
مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.
وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.
هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.
ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!
ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.
وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.
ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.
حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.
وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.
ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.