قوانين جمة لتقويض الذكاء الاصطناعي.. ما أثرها؟
تاريخ النشر: 4th, September 2024 GMT
قام الاتحاد الأوروبي بالتصديق على قانون الذكاء الاصطناعي الأول من نوعه في العالم كما وصفه بيان الاتحاد الرسمي، وهو قانون يهدف لتنظيم العمليات المتعلقة بالذكاء الاصطناعي سواء كانت في التطوير أو الاستخدام داخل دول الاتحاد الأوروبي أو خارجها طالما كانت الشركة تمتلك عمليات داخل الدول التي تخضع للقانون.
ربما كان الاتحاد الأوروبي أول جهة تنظيمية تصدر قانونا مباشرا وصريحا متعلقا بإدارة الذكاء الاصطناعي وتنظيمه، ولكن من المؤكد أن مختلف الدول الكبرى في العالم تتبعه في المستقبل، وفي مقدمتها أميركا التي تخضع الذكاء الاصطناعي حاليا لمجموعة من القوانين المتعلقة بمكونات هذه التقنية وطرق تدريبها وبنائها.
ورغم كون الهدف من هذه القوانين تنظيم وحماية المستخدمين من مخاطر الذكاء الاصطناعي المستقبلية، فإن طرحها وتنفيذها أثار استياء بعض العاملين في قطاع الذكاء الاصطناعي، خوفا من تقويض نمو التقنية بشكل يمنع من تطورها.
لكن هل يمكن القول إن هذه القوانين سيكون لها أثر سلبي فعلا على تقنيات الذكاء الاصطناعي، أم إن الشركات العاملة في هذا القطاع تحاول إزاحة القيود من أمامها حتى تتصرف كما تشاء؟
قانون الذكاء الاصطناعي الأوروبيأقر الاتحاد الأوروبي هذا القانون في مايو/أيار الماضي، أي بعد طرحه بأكثر من 4 أعوام تمت خلالها مناقشته بشكل موسع وتطويعه ليتناسب مع هذه التقنية الناشئة التي قد لا تملك قيودا واضحة، وأما عن السلطة القضائية لهذا القانون، فإنها تخضع جميع الشركات التي تملك أعمالا داخل حدود دول الاتحاد الأوروبي حتى لو كان مقرها خارج القارة الأوروبية تماما، أي أن "مايكروسوفت" و"غوغل" و"أوبن إيه آي" و"بايدو" تخضع لهذا القانون مثل أي شركة ذكاء اصطناعي أوروبية.
في جوهره، يقسم القانون تقنيات الذكاء الاصطناعي إلى عدة مستويات وأقسام، لكل منها قانونه التنظيمي الخاص بشكل لا يتعارض بعضها مع بعض، ويأخذ في الاعتبار المخاطر المتوقعة لكل تقنية ومعدل تطبيقها وانتشارها.
يعتمد القانون الأوروبي على مستوى خطورة الذكاء الاصطناعي في عملية التقسيم هذه، بدءا من المستوى الأخطر، وهو الذي يتدخل بشكل واضح على حياة البشر أو أسلوب معيشتهم ويهدد أمنهم واستقرارهم، مثل تقنيات السيارات ذاتية القيادة، فضلا عن تقنيات المسح السكاني وتصنيف السكان أو حتى قراءة المشاعر وبناء التوقعات والتوصيات بناء عليها.
وعلى هذا التقسيم، فإن القانون يحظر تطوير واستخدام تقنيات الذكاء الاصطناعي التي تشكل خطرا واسعا من المستوى الأعلى دون محاولة تنظيمها، مثل تقنيات القيادة الذاتية التي تشكل خطرا على المستخدمين أو تقنيات توقع الجرائم والقبض على مرتكبيها قبل وقوعها.
في حالة مخالفة القانون الأوروبي للذكاء الاصطناعي، فإن مفوضية الاتحاد الأوروبي تخضع المخالفين لغرامات متنوعة تتناسب مع مستوى خطر الذكاء الاصطناعي الذي تم تقييمه سابقا، وتبدأ هذه الغرامات من 7.5 ملايين يورو أو 1.5% من إجمالي أرباح الشركة حتى 35 مليون يورو أو 7% من إجمالي أرباح الشركة، أيهما كان أعلى وأكثر قيمة.
في حالة مخالفة القانون الأوروبي للذكاء الاصطناعي، فإن مفوضية الاتحاد الأوروبي تخضع المخالفين لغرامات متنوعة (شترستوك) تحديات تنظيمية جمةجاء قرار الاتحاد الأوروبي بتصنيف الذكاء الاصطناعي بحسب مخاطره، وهو قرار ملائم للضرر المتوقع حدوثه من الذكاء الاصطناعي وبالتالي محاولة منع وقوع هذا الضرر من الأساس، ورغم ذلك، فإن مظلة القانون تظل قاصرة بفضل التنوع الواسع في تقنيات الذكاء الاصطناعي ودخول العديد من الجوانب في تكوينها وبالتالي الحاجة لتنظيمها بشكل كامل.
وذلك لأن بعض تقنيات الذكاء الاصطناعي قد تمثل خطرا في سياق بعينه، مثل استخدام تقنيات التشغيل الذاتي في الأدوات الجراحية حيث تهدد مثل هذه التقنيات حياة وصحة الإنسان بشكل مباشر، ولكن تقنيات القيادة الذاتية في السيارات لا تملك الخطر ذاته، مما يتعارض بشكل مباشر مع تقييم مستوى الخطر لتقنيات التشغيل الذاتي بشكل عام.
تنوع استخدامات الذكاء الاصطناعي وتطبيقاته يجعل من الصعب وضع قانون واحد يضم كل التنظيمات المتعلقة به، ومن ضمن الأمثلة الواضحة على هذا الأمر تقديم تقنيات الذكاء الاصطناعي في الحروب العسكرية، إذ تعد وظيفة هذه التقنية الأساسية تيسير الفوز في الحروب ومقاومة الأعداء دون النظر إلى الحياة البشرية ومقدار الضرر الحادث، ولكن في الوقت نفسه، فإن هذه التقنية تمثل خطرا كبيرا على حياة البشر.
كما يمثل سياق استخدام تقنيات الذكاء الاصطناعي عاملا مهما في تحديد القانون الذي تخضع له، فبينما يحظر الاتحاد الأوروبي استخدام تقنيات التصنيف الاجتماعي العشوائي للمواطنين ضمن الشركات والاستخدامات المعتادة، فإن مثل هذه التقنية قد تكون مفيدة في الاستخدامات القضائية ومحاولة كبح أعمال الشغب واكتشاف المجرمين المختبئين وسط المستخدمين.
من المتوقع بالطبع أن يتم تعزيز قانون الذكاء الاصطناعي الأوروبي بالعديد من المواد بحسب ما يستجد في عالم الذكاء الاصطناعي، ولكن هل تكون عملية التحديث هذه بسرعة الإصدار ذاتها؟ إذ إن شركات الذكاء الاصطناعي تعمل بوتيرة متسارعة لتقديم تقنيات جديدة للبقاء في المنافسة، فهل تستطيع الجهات القانونية الأوروبية مواكبة هذه الوتيرة؟
تعارض متعدد المستوياتتأخرت حكومة الولايات المتحدة في طرح قانونها لتنظيم عمليات وتقنيات الذكاء الاصطناعي بشكل مباشر، ورغم هذا، فإنها لم تترك هذه الساحة دون قوانين تنظيمية، إذ قامت بفصل تقنيات الذكاء الاصطناعي وتوزيعها على القوانين والهيئات الموجودة حاليا، كأن تخضع تقنيات القيادة الذاتية لقوانين هيئات المركبات الفدرالية وتخضع الأسلحة الذكية للقوانين المتعلقة بالأسلحة بشكل عام وتقنيات الذكاء الاصطناعي التوليدي للقوانين الإبداعية.
فضلا عن ترك مهمة تحديد القوانين المخصصة للذكاء الاصطناعي على عاتق الإدارات الفدرالية في كل ولاية بمفردها، لذا قد توجد تقنية ذكاء اصطناعي محظورة في ولاية ما لكنها مسموحة في ولاية أخرى، وبينما يوفر هذا الأسلوب على الحكومة الفيدرالية للولايات المتحدة وقتا وجهدا في الاجتماع والتشاور، فإنه يخلق مستوى أعمق من التعارض بين القوانين.
فإن كان القانون الأوروبي يواجه هذا التعارض بين الاستخدامات المختلفة، فإن الحكومة الأميركية تواجه هذا التعارض بين الولايات والهيئات المختلفة داخل الحكومة ذاتها، وقد ينظر البعض لهذا التعارض على أنه فرصة لاستغلال الثغرات القانونية المتاحة في كل ولاية أو هيئة بمفردها، إلا أنه في الحقيقة يعرقل نمو الشركات وتطوير التقنيات بشكل صحيح، إذ يجب على الشركة تحديد أي قانون ترغب في اتباعه ثم التضحية بالولايات أو الدول التي تتعارض مع هذا القانون.
وبينما تشكل الشركات الأميركية الآن السواد الأعظم للشركات المطورة في قطاع الذكاء الاصطناعي، فإن هذا لا يعني وجود منافسين من خارج الحدود، وفي هذه الحالة، لماذا يجب أن تخضع الشركات الأوروبية أو العربية للقوانين الأميركية لتنظيم الذكاء الاصطناعي؟ والعكس صحيح كذلك، لذا من الأنسب بناء هيئة عالمية موحدة على غرار مجلس الأمن والأمم المتحدة لتنظيم هذه التقنيات، وذلك حتى تخضع الشركات لقانون موحد دوليا.
الهيئات التنظيمية والقانونية الدولية تنظر لشركات تطوير الذكاء الاصطناعي بعين الهيمنة (رويترز) الهرب بدلا من الخضوع للغراماتتنظر الهيئات التنظيمية والقانونية الدولية لشركات تطوير الذكاء الاصطناعي بعين الهيمنة، إذ تعتقد بأنها قد توافق وتخضع لأي قانون صادر تجاهها، وفي حين كان هذا الأمر صحيحا في الماضي مع وجود حدود فيزيائية تمنع الشركات من العمل في أماكن بعيدة عن مقارها، فإن هذا الأمر اختلف تماما منذ مطلع القرن العشرين.
تستطيع الشركات الآن التخلي عن أسواق وقطاعات بأكملها هربا من الغرامات والقوانين المنظمة التي لا يمكن التماشي معها، وربما كان ما فعلته "ميتا" (Meta) في نهاية يونيو/حزيران الماضي مثالا حيا لذلك، إذ فضلت الشركة تأجيل طرحها لتقنيات الذكاء الاصطناعي داخل دول الاتحاد الأوروبي حتى الانتهاء من تطويعها بشكل يتماشى مع القانون، وقد تتخلى الشركة تماما عن طرح هذه التقنية في تلك البلاد هربا من العقوبات والغرامات.
في الوقت الحالي لم تعلن أي شركة غير "ميتا" عن هذا الأسلوب، ولكن قد نراه مستقبلا مع الشركات الأخرى إذا ما أثبت نجاحه مع "ميتا" وحماها من الوقوع تحت طائلة القانون الأوروبي، وفي هذه الحالة، فإن أسواق الذكاء الاصطناعي ستتحول من أسواق عالمية لا مركزية يمكن للجميع المشاركة فيها إلى أسواق محلية تركز على التماشي مع القوانين المطبقة محليا على كل منها.
الحاجة إلى فهم عميقيتمتع الذكاء الاصطناعي بخصوصية تجعله مختلفا عن التقنيات الأخرى، إذ تتنوع استخدامات هذه التقنية وطرق تطويرها ويتدخل في الأمر العديد من المفاهيم التقنية المعقدة في مختلف نماذج واستخدامات الذكاء الاصطناعي، بدءا من نماذج الذكاء الاصطناعي التوليدي وحتى الروبوتات البشرية المعززة بالذكاء الاصطناعي أو حتى السيارات الذاتية القيادة.
لهذا السبب تحديدا، طالب الكونغرس شركات الذكاء الاصطناعي في مطلع هذا العام بالتكفل بعملية تدريب أعضائه وتثقيفهم حول تقنيات الذكاء الاصطناعي أملا في صك قوانين أكثر تفهما لطبيعة هذا القطاع الفريدة ومحاولة تنظيمه بما لا يتعارض مع نموه بشكل واسع.
وفي حين يبدو هذا المطلب غير واقعي، فإنه يمثل الطريق الأنسب لمحاولة الوصول إلى تقنيات وتشريعات عادلة بحق الذكاء الاصطناعي والشركات التابعة له، ويظل الحل البديل هو تشريع القوانين دون النظر إلى خصوصية التقنية، مما يولد أسوارا تمنع التقنية من النمو بشكل واقعي.
المصدر: الجزيرة
كلمات دلالية: حراك الجامعات حريات تقنیات الذکاء الاصطناعی الاتحاد الأوروبی القانون الأوروبی هذه التقنیة هذا القانون
إقرأ أيضاً:
كيف يمكن للعالم أن يحد من مخاطر الذكاء الاصطناعي؟
يحتاج الذكاء الاصطناعي إلى تنظيم وحوكمة وتشريعات قانونية في ظل التطورات المتلاحقة التي تثير الكثير من المخاوف، وذلك للحفاظ على التوازن بين الابتكار التكنولوجي والأمن، وفقا للكاتب علي أوغوز ديريوز في مقال نشرته صحيفة "إندبندنت" بنسختها التركية.
وقال الكاتب، وهو أستاذ مشارك بجامعة توب للاقتصاد والتكنولوجيا في أنقرة، إن هناك بالفعل جهودا دولية من أجل سن تشريعات تضبط استخدام الذكاء الاصطناعي تضع له أطرا قانونية، حيث يركز الاتحاد الأوروبي حاليا على إدارة المخاطر الناتجة عن الذكاء الاصطناعي، في حين شرعت الهند بصياغة تدابير تنظيمية أكثر صرامة، لكنه يرى أن تجنب الآثار السلبية يحتاج إلى جهود إضافية وتعاون دولي أوسع.
وأوضح أن تلك الجهود يجب أن تشمل تنظيم العملات المشفرة والأصول الرقمية، لأن مخاطرها تتجاوز الاعتبارات الأمنية وتمسّ سيادة الدول، معتبرا أن جمع الضرائب وإصدار العملات النقدية يجب أن يبقى حكرا على الحكومات.
وحسب رأيه، فإن الجهود التنظيمية في مجال العملات المشفرة يجب أن تركز على مكافحة غسل الأموال وتمويل الأنشطة الإجرامية وعمليات الاحتيال المالي، خاصة أن البورصات غير المنظمة للعملات الرقمية قد تهدد استقرار الأسواق والاقتصادات الوطنية.
إعلان
إجراءات تنظيمية أكثر صرامة
أضاف الكاتب أنه رغم قدرة التكنولوجيا على تسهيل حياتنا اليومية وزيادة كفاءة أعمالنا، فإنها تشكّل تهديدا على مستقبل بعض الوظائف.
وفي هذا السياق، أقر الاتحاد الأوروبي قانونا جديدا للذكاء الاصطناعي يعتمد على تقييم المخاطر، ويفرض قواعد صارمة لمجابهتها، كما يحظر بعض أنظمة الذكاء الاصطناعي التي تُصنَّف بأنها ذات مخاطر غير مقبولة.
وأشار الكاتب إلى أن الهند التي تتبوأ مكانة رائدة إقليميا وعالميا في إدارة بيانات الذكاء الاصطناعي، والتي تبنّت في الماضي نهجا منفتحا تجاه الابتكارات في هذا المجال، قد تكون في طريقها نحو سياسة تنظيمية جديدة أكثر صرامة.
وأضاف أن رئيس الوزراء ناريندرا مودي الذي كان يتحدث باستمرار عن فوائد الذكاء الاصطناعي ودوره في تعزيز الابتكار والمشاريع الجديدة، اعتمد في الفترة الأخيرة نهجا يلمح إلى أن الهند تسعى لتحقيق توازن بين الابتكار والتنظيم لمواجهة المخاطر والتحديات الأمنية المرتبطة بتقنيات الذكاء الاصطناعي.
وشدد الكاتب على أن تركيا مطالبة بمتابعة التطورات التقنية، ليس فقط في سياق الاتحاد الأوروبي، نظرا لارتباط تركيا بالعديد من المؤسسات الأوروبية في مجال الذكاء الاصطناعي، ولكن أيضا في دول مجموعة بريكس مثل الهند.
وقال إنه من الملاحظ أن تركيا، كدولة تفخر بامتلاكها نفوذا في المجال التكنولوجي، تبنّت مؤخرا موقفا أكثر حذرا تجاه تنظيم الذكاء الاصطناعي، مما يعكس إدراكها للتحديات والفرص المصاحبة لهذه التقنيات.
قمم عالمية منتظرة
ذكر الكاتب أن العديد من الدول ستشارك في اجتماعات وقمم دولية في عام 2025 لمناقشة كيفية الموازنة بين مزايا الذكاء الاصطناعي ومخاطره، ومن بينها "القمة العالمية للذكاء الاصطناعي" التي ستُعقد في العاصمة الفرنسية باريس في فبراير/ شباط 2025.
ومن المنتظر أن تتناول القمة 5 محاور رئيسية، تشمل الذكاء الاصطناعي لصالح الجمهور ومستقبل الوظائف والابتكار والثقافة والثقة في الذكاء الاصطناعي والحوكمة العالمية للذكاء الاصطناعي.
إعلانوأكد الكاتب أن التعاون الدولي يعدّ ضرورة ملحة للتعامل مع عيوب الذكاء الاصطناعي قبل استفحالها، حيث إن تجاهل هذه العيوب قد يؤدي إلى مشكلات أكبر في المستقبل، معتبرا أن هذه الجهود تتطلب مشاركة الحكومات والشركات والمجتمع الدولي لضمان إدارة هذه التقنيات بشكل يخدم الصالح العام.