ضوابط الذكاء الاصطناعي.. تشدد أوروبي ومرونة آسيوية
تاريخ النشر: 13th, February 2024 GMT
نشرت دول جنوب شرق آسيا مبادئ توجيهية طال انتظارها تهدف لوضع قواعد تنظم استخدام الذكاء الاصطناعي، لكنها إرشادات تتسم باللين ورؤية طوعية لكيفية قيام حكومات رابطة دول جنوب شرق آسيا (آآسيان) بتقييد أسوأ جوانب الذكاء الاصطناعي مع الاستفادة الاقتصادية من تقدمها في هذا المجال.
وفي الاجتماع الوزاري الرابع في سنغافورة الشهر الجاري، وافقت دول الآسيان العشر على المبادئ التوجيهية التي جرى صياغتها لأول مرة العام الماضي.
ويرى مراقبون أن القانون الأسيوي الجديد والذي يُنظر إليه باعتباره أكثر ملاءمة للنشاط الاقتصادي والتجاري ربما يتسبب في بعض الانزعاج داخل الاتحاد الأوروبي حيث يمارس التكتل ضغوطا على باقي دول العالم للتوافق مع تشريع أوروبي أكثر صرامة بشأن تنظيم استخدام الذكاء الاصطناعي، والذي وصفته مفوضية الاتحاد الأوروبي بكونه أول قانون شامل في العالم خاص بالذكاء الاصطناعي.
شركات تعارض القانون الأوروبي
وفي محاولة لإقناع دول الآسيان بدعم قواعد صارمة لتنظيم الذكاء الاصطناعي، قام مسؤولو الاتحاد الأوروبي بزيارة العديد من الدول الأسيوية بما في ذلك سنغافورة والفلبين الصيف الماضي لدفعهم إلى قبول هذا الشكل من الأطر القانونية التي ستجبر الشركات على الكشف عما إذا كانت قد استخدمت محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. وذكرت رويترز العام الماضي أن الشركات تفرض عقوبات مالية على انتهاكات القواعد.
وتشعر المفوضية الأوروبية بقلق إزاء الضرر المحتمل الذي يمكن أن يتسبب فيه المحتوى الذي يتم إنشاؤه عن طريق الذكاء الاصطناعي على الديمقراطية وحقوق الإنسان والجوانب الاجتماعية مثل نشر صورة جنسية مزيفة.
ومن المفارقة أن اليوم الذي دعمت فيه دول الاتحاد الأوروبي قانون الذكاء الاصطناعي في الثاني من فبراير / شباط الجاري تزامن مع ذاك اليوم الذي شهد إصدار رابطة الآسيان مبادئها التوجيهية بشأن استخدام الذكاء الاصطناعي. ومن المقرر أن يُطرح تشريع الاتحاد الأوروبي للتصويت النهائي في البرلمان الأوروبي في مارس/ آذار أو أبريل / نيسان فيما يتوقع أن يحصل على التصديق النهائي بحلول الصيف.
وكان كثيرون داخل أروقة الاتحاد الأوروبي يأملون في أن تكون قواعد الآسيان بشأن استخدام الذكاء الاصطناعي على مسافة قريبة من القوانين الأوروبية على غرار قواعد حماية البيانات حيث جرى نسخ جزء كبير من اللائحة الأوروبية العامة لحماية البيانات التي تم إقرارها في عام 2016، في التشريعات التي أقرتها دول الآسيان بشأن حماية البيانات.
وتمثلت ثمرة التعاون الثنائي في إطلاق الاتحاد الأوروبي ورابطة الآسيان مجموعة مشتركة من المبادئ التوجيهية في يونيو / حزيران الماضي حول كيفية امتثال الشركات الدولية لقواعد حماية البيانات الشخصية في حالة نقلها عبر دول الكتلتين.
لكن فيما يتعلق بالتشريع الأوروبي لتنظيم عمل الذكاء الاصطناعي، فقد لقي معارضة من شركات التكنولوجيا الكبرى حيث وقع نحو 160 مسؤولا تنفيذيا رسالة في يونيو/حزيران الماضي تحذر من أن التشريع يعرض القدرة التنافسية والاستثمار والابتكار في مجال الذكاء الاصطناعي داخل أوروبا للخطر.
لا تفريط ولا إفراط
ويعتقد مراقبون من أن دول الآسيان تشعر بالقلق من مغبة أي تأثير سلبي على ثقة الشركات مع إدراكها بصعوبة التوصل إلى توافق في الآراء فيما بينها بشأن قضايا الرقابة بسبب تباين نُظم الحكم داخلها، وهو ما دفعها في نهاية المطاف إلى الخروج بنهج طوعي أكثر لينة.
ويقول المحللون إن رابطة الآسيان، التي تضم تحت رايتها دول ذات حكم ديمقراطي وليبرالي ودول شيوعية يهيمن عليها حزب واحد فضلا عن أن هذه الدول قامت بسن تشريعات متباينة بشأن الرقابة والملكية الفكرية، مما يجعل من الصعب إيجاد أرضية مشتركة حول كيفية إدارة المحتوى الضار الذي يتم إنشاؤه عن طريق الذكاء الاصطناعي.
كذلك تضم رابطة الآسيان دول ذات اقتصادات متقدمة وتكنولوجية راسخة مثل سنغافورة ودول تقف على النقيض من ذلك حيث تعاني من نقص في الوصول إلى الإنترنت وانخفاض في معدلات تعلم القراءة والكتابة الرقمية.
وقال سيمون تشيسترمان، خبير الذكاء الاصطناعي في جامعة سنغافورة الوطنية، إن الدول الصغيرة والمناطق النامية في العالم تريد تجنب الإفراط في فرض القيود لأن ذلك قد "يقيد الابتكار أو يدفع (الشركات) إلى أماكن أخرى".
وكانت سنغافورة أول دولة في جنوب شرق آسيا تطلق استراتيجية وطنية للذكاء الاصطناعي في عام 2019 حيث أصدرت في ديسمبر / كانون الأول الماضي استراتيجيتها الوطنية للذكاء الاصطناعي 2.0. وتصادف ذلك مع إعلان الحكومة الإندونيسية في الشهر ذاته اعتزامها اقتراح تشريع وطني خاص باستخدام الذكاء الاصطناعي.
ووفقا للمبادئ التوجيهية الجديدة لرابطة الآسيان، فإنه ينبغي على الحكومات رعاية المواهب في مجال الذكاء الاصطناعي وتحسين مهارات القوى العاملة مع ضخ استثمارات كبيرة في مجالي البحث والتطوير.
ونصت مبادئ الحوكمة والأخلاقيات لاستخدام الذكاء الاصطناعي والذي جاءت في 87 صفحة وصدرت في الثاني من فبراير / شباط الجاري على أنه "ينبغي التعامل مع أنظمة الذكاء الاصطناعي بشكل مختلف عن أنظمة البرمجيات الأخرى بسبب خصائصها ومخاطرها الفريدة".
وقالت إنه في ضوء "التأثير الكبير الذي يمكن أن يتسبب فيه الذكاء الاصطناعي على عمل المنظمات والأفراد في بلدان الآسيان، فإنه من المهم أن تتماشى القرارات التي يتخذها الذكاء الاصطناعي مع القيم الوطنية والمؤسسية وأيضا يتوافق مع الأعراف الأخلاقية والاجتماعية".
وقال كان مين ين، الأستاذ المساعد في كلية الحاسبات بجامعة سنغافورة الوطنية، إن اللوائح التنظيمية في جنوب شرق آسيا ليست "فضفاضة" بقدر ما هي "أقل صرامة أو خصوصية" من التشريعات التي اقترحها الاتحاد الأوروبي.
وأضاف أن "جنوب شرق آسيا منطقة أكثر تنوعا من حيث نظامها البيئي الرقمي مقارنة بالنضج النسبي للاتحاد الأوروبي. في ظل وجود دول ناشئة وبنية تحتية صاعدة، فقد يكون سن قوانين صارمة أمرا مرهقا للغاية من حيث التنفيذ والتطبيق سواء من قبل حكومات الآسيان أو الشركات الناشئة والشركات المتعددة الجنسيات."
ويتفق مع هذا الرأي جوش لي، المدير الإداري لمنتدى "مستقبل الخصوصية" في منطقة آسيا والمحيط الهادئ، قائلا: "لقد اتخذت أغلب حكومات جنوب شرق آسيا نهجا تدريجيا وناعما في تنظيم عمل الذكاء الاصطناعي مع التركيز على المبادئ التوجيهية الطوعية وقواعد السلوك بدلا من وضع قواعد وقوانين صارمة".
لكنه قال إنه يجب علينا ألا نعتبر هذا النهج أمر مفروغ منه إذ لم تستبعد بعض حكومات الآسيان سن قوانين وطنية شاملة للذكاء الاصطناعي في المستقبل تتماشى مع القانون الأوروبي.
ففي ديسمبر/ كانون الأول الماضي، أعلنت الحكومة الإندونيسية عن خطط لسن قانون وطني شامل للذكاء الاصطناعي في المستقبل فيما لا يزال هناك احتمالات أن تتفق حكومات المنطقة على إطار تنظيمي ملزما بشكل أكثر صرامة.
وفي كلمته أمام المنتدى الاقتصادي العالمي في دافوس يناير / كانون الثاني الماضي، قال رئيس البرلمان الفلبيني، مارتن روموالديز، إن بلاده تريد من الآسيان أن تتبنى إطارا يشابه التشريع الذي أطلقته.
وقال روموالديز إن مانيلا يمكن أن تسعى إلى صياغة مثل هذا التشريع عندما تتولى الرئاسة الدورية السنوية للآسيان في عام 2026.
يقول المحللون إن الكثير يعتمد على ما سيحدث داخل الاتحاد الأوروبي فهل يمكن أن يكفل قانون الذكاء الاصطناعي الصارم وقف الآثار السلبية المحتملة للذكاء الاصطناعي دون تعريض شركات التكنولوجيا للخطر؟
وفي ذلك، قال جوش لي إنه صناع القرار السياسي في بلدان في جنوب شرق آسيا "سوف يولون اهتماما كبيرا لكيفية تنفيذ قانون الذكاء الاصطناعي داخل الاتحاد الأوروبي وتأثيره المحتمل على الاقتصاد الرقمي داخل أوروبا".
أعده للعربية: محمد فرحان
المصدر: أخبارنا
كلمات دلالية: استخدام الذکاء الاصطناعی الاتحاد الأوروبی للذکاء الاصطناعی رابطة الآسیان جنوب شرق آسیا الاصطناعی فی دول الآسیان یمکن أن
إقرأ أيضاً:
كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟
كشف تقرير نشرته صحيفة "نيويورك تايمز"، عن مدى توغل التكنولوجيا المتقدمة، وخاصة الذكاء الاصطناعي، في العمليات العسكرية الإسرائيلية خلال حربها المستمرة على قطاع غزة.
وأوضح التقرير الذي ترجمته "عربي21"، أن الاحتلال الإسرائيلي اعتمد بشكل متزايد على أدوات وتقنيات الذكاء الاصطناعي لتحقيق تفوق نوعي في ميدان المعركة، وهو ما أدى في بعض الأحيان إلى نتائج قاتلة طالت المدنيين.
وأشار التقرير إلى أن أبرز مثال على هذا الاستخدام جاء في أواخر عام 2023، عندما حاولت القوات الإسرائيلية اغتيال إبراهيم البياري، أحد القادة البارزين في حركة حماس. ونظراً لصعوبة تحديد مكانه الفعلي، نظراً لاحتمال اختبائه في شبكة الأنفاق المنتشرة تحت غزة، لجأ جيش الاحتلال الإسرائيلي إلى تقنية تحليل صوتي مدعومة بالذكاء الاصطناعي، كانت قد طُورت قبل نحو عقد من الزمن لكنها لم تُستخدم في ساحات القتال من قبل.
وبحسب مصادر أمريكية وإسرائيلية مطلعة تحدثت للصحيفة، فقد تولى مهندسون في الوحدة 8200، المكافئة الإسرائيلية لوكالة الأمن القومي الأمريكية، تطوير الأداة ودمجها بتقنيات ذكاء اصطناعي متقدمة.
وتم تحليل مكالمات البياري، واعتمادا على تلك البيانات الصوتية، قامت قوات الاحتلال الإسرائيلي بشن غارة جوية في 31 تشرين الأول/أكتوبر 2023 استهدفت الموقع المشتبه به. غير أن الغارة، التي فشلت في قتل البياري، أسفرت عن استشهاد 125 مدنيا، بحسب منظمة "إيروورز" المعنية بتوثيق ضحايا الحروب.
ويمثل هذا الهجوم، وفق التقرير، نموذجاً مصغراً لطريقة استخدام إسرائيل لتقنيات الذكاء الاصطناعي في حربها ضد غزة، حيث دمجت هذه التقنيات بمجالات متعددة تشمل التعرف على الوجوه، وتحليل البيانات النصية، وتحديد الأهداف العسكرية المحتملة. وقد أشارت مصادر الصحيفة إلى أن عمليات تطوير هذه الأدوات جرت عبر تعاون وثيق بين ضباط الوحدة 8200 وعدد من جنود الاحتياط العاملين في شركات تكنولوجية كبرى مثل غوغل، مايكروسوفت، وميتا.
وتحدث التقرير عن إنشاء ما يعرف بـ"الاستوديو"، وهو مركز ابتكار تابع للوحدة 8200، يهدف إلى تسريع إنتاج وتطبيق أدوات الذكاء الاصطناعي في العمليات العسكرية. وبيّن أن نشر هذه الترسانة التكنولوجية أدى أحياناً إلى نتائج كارثية، منها أخطاء في تحديد الهوية، واعتقالات عشوائية، بل ووقوع ضحايا مدنيين، وهو ما أثار تساؤلات أخلاقية لدى مسؤولين عسكريين إسرائيليين وأمريكيين على حد سواء.
وفي هذا السياق، قالت هاداس لوربر، المديرة السابقة لمجلس الأمن القومي الإسرائيلي ورئيسة معهد الأبحاث التطبيقية في الذكاء الاصطناعي، إن "وتيرة الابتكار تسارعت تحت وطأة الحاجة الملحة للرد على التهديدات"، مشيرة إلى أن هذه الابتكارات التقنية منحت الجيش الإسرائيلي "مزايا استراتيجية"، لكنها "أثارت أيضاً قضايا أخلاقية جوهرية تتطلب وجود ضوابط صارمة".
ورغم امتناع جيش الاحتلال الإسرائيلي عن التعليق المباشر على هذه التقنيات لأسباب تتعلق بالسرية، إلا أن مصادر التقرير كشفت أن الجيش أطلق تحقيقاً داخلياً في الغارة التي استهدفت البياري. أما شركات التكنولوجيا التي ذُكر أن موظفيها شاركوا في هذه الجهود ضمن صفوف جنود الاحتياط، فقد رفض معظمها التعليق، بينما قالت شركة غوغل إن مشاركة موظفيها "لا علاقة لها بمهامهم داخل الشركة".
ويذكر التقرير أن الاحتلال الإسرائيلي دأب على استغلال الحروب، خاصة في غزة ولبنان، كمنصات لاختبار وتطوير قدراتها التكنولوجية، مثل الطائرات بدون طيار، وأدوات اختراق الهواتف، ونظام الدفاع الصاروخي "القبة الحديدية".
ومنذ 7 تشرين الأول/ أكتوبر، فتح الاحتلال المجال أمام استخدام واسع النطاق لتقنيات الذكاء الاصطناعي بالتعاون مع الوحدات العسكرية المختصة.
كما طوّر جيش الاحتلال الإسرائيلي نموذجاً لغوياً كبيراً باللغة العربية، أنشئ لتشغيل روبوت محادثة قادر على تحليل الرسائل النصية، ومنشورات وسائل التواصل الاجتماعي، وغير ذلك من البيانات. وتم تغذيته بكم هائل من البيانات التي جمعت خلال سنوات من المراقبة الإلكترونية، مما مكنه من تمييز اللهجات المختلفة وتحليل ردود الفعل العامة، كما حدث بعد اغتيال حسن نصر الله في أيلول/سبتمبر الماضي، وفق ما أفاد به ضباط إسرائيليون للصحيفة.
إلا أن النموذج لم يكن خالياً من العيوب، إذ فشل أحياناً في تفسير بعض المصطلحات العامية، أو أخطأ في فهم المحتوى البصري، ما تطلب تدخل ضباط مخضرمين لتصحيح هذه الأخطاء. وعلى الأرض، زودت إسرائيل نقاط التفتيش المؤقتة في غزة بكاميرات مدعومة بتقنيات التعرف على الوجه، لكنها أخفقت أحياناً في التعرف على الأشخاص بدقة، ما تسبب في اعتقال مدنيين عن طريق الخطأ.
ومن بين الأدوات التي أثارت جدلاً أيضاً، خوارزمية "لافندر"، وهي أداة تعلم آلي صممت لتحديد المقاتلين منخفضي الرتب في حماس، لكنها كانت غير دقيقة، ومع ذلك استخدمت لتحديد أهداف في بداية الحرب.
ويخلص التقرير إلى أن هذه التجارب التقنية، رغم ما توفره من قدرات عسكرية متقدمة، قد تؤدي إلى تسريع وتيرة العنف وسقوط ضحايا من المدنيين، في وقت لم تُحسم فيه بعد الأسئلة الأخلاقية الكبرى المرتبطة باستخدام الذكاء الاصطناعي في ميادين الحروب.