ينبغي تنظيم حوكمة الذكاء الاصطناعي
تاريخ النشر: 11th, November 2023 GMT
ترجمة: حافظ إدوخراز -
يشكّل منتدى باريس للسلام -الذي عقد في العاشر والحادي عشر من شهر نوفمبر الجاري- فرصة للنقاش حول التهديدات المباشرة للاستقرار العالمي، ولكن أيضا من أجل استشراف التهديدات التي يحملها المستقبل. سوف يكون موضوع الذكاء الاصطناعي أحد الموضوعات التي سيتم تناولها في المنتدى. ومن دون الذهاب بعيدا إلى درجة تصور المستقبل الشّاذ الذي ترسمه أفلام هوليوود، فإن قائمة التهديدات المحتملة طويلة: التضليل الإعلامي الذي يزعزع استقرار الديمقراطيات، الاضطرابات في الأسواق المالية، القرصنة واسعة النطاق، وما إلى ذلك.
بدايةً، يجب أن تتبنّى أطر الحوكمة مقاربة شمولية تعمل على دمج كل التكنولوجيات المترابطة فيما بينها مثل الحوسبة الكمومية، والواقع المعزز والافتراضي، وسلسلة الكتل، وغيرها من التقنيات. ولا بد لهذه الأطر أيضا من أن تُتيح إمكانية التوقّع (المسبق) للمخاطر والتعاطي معها. وبما أن التوافق ضروري على المستوى المجتمعي، فإن اعتماد مقاربة تعدّدية يعدّ أمرا واجبا، لكي يشمل الحكومات والمجتمع المدني والخبراء التقنيين، ولكن أيضا الأكاديميين والجهات المانحة.
الدور الأساسي للحكومات
تتمركز الخبرة والموارد المعلوماتية إلى حدّ كبير، في الوقت الحالي، في أيدي عدد قليل من شركات القطاع الخاص لا سيما شركات «الغافام» (جوجل، آبل، فيسبوك، أمازون، وميكروسوفت). وتتصدّر شركة آبل المشهد منذ بداية العام، من خلال استحواذها على اثنتين وثلاثين شركة في قطاع الذكاء الاصطناعي. ومن الجدير بالإشارة أنه، على عكس برمجيات الذكاء الاصطناعي المفتوحة، مثل نموذج المصدر المفتوح ميسترال (Mistral AI) أو دال إيه (Dall-E)، فإن برمجيات الذكاء الاصطناعي التي تعمل كـ«صندوق أسود»، مثل جوجل بارد (Google Bard) أو تشات جي بي تي (ChatGPT)، هي أكثر تعقيدا. إنها عبارة عن آلات افتراضية نزوّدها بمدخلات (طلب، سؤال، مهمة) وتعطينا بالمقابل مُخرجات (نص، صورة، فعل، نتيجة...). وبين الاثنين، يظل المنطق الخوارزمي غير واضح تماما.
من اللازم إشراك جميع الفاعلين المعنيّين بحوكمة الذكاء الاصطناعي. وللحكومات دور مركزي لا بد أن تلعبه في هذا الإطار، إذ يجب عليها ضمان اتّساق وفعالية المعايير. غير أنه، في الوقت الحاضر، لدى الاتحاد الأوروبي والولايات المتحدة أطر تنظيمية مختلفة للغاية، إذ يعتمد الاتحاد الأوروبي التنظيم من خلال قانون الذكاء الاصطناعي بينما تتبنى الولايات المتحدة مقاربة غير تدخليّة إلى حدّ كبير. ومن الممكن أن يؤثر ذلك كثيرا على عمليات التدقيق ومراقبة الامتثال، وبالتالي التبادلات التكنولوجية والتجارية بين الكتلتين الإقليميتين. من الممكن التفكير في إجراء تجارب تنظيمية مشتركة (آليات اختبار يتم تنفيذها في ظروف حقيقية، ولكن دون تعريض الأنظمة الرقابية الحالية للخطر). وثمة مبادرات جارية بالفعل في كلّ من المملكة المتحدة وإسبانيا. وبوسع الولايات المتحدة والاتحاد الأوروبي أيضا أن يستندا إلى ديناميكية مجلس التجارة والتكنولوجيا المشترك بينهما من أجل إدراج التعاون التنظيمي الاستباقي من بين الأهداف.
ترجيح معايير الاستثمار الأخلاقية
لا تكمن الفكرة في تطوير نُظم قانونية تزيد من صعوبة استغلال قوة الذكاء الاصطناعي، كما اعتقد أكثر من مائة من مديري الشركات الذين وقّعوا على رسالة مفتوحة ضد القانون الأوروبي بشأن الذكاء الاصطناعي في شهر يونيو من عام 2023. بل يتعلق الأمر على العكس من ذلك، بتوحيد القوانين، أو على الأقل بجعلها متكاملة. ويتعيّن على الأوساط الأكاديمية أيضا أن تلعب دورها، من خلال العمل على تكوين قادة أكفّاء في مجال التكنولوجيا والشؤون العالمية، والتحقّق من أن أطر الحوكمة الناشئة تستند إلى حقائق لا تقبل الجدل. وهذا يعني أيضا بالمناسبة أن توفر لهم الحكومات إمكانية الوصول إلى الخوارزميات والبيانات التي تغذّي الذكاء الاصطناعي.
ويجب على الجهات الخيرية والمانحين من القطاع الخاص تقييم المخاطر بشكل صحيح منذ مرحلة تصميم المنتجات. إن الدور الذي يلعبه المستثمرون وأصحاب رأس المال المغامر، باعتبارهم مموّلين وراعين للشركات الناشئة في مجال التكنولوجيا، يضعهم في موقع متميز من أجل السهر على تطبيق معايير الاستثمار الأخلاقية - التي تكاد تكون شبه معدومة اليوم - في قطاع التكنولوجيا الناشئة (المسؤولية الرقمية للشركات).
على أعتاب ثورة الذكاء الاصطناعي
في عام 2022، جمعت الشركات الناشئة تمويلا قياسيا وصل إلى 621 مليار دولار من شركات رأس المال المغامر. ومع وجود مثل هذه القوة في أيدي هذه الشركات الاستثمارية، يمكن لها ممارسة التأثير على مطوّري البرمجيات. من الممكن أن يأتي الزخم أيضا من هيئات دولية مثل مجلس معايير الاستدامة الدولية، الذي يرأسه إيمانويل فابر (Emmanuel Faber). فبإمكان هذه الهيئات الدفع بالجهات الفاعلة في قطاع رأس المال المغامر في اتجاه تطوير مبادئ تتعلق بالمسؤولية البيئية والاجتماعية وبالحوكمة.
وأخيرا، ينبغي على مطوري البرمجيات -على غرار المهندسين النوويين- أن يعوا المسؤولية الأخلاقية التي تقع على عاتقهم في عملهم. وسيكون من المفيد أن يتمكنوا أيضا من العمل بشكل ملموس على تطوير المواثيق الأخلاقية التي تُطبق على كل قطاع اقتصادي يتأثر بالذكاء الاصطناعي. تعدّ الصحافة والتمويل والصحة مجالات للتطبيق المباشر لهذه الأفكار. ولعل المبادئ التي تبنّتها مجموعة الدول السبع مؤخرا تشكّل بداية جيدة بهذا الخصوص.
نحن على أعتاب ثورة الذكاء الاصطناعي. ومن الممكن أن تصبّ هذه الاضطراب في خدمة الصالح العام، شريطة أن تكون الأنظمة أخلاقية منذ تصميمها. ويتعلق الأمر بمبدأ احترازي أساسي، أو حتى وجودي.
أرنشا غونزاليس وزيرة سابقة للشؤون الخارجية في الحكومة الإسبانية، وعميدة مدرسة الشؤون الدولية في معهد العلوم السياسية بباريس.
كونسطونس بومولار دولوس المديرة التنفيذية لمعهد بروجيكت ليبرتي
عن صحيفة لوموند الفرنسية.
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی من الممکن أیضا من من أجل
إقرأ أيضاً:
مختص: بشكل كبير جدًا قد يحل الذكاء الاصطناعي محل الحكم في مباريات كرة القدم
المناطق_متابعات
أكد المختص في الذكاء الاصطناعي عصام القبيسي، إن الذكاء الاصطناعي، من الممكن أن يحل محل الحكم في مباريات كرة القدم.
وذكر خلال حديثه مع برنامج الراصد عبر قناة الإخبارية: كان هناك تجارب أن الحكم يستبدل بالذكاء الاصطناعي وكانت تلك المباريات بلا أخطاء تماماً، لكن أيضًا لدينا قناعة بشكل كبير أن الذكاء الاصطناعي هو عامل مساعد يساعد في اتخاذ قرارات معينة لكن لا يحل محل الحكم إلى الآن”.
أخبار قد تهمك مخرج: الذكاء الاصطناعي له استخدامات إيجابية في الجانب الإبداعي والدعم.. لكن الابتكار البشري لا يزال مطلوب 16 نوفمبر 2024 - 5:22 مساءً متحدث هيئة العقار: دخول الذكاء الاصطناعي في العقار سيحدث ثورة كبيرة في إنتاج المشاريع العقارية 28 أكتوبر 2024 - 9:52 صباحًاوتابع: لكن ممكن يعطي تنبؤات معينة ودراسات معينة يتم تعزيزها للمساعدة على الفوز، ولكن بشكل كبير جدًا ممكن أن يحل الذكاء الاصطناعي محل الحكم في مباريات كرة القدم.