قمة “سدايا” تستعرض تجارب دولية في حوكمة استخدامات الذكاء الاصطناعي
تاريخ النشر: 10th, September 2024 GMT
شهد اليوم الأول من أعمال القمة العالمية للذكاء الاصطناعي في نسختها الثالثة التي انطلقت اليوم بالرياض استعراض وزراء معنيين بقطاعات التقنية والاتصال في عددٍ من دول العالم بإحدى الجلسات الحوارية تجارب بلدانهم فيما يتعلق بالتنظيمات والضوابط المعتمدة لديهم، الرامية لضمان تحقيق استفادة قصوى من تقنيات الذكاء الاصطناعي، وتوظيفها لدعم وتسريع الإنجاز في برامجهم التنموية وتطوير خطط قطاعاتهم الحكومية بحيث يقدم العاملون بها أفضل أداء ممكن، وخلق فرص مثالية لتحسين الحياة الاجتماعية وجودتها، مع الاهتمام البالغ بأن يتسنى لتلك التنظيمات والضوابط تحييد مخاطر وتهديدات هذه التقنيات المتطورة التي اتفقوا جميعاً خلال الجلسة على وصفها بالثورية التي اجتاحت العالم، وباتت واقعاً مفروضاً على البشرية قاطبةً، لا يمكن معها إلا التسليم بها، والتعامل معها بطريقة إيجابية ومثالية، والتأكيد على وجوب استخدامها والاستفادة منها وفق الأخلاقيات والأعراف الدولية.
فقد نوه معالي وزير العلوم والتكنولوجيا والابتكار بجنوب أفريقيا الدكتور بونجينكوسي نزيماندي بالدور الكبير والمحوري لهذه القمة العالمية التي تستضيفها العاصمة الرياض وتنظمها الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا”، لتوفير بيئة مثالية ومساحة تتيح عمليات تنسيق دولية من شأنها تمكين الدول النامية من مواكبة ومجاراة الدول المتقدمة تقنياً، عبر تعاون دولي فعلي يسهم في توظيف هذا النوع من التقنيات ليكون رافداً أساسياً لنهضة البلدان والإنسانية.
من جهتها أشارت معالي وزير الاتصالات والإعلام بجمهورية الغابون لورانس ندونغ، إلى اهتمام بلادها بالتنسيق الدائم مع منظمة “اليونيسكو” لوضع سياساتها المعنية بحوكمة وإقرار تنظيمات وضوابط تسهم في استخدام أمثل لتقنيات الذكاء الاصطناعي بما يضمن الاستفادة منها في تطوير البنى التحتية في البلاد ودفع عجلة التنمية الوطنية في الغابون، لافتةً الانتباه إلى ضرورة التركيز بجدية على تحديات وتهديدات هذه التقنيات تجاه المؤسسات الحكومية والمجتمعات، إذ يلزم تضافر الجهود الدولية والتعاون الذي يضمن أن تخدم تقنيات الذكاء الاصطناعي البشرية عموماً.
واستعرض الرئيس التنفيذي لهيئة المعلومات والحكومة الإلكترونية بمملكة البحرين محمد علي القائد، تجارب جملة من الدول السبّاقة في هذه المجالات، على صعيد الإجراءات التي اتخذتها وتنظيمات استخدام هذه التقنيات التي ارتكزت على مبادئ قيمية من شأنها المحافظة على أخلاقيات وثقافة الشعوب، مبيناً ان بلاده تسير في ذات المسار مع تلك الدول، مع الأخذ في الحسبان مواصلة تطوير العمل على التشريعات في هذا المجال، لاسيما وأنه يشهد قفزات نوعية وتطور هائل بصفة مستمرة ولحظية.
وذهب معالي وزير الدولة بوزارة البريد والاتصالات بمملكة كمبوديا إلى جانب الأخطار والتهديدات التي تمثل جزءًا من طبيعة تقنيات الذكاء الاصطناعي، مؤكداً أن بلاده تعاملت مع ذلك بجدية كبيرة مكنها من تحييد لمخاطر وتهديدات كثيرة، نظير تنظيمات وإجراءات عديدة تنظم عملية استخدام هذه التقنيات لدى المؤسسات الحكومية أو فيما يرتبط بالمجتمع، الأمر الذي ساعدهم على تحقيق منجزات تحسب للاستخدام المثالي لتقنيات مهمة مثل تقنيات الذكاء الاصطناعي.
واتفق وكيل وزارة الاتصالات وتكنولوجيا المعلومات بسلطنة عمان الدكتور علي الشيذاني، مع الوزراء والمسؤولين المتحدثين الذين سبقوه، منوهاً بالتجربة الناجحة لبلاده في هذا الصدد، إذ وظفت هذه التقنيات لتطوير الكادر البشري في مختلف المجالات، وتنمية قطاع التعليم والصحة في سلطنة عمان.
بدوره رأى معالي وزير الدولة بوزارة الرقمنة والنقل الاتحادية، جمهورية ألمانيا الاتحادية ستيفان شنور، ضرورة التعامل بجدية مع مخاطر التقنية بصورة عامة، وتقنيات الذكاء الاصطناعي على وجه الخصوص، على الصعيدين الاجتماعي والجيوسياسي، وذلك عبر العمل الجماعي بين دول ومنظمات العالم، لضمان تحييد الأخطار وتحفيز الابتكار.
وحذّر معالي وزير الدولة بوزارة العلوم والتطوير التكنولوجي والابتكار بجمهورية صربيا الدكتور ميروسلاف تراجانوفيتش من طبيعة تقنيات الذكاء الاصطناعي المتغيرة والمتطورة بصورة هائلة، مبينًا أنها تتطلب مواكبتها باتخاذ إجراءات تتمتع بالمرونة والديناميكية وقوانين يمكن أن تخضع للتحديث المستمر، لأن التحديات والتهديدات التي ترافق هذه التقنيات تتطلب التعامل بذكاء واحترافية لمواجهتها وتحييدها، وتحقيق أفضل السبل والآليات التي تمكّن من الاستفادة المثلى من تقنيات الذكاء الاصطناعي.
وأكد مدير تكنولوجيا المعلومات والاتصالات بجمهورية السنغال آيساتو جين ندياي، أن حكومة بلاده استفادت من تقنيات الذكاء الاصطناعي في دعم التعليم والبحث العلمي، في الوقت الذي راعت فيه التهديدات والمخاطر التي ترافق هذه التقنيات، وذلك باتخاذ تدابير وإجراءات وتنظيمات تعنى بهذا الشأن.
المصدر: صحيفة الجزيرة
كلمات دلالية: كورونا بريطانيا أمريكا حوادث السعودية تقنیات الذکاء الاصطناعی هذه التقنیات معالی وزیر
إقرأ أيضاً:
كاسبرسكي تكشف عن إرشادات التطوير الآمن للذكاء الاصطناعي في منتدى حوكمة الإنترنت
خلال مشاركتها في منتدى حوكمة الإنترنت السنوي لعام 2024، والذي عُقد في العاصمة السعودية الرياض بين يومي 15 و19 ديسمبر، قدمت كاسبرسكي إرشاداتها للتطوير والنشر الآمن لأنظمة الذكاء الاصطناعي. وتهدف الوثيقة لمساعدة المنظمات على تجنب المخاطر المرتبطة باعتماد تقنيات الذكاء الاصطناعي من خلال توفير متطلبات الأمن السيبراني التي يجب مراعاتها عند تنفيذ هذه الأنظمة. تتناول الإرشادات الحاجة الملحة لأطر أمنية قوية مع تزايد أهمية الذكاء الاصطناعي للصناعات حول العالم.
تم عرض «إرشادات التطوير والنشر الآمن لأنظمة الذكاء الاصطناعي» يوم 18 ديسمبر ضمن ورشة عمل على هامش منتدى حوكمة الإنترنت حملت عنوان «الأمن السيبراني في الذكاء الاصطناعي: الموازنة بين الابتكار والمخاطر». حيث نظم ممثلو كاسبرسكي لجنة من الخبراء لاستكشاف كيفية التنسيق بين الابتكار في مجال الذكاء الاصطناعي والإدارة الفعالة للمخاطر والأمن السيبراني. وجرى العمل على الوثيقة بالتعاون مع خبراء أكاديميين رواد لمعالجة التعقيد المتزايد لتحديات الأمن السيبراني المرتبطة بالأنظمة المدعومة بالذكاء الاصطناعي.
تُعد الوثيقة مورداً أساسياً للمطورين والمسؤولين وفرق عمليات تطوير الذكاء الاصطناعي، كما تقدم نصائح مفصلة وعملية لمعالجة الثغرات الفنية والمخاطر التشغيلية. وتظهر الأهمية الأكبر لهذه الإرشادات بالنسبة للمؤسسات التي تعتمد على نماذج الذكاء الاصطناعي التابعة لطرف ثالث والأنظمة القائمة على السحابة، فقد تؤدي الثغرات الأمنية لاختراقات كبيرة للبيانات وأضرار بالسمعة.
من خلال تضمين مبادئ الأمان التصميمي، تساعد الإرشادات المنظمات على موازنة نشر الذكاء الاصطناعي مع معايير مثل الممارسات البيئية والاجتماعية وحوكمة الشركات ومتطلبات الامتثال الدولية. تتناول الوثيقة الجوانب الرئيسية لتطوير، ونشر، وتشغيل أنظمة الذكاء الاصطناعي، بما يشمل التصميم وأفضل الممارسات الأمنية، والتكامل، دون التركيز على تطوير النماذج التأسيسية.
تؤكد إرشادات كاسبرسكي على المبادئ التالية لتعزيز أمن أنظمة الذكاء الاصطناعي:
1. التوعية والتدريب على الأمن السيبراني
تسلط كاسبرسكي الضوء على أهمية دعم القيادة والتدريب المخصص للموظفين. حيث يجب أن يكون الموظفون على دراية بأساليب استغلال الذكاء الاصطناعي المعتمدة من مصادر التهديد. وتضمن التحديثات المنتظمة لبرامج التدريب التوافق مع التهديدات المتطورة.
2. نمذجة التهديدات وتقييم المخاطر
تؤكد الإرشادات على ضرورة تحديد المخاطر والتخفيف منها بشكل استباقي من خلال وسائل نمذجة التهديدات التي تساعد على تحديد الثغرات في وقت مبكر من تطوير الذكاء الاصطناعي. وتوصي كاسبرسكي باستخدام منهجيات موثوقة لتقييم المخاطر (مثل نموذجي STRIDE وOWASP) لتقييم التهديدات الخاصة بالذكاء الاصطناعي، بما يشمل إساءة استخدام النماذج، وتسميم البيانات، ونقاط ضعف الأنظمة.
3. أمن البُنى التحتية (السحابة)
تتطلب أنظمة الذكاء الاصطناعي، والتي غالباً ما يتم نشرها في بيئات سحابية، حماية قويةً مثل التشفير، وتقسيم الشبكة، والمصادقة الثنائية. وتؤكد كاسبرسكي على مبادئ الثقة الصفرية، وقنوات الاتصال الآمنة، وإصلاحات البنية التحتية بشكل منتظم للحماية من الاختراقات.
4. سلسلة الإمداد وأمن البيانات
تسلط كاسبرسكي الضوء على المخاطر التي تشكلها مكونات ونماذج الذكاء الاصطناعي التابعة لجهات خارجية، بما يشمل تسرب البيانات وإساءة استخدام المعلومات التي تم الحصول عليها لإعادة بيعها. وفي هذا الصدد، يجب تطبيق سياسات الخصوصية والممارسات الأمنية الخاصة بالخدمات التابعة لجهات خارجية، مثل استخدام الحساسات والتدقيقات الأمنية، بشكل صارم.
5. الاختبار والتحقق
يضمن التحقق المستمر لنماذج الذكاء الاصطناعي الموثوقية. وتعمل كاسبرسكي على تعزيز مراقبة الأداء والإبلاغ عن الثغرات الأمنية للكشف عن المشكلات الناجمة عن انحراف بيانات الإدخال أو الهجمات المعادية. ويُعد التقسيم الملائم لمجموعات البيانات وتقييم منطق اتخاذ القرار الخاص بالنماذج أمرين ضروريين للتخفيف من المخاطر.
6. الحماية من الهجمات الخاصة بتعلم الآلة
تؤكد الإرشادات على ضرورة حماية مكونات الذكاء الاصطناعي من الهجمات الخاصة بتعلم الآلة، بما يشمل المدخلات المعادية، وتسميم البيانات، وهجمات الحقن الفوري. وتعمل تدابير مثل دمج الأمثلة المعادية في مجموعة بيانات التدريب، وأنظمة اكتشاف الشذوذ، وأساليب التقطير على تحسين قدرة النماذج على مواجهة التلاعب.
7. التحديثات الأمنية والصيانة المنتظمة
تؤكد كاسبرسكي على أهمية الإصلاح المتكرر لمكتبات وأطر الذكاء الاصطناعي لمعالجة الثغرات الأمنية الناشئة. وقد تساعد المشاركة في برامج مكافآت الأخطاء وإدارة دورة حياة نماذج الذكاء الاصطناعي القائمة على السحابة على تعزيز مرونة النظام.
8. الالتزام بالمعايير الدولية
يساعد كل من الالتزام باللوائح العالمية (مثل اللائحة العامة لحماية البيانات، وقانون الذكاء الاصطناعي للاتحاد الأوروبي)، وأفضل الممارسات، والتحقق من امتثال أنظمة الذكاء الاصطناعي للقانون على التوافق مع المتطلبات الأخلاقية ومتطلبات خصوصية البيانات، بالإضافة إلى تعزيز الثقة والشفافية.
وتؤكد المبادئ التوجيهية على أهمية تضمين أنظمة الذكاء الاصطناعي بشكل مسؤول لتجنب مخاطر الأمن السيبراني الكبيرة، مما يجعلها مورداً مهماً للغاية للشركات والحكومات على حد سواء.
علقت يوليا شليتشكوفا، نائب رئيس الشؤون العامة لدى كاسبرسكي: «مع تزايد اعتماد الذكاء الاصطناعي، لم يعد ضمان أمنه أمراً اختيارياً، بل ضرورياً. وفي منتدى حوكمة الإنترنت لعام 2024، نساهم في حوار متعدد الأطراف لتحديد المعايير اللازمة لحماية الابتكار والمساعدة في مكافحة التهديدات السيبرانية الناشئة.»
مع استمرار دمج الذكاء الاصطناعي في القطاعات الحيوية، مثل الرعاية الصحية، والمالية، والقطاعات الحكومية، توفر «إرشادات التطوير والنشر الآمن لأنظمة الذكاء الاصطناعي» من كاسبرسكي أسس الاستخدام الآمن والأخلاقي للذكاء الاصطناعي.