شارك الدكتور محمد فريد رئيس الهيئة العامة للرقابة المالية في فعاليات المؤتمر الإقليمي الرابع والثلاثون للاتحاد العام العربي للتأمين تحت شعار "من أجل صناعة تأمين عربي أكثر استدامة وشمولية: كيف يمكن للشركات العربية الانخراط في ثورة الذكاء الاصطناعي" والذي نظمته الجمعية العُمانية للتأمين، والأمانةُ العامة للاتحاد العام العربي للتأمين، في مدينة مسقط بسلطنة عمان.


خلال اليوم الأول تم التأكيد على فرص النمو الكبيرة التي تتمتع بها الاقتصاديات العربية لنمو أداء قطاع التأمين، بينما يُنسب تواضع نسبة مساهمة القطاع في خدمة الناتج المحلي الإجمالي لدول المنطقة إلى وجود فجوة حماية كبيرة من المخاطر تؤثر سلبا على الاقتصاد والمجتمع كمخاطر المناخ والكوارث الطبيعية والصحة للأفراد.
بالإضافة إلى التحديات التي يشهدها العالم من تطورات رقمية وتكنولوجية سريعة وتغيرات مناخية وكوارث طبيعية استثنائية، والتي تتطلب التكيف والابتكار وإعادة التفكير في العديد من المفاهيم والممارسات لمواجهة الوضع الجديد واستغلال الفرص التي يحتويها.


حيث ناقشت أولى جلسات المؤتمر تقنيات التأمين الناشئة والجديدة التي تعتمد على الذكاء الاصطناعي وإعادة تشكيل قطاع التأمين العربي مع التركيز على الاستدامة والشمولية.
حيث شارك الدكتور محمد فريد رئيس الهيئة العامة للرقابة المالية كمتحدث رئيسي في جلسة تحت عنوان "الأطر التنظيمية لاعتماد الذكاء الاصطناعي"، لمناقشة البيئة التنظيمية والاعتبارات السياسية التي تسهم في تبني تقنيات الذكاء الاصطناعي بشكل مسؤول مع ضمان الشمولية والاستدامة. وذلك بمشاركة متحدثين من سلطنة عمان والمملكة العربية السعودية، وحاورهم الإعلامي موسى الفرعي، الرئيس التنفيذي لمؤسسة أثير. 


وقد أكد الدكتور فريد أن الذكاء الاصطناعي هو الجزء المكمل لعمليات الرقمنة والتكنولوجيا، ويلزم وجود بيانات حاضرة حتى يمكن عمل التدريبات اللازمة التي يحتاجها الذكاء الاصطناعي كبرنامج إلكتروني لكي يصل إلى المخرجات كخطوة أولى في هذا المضمار، ومن ثم التنظيمات التي تنظم عمليات الذكاء الاصطناعي وكيفية التعامل من منظور ألا يطغى الذكاء الاصطناعي على أية قرارات أخرى، مشيراً إلى أهمية وجود بعض القواعد في البداية، منها قواعد التعرف على العميل على سبيل المثال إلكترونيا، ليوضح أن الفرص والمخاطر المرتبطة بالذكاء الاصطناعي، ودور الرقيب في حماية سواء المستثمرين أو حاملي الوثائق من هذه المخاطر من خلال وجود قواعد لتأمين البيانات بصورة قوية جدا. 


كما أشار إلى جهود الهيئة المبذولة لتسريع وتيرة عملية التحول الرقمي ورقمنة المعاملات بالنظام المالي غير المصرفي دعمًا لرؤية الهيئة في تحقيق الشمول المالي وتعزيزًا لجهود الحكومة المصرية في توسيع قاعدة المستفيدين من الخدمات المالية غير المصرفية لتحسين أحوالهم وتحقيق تطلعاتهم الاستثمارية والتمويلية والتأمينية. 


حيث قامت الهيئة بإصدار بعض القرارات التنفيذية لتفعيل قانون رقم 5 لسنة 2022 بشأن تنظيم وتنمية استخدام التكنولوجيا المالية في الأنشطة المالية غير المصرفية الخدمات المالية غير المصرفية حيث أصدرت 3 قرارات تنفيذية لرقمنة المعاملات المالية غير المصرفية، قرار رقم 139 لسنة 2023 للتجهيزات والبيئة التكنولوجية، قرار رقم 140 لسنة 2023 للهوية الرقمية والعقود الرقمية والسجلات الرقمية، قرار رقم 141 لسنة 2023 لإنشاء سجل لمقدمي خدمات التعهيد، كما قامت بتعديل رأسمال الشركات الناشئة في مجال التكنولوجيا المالية لتصبح 15 مليون جنيه كحد أدنى لمزاولة أنشطه التمويل غير المصرفي، وهو الأمر الذي يسمح للشركات الناشئة في مجال التمويل غير المصرفي بالعمل تحت مظلة رقابية، ومن الجدير بالذكر أن هذا القرار ينظم الترخيص للشركات الناشئة في مجال خدمات التمويل غير المصرفي ولا يمتد أثرها للشركات الناشئة بصفة عامة.


فيما عقد الدكتور فريد سلسة مقابلات بدأها بالاجتماع مع مسئولي الهيئة العامة لسوق المال بسلطنة عمان، عبد الله بن سالم السالمي – الرئيس التنفيذي، أحمد بن علي المعمري – نائب الرئيس التنفيذي ، أحمد رشيد السوطي – رئيس قسم المنظمات والتعاون الدولي، حيث بحث الطرفان سبل تعزيز مجالات التعاون القائمة والمحتملة بين الهيئة العامة لسوق المال بسلطنة عمان والهيئة العامة للرقابة المالية المصرية.
من الجدير بالذكر أنه قد تم إجراء ورشة عمل تدريبية من خلال منصة ZOOM الافتراضية لاطلاع الجانب العماني على التجربة المصرية في مجال الرقابة على الشركات العاملة في الأوراق المالية خلال الفترة من 15 إلى 17 أكتوبر 2023، وقد تناولت الورشة مناقشة عدة موضوعات منها آلية التخطيط لبناء الخطط الرقابية وعدد الكيانات الخاضعة للرقابة والكيانات الواجب مراجعتها سنوياً وآليات مراجعة الإفصاحات وطرق المراجعة المكتبية وطرق المراجعة الميدانية وطبيعة العقوبات وسياسات تحديدها.


بالإضافة إلى برنامج تدريبي في مجال التأمين الهندسي في مدينة صلالة بسلطنة عمان خلال الفترة من 13 إلى 5 نوفمبر 2023 للسوق العماني، قدم المحاضرة  تامر سودان - رئيس قطاع التأمينات الهندسية بشركة GIG للتأمين مصر وعضو لجنة التأمين الهندسي بالاتحاد المصري للتأمين، وذلك بهدف منح المشاركين المعرفة الشاملة بالتأمين الهندسي وأنواعه والأخطار المرتبطة به وأنواع الخسائر وإدارتها، بالإضافة إلى التعرف على اكتتاب وتسوية وإدارة المطالبات المرتبطة به وإعادة تأمينه.


وفي ختام الاجتماع طلب الجانب العماني انتداب خبراء من الهيئة في مجال الرقابة على التداول والافصاح والتدقيق الميداني وفي مجالات التأمين، بهدف الاستفادة من خبراتهم المتراكمة ونقلها إلى الزملاء في الهيئة العمانية، وهو ما رحب به رئيس الهيئة.


شهد المؤتمر في يومه الثاني ثلاث جلسات تناولت ممارسات التأمين المستدامة والحلول الوطنية والإقليمية للتأمين ضد الكوارث الطبيعية والأطر التنظيمية لاستخدام الذكاء الاصطناعي وإعداد المعنيين في قطاع التأمين للتطورات التكنولوجية في المنطقة.

المصدر: بوابة الوفد

كلمات دلالية: الدكتور محمد فريد رئيس الهيئة العامة للرقابة المالية المؤتمر العربي للتأمين للاتحاد العام العربي مسقط المالیة غیر المصرفیة الذکاء الاصطناعی الهیئة العامة قطاع التأمین بسلطنة عمان فی مجال

إقرأ أيضاً:

حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية

يشهد العالم اليوم تطورا مُتسارعا في مجال الذكاء الاصطناعي، حيث أصبحت تطبيقاته تتغلغل في مختلف القطاعات، من الرعاية الصحية إلى التعليم والصناعة والخدمات المالية وغيرها من القطاعات. ومع هذا التوسع الهائل، تتزايد الحاجة إلى وضع أطر تنظيمية تضمن الاستخدام الآمن والمسؤول لهذه التقنية، وهو ما يُعرف بحوكمة الذكاء الاصطناعي.

إن التحدي الرئيس الذي تواجهه الحكومات والمؤسسات يتمثل في إيجاد توازن بين تشجيع الابتكار التكنولوجي من جهة، وضمان الامتثال للمبادئ الأخلاقية والقانونية التي تحمي الأفراد والمجتمعات من المخاطر المحتملة من جهة أخرى. وقد عرفت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) حوكمة الذكاء الاصطناعي بأنها «مجموعة من السياسات والإجراءات والمعايير القانونية التي تهدف إلى تنظيم تطوير واستخدام أدوات الذكاء الاصطناعي بطريقة مسؤولة وشفافة، مع ضمان احترام القيم الإنسانية وحماية الحقوق الأساسية».

ووفقا لتوصية منظمة اليونسكو بشأن أخلاقيات الذكاء الاصطناعي لعام 2021، فإن الحوكمةَ الفعالةَ للذكاء الاصطناعي ينبغي أن تستند إلى مبادئ الشفافية والمساءلة والأمان لضمان تحقيق الفائدة للمجتمع دونَ المساس بالحقوق الفردية. تهدفُ هذه الحوكمة إلى ضمان العدالة والشفافية وحماية البيانات واحترام حقوق الإنسان في جميع مراحل تطوير واستخدام هذه التقنيات. وتبرز أهمية الحوكمة في ضوء المخاطر المحتملة للذكاء الاصطناعي، مثل التحيز الخوارزمي وانتهاك الخصوصية والتأثير على سوق العمل، الأمر الذي يستدعي وضع تشريعات صارمة لضمان عدم إساءة استخدام هذه التقنية.

وفي سياق الجهود الدولية لتنظيم الذكاء الاصطناعي، صدر التقرير الدولي حول سلامة الذكاء الاصطناعي في يناير 2025 عن المعهد الدولي لسلامة الذكاء الاصطناعي (International AI Safety Report)، الذي شارك في إعداده 30 دولة من بينها منظمات دولية بارزة مثل هيئة الأمم المتحدة والاتحاد الأوروبي ومنظمة التعاون الاقتصادي والتنمية، حيث تناول الحالة الراهنة للفهم العلمي المتعلق بالذكاء الاصطناعي العام، وهو ذلك «النوع من الذكاء الاصطناعي القادر على تنفيذ مجموعة واسعة من المهام». وقد هدف التقرير إلى بناء فهم دولي مشترك حول المخاطر المرتبطة باستخدام الذكاء الاصطناعي المتقدم، مع تقديم تحليل شامل للوسائل العلمية والتقنية المتاحة لإدارتها والتخفيف منها بفعالية، وتوفير معلومات علمية تدعم صانعي القرار في وضع سياسات تنظيمية فعالة. وعلى الرغم من الفوائد العديدة التي يقدمها الذكاء الاصطناعي العام، فإن التقرير يحذر من المخاطر المتزايدة المرتبطة باستخدامه.

فمن الناحية الأمنية، قد يُستغل الذكاء الاصطناعي في تنفيذ هجمات سيبرانية متقدمة أو في تسهيل عمليات الاحتيال الإلكتروني، من خلال إنتاج محتوى مزيف (Fake content) يصعب تمييزه عن الحقيقي. كما أن هناك مخاطر اجتماعية تتمثل في إمكانية تعميق التحيزات الموجودة في البيانات التي تُستخدم في تدريب هذه الأنظمة. إضافة إلى ذلك، مخاوف تتعلق بفقدان السيطرة على أنظمة الذكاء الاصطناعي المتقدمة، حيث يمكن أن يؤدي التطور المتسارع لهذه الأنظمة إلى سلوكيات غير متوقعة قد يصعب التحكم بها. أما على المستوى الاقتصادي، فإن الذكاء الاصطناعي قد يتسبب في اضطرابات كبيرة في سوق العمل، حيث يؤدي إلى استبدال العديد من الوظائف التقليدية بالأنظمة الآلية، ففي قطاع خدمة العملاء مثلا، تعتمد الشركات الكبرى مثل أمازون وجوجل على روبوتات الدردشة (Chatbots) لتقديم الدعم الفني والتفاعل مع العملاء بكفاءة عالية، مما يقلل الحاجة إلى الموظفين البشريين.

أما في مجال التصنيع والتجميع، فقد أصبحت الروبوتات الصناعية تقوم بمهام الإنتاج بدقة وسرعة تفوق القدرات البشرية، كما هو الحال في مصانع تسلا وفورد التي تستخدم أنظمة مؤتمتة لتنفيذ عمليات اللحام والتجميع، مما يقلل التكاليف ويرفع كفاءة الإنتاج. ومع استمرار تطور الذكاء الاصطناعي، يُتوقع أن يمتد تأثيره إلى المزيد من القطاعات.

ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف القطاعات، أصبح من الضروري تبني استراتيجيات وحلول لمواجهة تحديات فقدان الوظائف التقليدية. ويُعد إعادة تأهيل القوى العاملة من أهم هذه الحلول، إذ يجب الاستثمار في برامج تدريبية تُمكن الموظفين من اكتساب مهارات رقمية وتقنية جديدة، مثل تحليل البيانات وتطوير البرمجيات، مما يساعدهم على التكيف مع متطلبات سوق العمل المتغير. إلى جانب ذلك، يمثل تعزيز ريادة الأعمال والابتكار حلا فعالا، حيث يُمكن تشجيع إنشاء مشاريع صغيرة ومتوسطة تعتمد على الذكاء الاصطناعي، مما يخلق فرص عمل جديدة.

كما يعد تبني نموذج العمل الهجين ضرورة مُلحة، إذ يُمكن دمج الذكاء الاصطناعي مع القدرات البشرية بدلا من الاستبدال الكامل، مما يعزز الإنتاجية مع الحفاظ على دور العنصر البشري. كما أن تطوير الأطر القانونية والتنظيمية يعد خطوة مهمة، حيث ينبغي صياغة قوانين تضمن الاستخدام العادل والمسؤول للذكاء الاصطناعي، وتحمي العمال من التمييز الناتج عن الأتمتة. بالإضافة إلى ذلك فإن التعليم المستمر يُسهم في تأهيل القوى العاملة الوطنية لمواكبة التحولات في سوق العمل، حيث ينبغي تعزيز ثقافة التعلم المستمر لضمان قدرة القوى العاملة على التكيف مع المتطلبات المستقبلية للتكنولوجيا المتقدمة. وغيرها من الاستراتيجيات الجديدة لدمج الإنسان مع الآلة في بيئة العمل.

من جانب آخر، هناك مخاطر تتعلق بالخصوصية، حيث يمكن للذكاء الاصطناعي تحليل كميات كبيرة من البيانات الشخصية، مما يزيد من احتمالات انتهاك الخصوصية وسوء استخدام المعلومات. ولتقليل هذه المخاطر، من الضروري تبني مجموعة من الاستراتيجيات التقنية والتنظيمية التي تعزز شفافية وأمان أنظمة الذكاء الاصطناعي. ومن أبرزها، تطوير تقنيات تتيح فهما أعمق لآليات اتخاذ القرار لدى الذكاء الاصطناعي، مما يسهل عملية المراجعة والمساءلة. بالإضافة إلى ذلك، تبرز أهمية تعزيز الأمن السيبراني عبر تصميم بروتوكولات حماية متقدمة لمواجهة التهديدات المحتملة.

كما يجب العمل على تصفية البيانات وتقليل التحيز لضمان دقة وعدالة أنظمة الذكاء الاصطناعي في اتخاذ القرارات. ومن أجل حماية بيانات المستخدمين، يتوجب استخدام تقنيات التشفير القوية وآليات الحماية الحديثة التي تضمن الامتثال لمعايير الخصوصية. بالإضافة إلى ضرورة الحفاظ على دور الإنسان في عمليات اتخاذ القرار، لضمان عدم الاعتماد الكامل على الذكاء الاصطناعي في الأمور الحساسة، مما يقلل من المخاطر المحتملة الناجمة عن التحكم الذاتي للأنظمة. إن التطور السريع لهذه التقنية يتطلب نهجا شاملا يجمع بين البحث العلمي والسياسات التنظيمية والتقنيات المتقدمة لضمان الاستخدام الآمن والمسؤول لهذه الأنظمة، بحيث تتحقق الفائدة المرجوة منها دون التعرض للمخاطر المحتملة.

وقد اعتمدت العديد من الدول سياسات مُتقدمة لتنظيم الذكاء الاصطناعي، حيث اتخذ الاتحاد الأوروبي خطوات رائدة في هذا المجال عبر قانون الذكاء الاصطناعي الأوروبي الذي دخل حيز التنفيذ عام 2024م والذي يُعدُ أول إطار قانوني شامل يهدف إلى تَنظيم استخدام الذكاء الاصطناعي وفق معايير صارمة تحمي الخصوصية وتحد من التحيز الخوارزمي. وفي المقابل، تبنت الولايات المتحدة الأمريكية نهجا يعتمد على توجيهات إرشادية لتعزيز الشفافية والمساءلة، مع منح الشركات حرية الابتكار ضمن حدود أخلاقية محددة. أما الصين، فقد ألزمت الشركات التقنية بمراجعة وتقييم خوارزميات الذكاء الاصطناعي المُستخدمة في المنصات الرقمية، لضمان الامتثال لمعايير الأمان السيبراني.

عليه فإنه يُمكن الإشارة إلى مجموعة من التوصيات والمُبادرات التي يُمكن أن تُسهم في تعزيز حوكمة الذكاء الاصطناعي بشكل فعال، ومن أبرزها: وضع أطر قانونية مَرنة تُتيح تطوير الذكاء الاصطناعي دون عرقلة الابتكار، مع ضمان حماية حقوق الأفراد والمجتمع وتعزيز الشفافية والمساءلة من خلال فرض معايير تضمن وضوح كيفية عمل أنظمة الذكاء الاصطناعي، وإتاحة آليات لمراجعة القرارات التي تتخذها هذه الأنظمة وتعزيز التعاون الدولي لإنشاء منصات مشتركة لمراقبة تطورات الذكاء الاصطناعي وتبادل المعلومات بين الدول حول المخاطر المحتملة وتشجيع البحث والتطوير المسؤول عبر دعم الأبحاث التي تركز على تطوير تقنيات ذكاء اصطناعي أكثر أمانا واستدامة وتعزيز تعليم الذكاء الاصطناعي الأخلاقي من خلال دمج مقررات حوكمة الذكاء الاصطناعي في مناهج المؤسسات الأكاديمية والتعليمية، لضمان وعي المطورين الجدد بالمسؤوليات الأخلاقية المترتبة على استخدام هذه التقنية.

إن حوكمة الذكاء الاصطناعي تُشكل ركيزة أساسية لضمان تحقيق أقصى الفوائد من هذه التقنية، مع الحد من المخاطر المرتبطة بها. وبينما يستمر الابتكار في التقدم بوتيرة غير مسبوقة، فإن المسؤولية تقتضي وضع سياسات وتشريعات تنظيمية تضمن الاستخدام العادل والمسؤول لهذه التقنيات، بما يتوافق مع القيم الأخلاقية والقوانين الدولية. ويُعد تحقيق التوازن بين الابتكار والمسؤولية التحدي الأكبر الذي يواجه الحكومات وصناع القرار، لكن من خلال التعاون الدولي ووضع سياسات متقدمة، يمكن بناء مستقبل مستدام للذكاء الاصطناعي يعود بالنفع على البشرية جمعاء.

عارف بن خميس الفزاري كاتب ومتخصص في المعرفة

مقالات مشابهة

  • شاهد| مشاريع الهيئة العامة للزكاة في شهر رمضان 1446هـ (إنفوجرافيك)
  • شباب القليوبية يشارك في المؤتمر الصحفي للموسم الخامس من "العباقرة أصحاب"
  • وزير الاتصالات يشارك في MWC 2025 ببرشلونة ويبحث التعاون في الذكاء الاصطناعي وبناء القدرات الرقمية
  • حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
  • رئيس الرقابة الصحية يبحث اعتماد عيادات ومراكز الأسنان تمهيدا لـ«التأمين الشامل»
  • "ليڤا للتأمين" تحصد جائزة "شركة التأمين الأكثر موثوقية" في عُمان
  • مجلس عُمان يشارك في الجلسة العامة واجتماعات اللجان الدائمة للبرلمان العربي
  • المركزي للزراعة العضوية يشارك في فعاليات مشروع النمو الأخضر
  • الرقابة المالية توضح أبرز جهود تطوير نشاط التأمين في 2024
  • وزير المالية رئيس حركة العدل والمساواة يشارك في احتفال تطهير بحري من المليشيا