صحيفة أثير:
2025-04-07@09:43:53 GMT

كيف تسهم إدارة المخاطر في تحسين الأداء المالي؟

تاريخ النشر: 12th, August 2024 GMT

كيف تسهم إدارة المخاطر في تحسين الأداء المالي؟

أثير – جميلة العبرية

تُعرف عملية إدارة المخاطر بأنها مجموعة من الأنشطة المنظمة لتوجيه المنشأة والتحكم في مخاطرها.

وأوضحت أمل الحاتمية من جهاز الرقابة المالية و الإدارية للدولة في ورقة عملها “دور إدارة المخاطر في تحسين الأداء المالي، حماية الأصول والاستثمارات، وتحقيق الامتثال القانوني” ضمن المؤتمر الأول لإدارة المخاطر، بأن عملية إدارة المخاطر تتضمن تطبيقًا ممنهجًا للسياسات والإجراءات والممارسات في كل مراحل العملية المختلفة حيث تتكون من 6 خطوات رئيسة وهي:

وضربت الحاتمية أمثلة على المخاطر المالية مثل:
1- مخاطر السوق:
• مخاطر سعر الصرف: تتعلق بتقلبات أسعار العملات الأجنبية.


• مخاطر سعر الفائدة: تتعلق بتغيرات أسعار الفائدة والتي قد تؤثر على تكاليف التمويل أو العوائد.
• مخاطر سعر السلع: تتعلق بتقلبات أسعار السلع الأساسية مثل النفط والمعادن.

2. مخاطر الائتمان:
• تتعلق باحتمال عدم قدرة العملاء أو الأطراف الأخرى على سداد ديونهم للمؤسسة.

3. مخاطر السيولة:
• تتعلق بعدم قدرة المؤسسة على تسييل أصولها بسرعة كافية لتلبية التزاماتها المالية في الوقت المحدد.

4. مخاطر التشغيل:
• تتعلق بالفشل في العمليات الداخلية للمؤسسة بسبب أخطاء بشرية أو مشاكل تقنية أو إجراءات غير فعالة.

5. مخاطر الامتثال والتنظيم:
• تتعلق بعدم الامتثال للقوانين واللوائح المالية والتنظيمية التي تفرضها الجهات الحكومية.

6. مخاطر السمعة:
• تتعلق بالأضرار المحتملة لسمعة المؤسسة بسبب أحداث سلبية أو سلوكيات غير أخلاقية.

7. مخاطر الأعمال:
• تتعلق بتغيرات في السوق أو الصناعة يمكن أن تؤثر على قدرة المؤسسة على تحقيق أرباح.

8. مخاطر التكنولوجيا:
• تتعلق بتعطل الأنظمة التكنولوجية أو التهديدات السيبرانية التي قد تؤثر على العمليات المالية.

وأكدت الحاتمية بأن فهم وتصنيف هذه الفئات يساعد المؤسسات في تطوير إستراتيجيات فعالة لإدارة المخاطر وتقليل تأثيرها على الأداء المالي.

أما المخاطر المرتبطة بالأصول والاستثمارات فأشارت الحاتمية إلى أنها تضم كلًا من:

1. المخاطر السوقية:
• تقلبات السوق والأسعار
• تأثيرات الأحداث الاقتصادية والسياسية

2. المخاطر الائتمانية:
• عدم قدرة الأطراف الأخرى على الوفاء بالتزاماتها المالية
• التغير في التصنيفات الائتمانية

3. المخاطر التشغيلية:
• أخطاء بشرية
• فشل الأنظمة
• الاحتيال

4. المخاطر القانونية والتنظيمية:
• التغييرات في القوانين واللوائح
• الدعاوى القضائية

5. المخاطر البيئية:
• الكوارث الطبيعية
• التغير المناخي

6. المخاطر التكنولوجية:
• الهجمات الإلكترونية
• فشل التكنولوجيا

7. المخاطر المالية:
• تغيرات أسعار الفائدة
• تغيرات أسعار الصرف

كما أوضحت بأن هناك مخاطر مرتبطة بتحقيق الامتثال والتوافق القانوني تكون في شكل عدم وجود تدريب كافٍ للموظفين على الالتزام بالقوانين واللوائح، وعدم الامتثال للمعايير البيئية والتعرض لغرامات بسبب الانتهاكات البيئية.

وعددت الحاتمية أمثلة على الأدوات الخاصة بتحديد المخاطر منها 12 أداة وهي:

 

 

وبينت أن عملية تحليل المخاطر تكون باستخدام أدوات ونماذج لتحليل كيفية تأثير المخاطر على المؤسسة، وتحليل أسباب الخطر وتبعاته.

وذكرت بأن عملية تقدير المخاطر تأتي في شكل تقدير احتمالية وقوع المخاطر وتأثيرها، إضافة لتصنيف مستوى المخاطر بناءً على مدى تأثيرها واحتماليتها.

كما تضم خطوة معالجة المخاطر تطوير إستراتيجيات إدارة المخاطر، ووضع خطط للحد من تأثير المخاطر أو تجنبها، وتحديد الإجراءات اللازمة للتعامل مع المخاطر في حال حدوثها، وتخصيص الموارد والمسؤوليات لضمان تنفيذ الخطط بشكل فعال.

وأضافت: يتبع معالجة المخاطر خطوة التسجيل ورفع التقارير عبر تحديث سجل المخاطر بشكل دوري، وإعداد تقارير دورية توضح مستوى المخاطر وفعالية الإدارة، تليها خطوة المراقبة والمراجعة بمتابعة المخاطر وتقييم فعالية الإستراتيجيات المتبعة، وربط الخطط العلاجية للمخاطر بالخطط التشغيلية للجهة، وتحديث تقييم المخاطر بشكل دوري لضمان توافقه مع التغيرات.

وأشارت أمل الحاتمية إلى أنه آخر خطوة لعملية إدارة المخاطر هي التواصل والتشاور بإبلاغ الأطراف المعنية بحالة المخاطر والإجراءات المتخذة.

المصدر: صحيفة أثير

كلمات دلالية: إدارة المخاطر

إقرأ أيضاً:

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم  يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي 

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

 
المشكلة المحتملة الأولى، هي سوء الاستخدام،  بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

أخبار ذات صلة رفاهية أكثر في «ياس» بالذكاء الاصطناعي مساعد AI لتحسين سير العمل بالمصانع من مايكروسوفت

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.

وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح  "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.

وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.

وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.

الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.

توصي الورقة بعدد من الإجراءات الوقائية،  للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.

وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.

مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.

على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.

وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.

وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)

مقالات مشابهة

  • الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
  • عادة صباحية تساعد على تحسين عملية الهضم طوال اليوم
  • من قرارات ترامب إلى أوبك وجلسة السوداني.. شبح الانهيار المالي يخيّم على العراق
  • من قرارات ترامب إلى أوبك وجلسة السوداني.. شبح الانهيار المالي يخيّم على العراق - عاجل
  • آسفي..توقيف شخصين هددا بارتكاب جنايات وجنح ضد الأشخاص والممتلكات وعدم الامتثال
  • تفقد مستوى الانضباط الوظيفي في وزارة المالية ومصلحتي الجمارك والضرائب
  • هبوط سعر النفط والعقود المستقبلية لأقل مستوى منذ 2021
  • فوائد الخروب للقولون.. أبرزها تحسين عملية الهضم ويقوي جهاز لمناعة
  • فيديو.. انقطاع المياه في الأحساء ضمن مشروعات تحسين الجودة
  • صدمة أوبك+ وترامب تهبط بسعر النفط لأقل مستوى منذ 2021