واشنطن ـ  (د ب أ)-  فرضت التحديات والتهديدات التي يمثلها التطور السريع والمتلاحق لتكنولوجيا الذكاء الاصطناعي نفسها على قائمة اهتمامات دوائر صناعة القرار والأبحاث في أغلب دول العالم. وفي حين دعا عدد من رؤساء كبرى شركات التكنولوجيا في العالم إلى تعليق تطوير هذه التقنيات لفترة حتى يتم تحديد أفضل سبل التعامل معها، قال عالمان أمريكيان إن التصدي للمخاطر المحتملة للذكاء الاصطناعي يمكن أن يبدأ بخطوات بسيطة مثل إيجاد المناهج المناسبة لإدارة المخاطر وإجراء أبحاث لتحديد كيف يمكن ضمان تحقيق تقنيات الذكاء الاصطناعي لأهداف مصمميها ونواياهم بصورة أفضل، والاستعداد للتعامل مع الجوانب السلبية مثل العنصرية والتمييز الجنسي وغير ذلك من التحيزات الموجودة حاليا داخل أنظمة الذكاء الاصطناعي.

 وفي تحليل نشره موقع مؤسسة راند الأمريكية المرموقة لأبحاث الدفاع والامن القومي  قال كارتر برايس عالم الرياضيات و ميشيل وودز المدير المشارك لقطاع أبحاث الأمن الداخلي في مؤسسة راند، إنه رغم محاولات تعداد  المخاطر، فإن التصنيف البسيط لها، يتيح تقسيمها إلى مخاطر آنية يمكن أن يزيد حدتها الذكاء الاصطناعي مثل استخدام الإرهابيين لهذه التكنولوجيا في تطوير أسلحة بيولوجية أشد فتكا، ومخاطر مستحدثة مرتبطة بالذكاء الاصطناعي تحديدا، مثل اختيار الذكاء الاصطناعي للقضاء على الجنس البشري كحل نهائي  لمشكلة التغير المناخي على كوكب الأرض. وبالطبع قد تظهر الحاجة إلى تعديل المناهج المستخدمة للتعامل مع التهديدات الحالية، لكي تضع في الحساب القدرات غير المتوقعة التي يمكن أن يوفرها الذكاء الاصطناعي. وفي حين أن هناك مخاطر تم توثيقها  بسبب تحيزات الذكاء الاصطناعي الحالية، فإن المخاطر المستحدثة التي يمثلها الذكاء الاصطناعي غير محددة بوضوح لكي يتم التعامل معها من خلال السياسات، حتى يمكن للباحثين والمطورين  امتلاك المبادرة في التعامل مع التهديدات. ورغم ذلك يمكن  اتخاذ خطوات للاستعداد لهذه المخاطر سواء الحالية أو المستحدثة.  وتركز  مناهج إدارة المخاطر المستخدمة في قطاعات التأمين والتمويل وغيرها من الأنشطة الاقتصادية على الخطر باعتباره  نتيجة محتملة لحدوث شيء ما، يؤدي إلى نتيجة يمكن قياسها  بالدولار.  وهذه المناهج تعمل بشكل جيد في المجالات التي يمكن فيها قياس النتائج بالدولار، مع سهولة التعبير عنها بشكل كمي، وتكون البيانات شاملة بما يكفي للوصول إلى تقديرات يعتمد عليها. وللأسف فإن هذه المعايير لا تصلح مع مخاطر الذكاء الاصطناعي. وبدلا من التفكير في المخاطر كاحتمالات وتداعيات، من الصعب تحويل السياق إلى كم، ويمكن التفكير في المخاطر  كمزيج من التهديدات ونقاط الضعف والتداعيات. ويستخدم هذا المنهج في وكالة إدارة الطوارئ الاتحادية الأمريكية للاستعداد للكوارث الطبيعية، وفي وكالة أمن البنية التحتية والأمن السيبراني حيث يتم تقييم   كيفية حماية البنية التحتية الحيوية، وفي وزارة الدفاع الأمريكية للحد من التهديدات.  ويقول برايس ووددز إنه نظرا لآن هذا المنهج لا يعتمد بشكل مفرط على البيانات التجريبية، فإنه يمكن استخدامه للتعامل مع المخاطر المحتملة  مثل الذكاء الاصطناعي. ولكي يتم تطبيق هذا المنهج  مع التهديدات القائمة الناتجة عن الذكاء الاصطناعي، ستحتاج منظمات إدارة المخاطر لمراقبة تقدم الذكاء الاصطناعي وقدرات التهديدات، وخطورة نقاط الضعف، ونطاق التداعيات لتحديد ما إذا كانت هناك حاجة لإجراءات إضافية لمواجهة الخطر. في الوقت نفسه فإن المخاطر الفريدة للذكاء الاصطناعي تظل بنسبة كبيرة خارج نطاق التعامل بسبب جدتها، لكن الأمر يتغير. ففي 5 تموز/يوليو الحالي أعلنت شركة أوبن أيه.آي الأمريكية للذكاء الاصطناعي عن تشكيل مجموعة “محاذاة التفوق” للتعامل مع المخاطر الوجودية التي يمثلها الذكاء الاصطناعي. وفي سياق الذكاء الاصطناعي، فإن تعبير المحاذاة يشير إلى الدرجة التي تتطابق فيها أفعال نظام الذكاء الاصطناعي مع نية المصمم. ويعتبر التركيز على أبحاث المحاذاة  بالنسبة للذكاء الفائق بداية جيدة، لكنها تبدو ضيقة للغاية ويمكن توسيعها في المستقبل.  وأشار باحثون آخرون في مجال الذكاء الاصطناعي  إلى مشكلات مرتبطة بالعنصرية والتمييز الجنسي وغيرهما من أشكال التحيز في أنظمة الذكاء الاصطناعي الحالية. وإذا لم يكن من الممكن تصميم نظام ذكاء اصطناعي آمن ضد العنصرية أو التمييز الجنسي، فكيف يمكن تصميم نظام ينحاز إلى المصالح البشرية على المدى الطويل؟ و مع استمرار استثمار الشركات في أبحاث المحاذاة  فإنها تستطيع ايضا التركيز على مواجهة هذه التحيزات المعروفة والموجودة في أنظمة الذكاء الاصطناعي التي تطورها تلك الشركات حاليا. علاوة على ذلك فإنه للمستهلكين وصناع السياسة دورا في التعامل مع مخاطر الذكاء الاصطناعي. وكما تتعرض أي شركة للضغوط من المستهلكين والمساهمين لكي تفصل أي مسؤول يدلي بتصريحات عنصرية متكررة، فيجب ألا تتسامح أي شركة مع وجود مثل هذه التحيزات في أنظمة الذكاء الاصطناعي التي تستخدمها. وهذا النوع من ضغوط المستهلكين والمستخدمين يمكن أن يشجع المطورين على تحسين منتجات الذكاء الاصطناعي في هذا السياق. في الوقت نفسه يمكن للسلطات دعم هذا النوع من آليات السوق الحرة من خلال إلزام مطوري وشركات الذكاء الاصطناعي بتقديم المعلومات الخاصة بهذه التحيزات في منتجاتها، وكيفية الرد على هذه التحيزات. وأخيرا، ففي حين يمكن أن تكون التطورات الأخيرة في تطبيقات الذكاء الاصطناعي مربكة ويمكن أن تكون المخاطر الوجودية التي تمثلها من وجهة نظر مجموعات مختلفة من الباحثين في مجال الذكاء الاصطناعي، مثيرة للفزع، فإن الحكومات تستطيع القيام بخطوات تضمن استخدام الذكاء الاصطناعي بطريقة آمنة.

المصدر: رأي اليوم

إقرأ أيضاً:

حزب العدل يتناول تحولات السياسة في عصر الذكاء الاصطناعي

تابع أحدث الأخبار عبر تطبيق

أصدر حزب العدل مع بداية دور الانعقاد الخامس لمجلس النواب، ورقة بحثية جديدة تحت عنوان "تحولات السياسة في عصر الذكاء الاصطناعي"، وتعتبر بذلك أول دراسة حزبية مصرية تتناول تلك التكنولوجيا وتأثيرها على النواحي السياسية في الدولة.

وكان النائب عبدالمنعم إمام عضو مجلس النواب ورئيس الحزب قد أعلن في أبريل الماضي خلال حفل سحور الحزب عن تأسيس "العدل" لوحدة الدراسات المستقبلية، لدراسة أبعاد الذكاء الاصطناعي وتأثيره على السياسة والتشريعات، وذلك إيمانا من "العدل" بدراسة الجوانب التي لا يتم تناولها بشكل موسع، وتؤثر بشكل مباشر على واقع ومستقبل المواطن المصري.

وتعتبر تلك الورقة بداية تدشين لمجموعة من الأوراق البحثية للحزب في ذلك التخصص، والتطرق لتأثير الذكاء الاصطناعي على النواحي السياسية والمجتمعية والاقتصادية والتشريعية، وذلك في وقت يركز أغلب المهتمين بذلك الشأن في مصر على تأثير التطبيقات التكنولوجية على فرص العمل والجوانب الاقتصادية، في حين يرى الحزب أن التأثير على الجانب السياسي قد يغير من الممارسة السياسية جذرياً خلال المستقبل.

وتناولت الورقة البحثية الخاصة بحزب العدل تعريف الذكاء الاصطناعي وأنواعه، والفرق بين المعلومات المضللة والتزييف العميق، واستخدامه في  استراتيجيات الحملات السياسية واستطلاعات الرأي، كما تم التطرق المخاوف الأخلاقية ومشكلات انتهاك الخصوصية، ومفاهيم مثل القوات الإلكترونية والتلاعب، والحديث عن مرشحي الذكاء الاصطناعي، وتناول أمثلة تطبيقية مختلفة لكل تلك الجوانب.

مقالات مشابهة

  • رحلة الترجمة من القواميس الورقية إلى الذكاء الاصطناعي
  • قوة صاعدة: فرص الإمارات في سباق الذكاء الاصطناعي
  • خلال ندوة لجائزة الشيخ حمد للترجمة هل الذكاء الاصطناعي يمكن أن يحل محل المترجم؟ متخصصون يجيبون
  • بيان جديد بشأن مراكز الايواء التي يمكن أن تستقبل النازحين
  • حزب العدل يتناول تحولات السياسة في عصر الذكاء الاصطناعي
  • فيم يختلف نموذج أو 1 عن نماذج الذكاء الاصطناعي الأخرى؟
  • كيف أجاب الذكاء الاصطناعي عن تفاصيل اغتيال نصر الله ؟
  • الذكاء الاصطناعي: هكذا اغتالت إسرائيل حسن نصر الله
  • ما القصة وراء منشور “وداعا للذكاء الاصطناعي” الذي تداوله الآلاف عبر “إنستغرام”؟
  • حلقة عن الذكاء الاصطناعي بتعليمية الداخلية