في سعينا لابتكار آلات قادرة على التنّقل بين تعقيدات الأخلاق البشرية؛ سنجد أنفسنا نواجه حقائق غير مريحة تتعلق بطبيعة الأخلاق نفسها؛ إذ دفعتنا التطويرات المتسارعة في الذكاء الاصطناعي إلى عصرٍ لم تعد فيه الآلات -الأنظمة الذكية- باعتبارها أدوات رقمية وحسب، بل أصبحت صانعة قرارات بارزة في سيناريوهات تحمل تداعيات أخلاقية عبورا من السيارات ذاتية القيادة التي تُجبر على الاختيار بين نتيجتين ضارتين ووصولا إلى الخوارزميات التي تحدد مصير طالبي القروض، ولهذا يزداد ارتباط الذكاء الاصطناعي بالقضايا الأخلاقية، ويقودنا هذا إلى طرح تساؤل مفاده: أيمكننا حقًا غرس الأخلاق في خوارزميات الذكاء الاصطناعي؟ وما الذي يكشفه هذا السعي عن منظومتنا الأخلاقية بصورتها الكاملة؟

من الصعب أن نعتبر الأخلاق مفهومًا موحّدًا، ولكنها نسيج متنوع يتداخل فيه البعد الثقافي والاجتماعي والفردي، وتتباين معاييره بين المجتمعات والأفراد، ومع أيّ محاولة لاختزال هذا التعقيد في سطور برمجية "الخوارزمية"؛ ستنكشف لنا الصعوبات الكامنة في ذلك استنادا إلى المبدأ الفلسفي وليس العلمي، وفي هذا السياق، يمكن أن نقتبس ما قاله الكاتب "Paul Bloom" في مقال بعنوان "كيف يمكن للذكاء الاصطناعي أن يكون أخلاقيا حقا؟" في مجلة "The New Yorker": "من التحديات في خوارزمية الأخلاق وبرمجته داخل الذكاء الاصطناعي أن البشر أنفسهم لا يتفقون على ما يُعتبر سلوكًا أخلاقيا".

من الناحية العلمية، تعتمد البرمجة التقليدية على قواعد واضحة وبُنى منطقية، ولكن المعضلات الأخلاقية في غالبها غامضة تتحدى المنطق الثنائي الذي يقبل بالشيء ونقيضه، ويمكن أن نعتمد مسألة العربة أو القطار "The trolley problem" -التي تُعَدُّ تجربة فكرية شهيرة في فلسفة الأخلاق- لتكون مثالا يقرّبنا من قضية الاعتبارات الأخلاقية التي يمكن أن نضارعها بمثال واقعي -في حاضرنا- مع السيارة ذاتية القيادة التي ينبغي أن تتخذ قراراتها الحاسمة في جزء من الثانية دون الاستعانة بالحدس البشري؛ فتستدعي جدلنا النقدي لخوارزميتها الأخلاقية الاصطناعية، وتنتج مجموعة من الأسئلة مثل: من حيث المبدأ الأخلاقي، أتكون الأولوية لسلامة الركاب على حساب المارة أم العكس؟ وكيف تعمل السيارة على تقويم قيمة حياة مقابل حياة أخرى؟ تظل محدودية قدراتنا على استيعاب المنظومة الأخلاقية في نطاقنا البشري تحديا يكبح قدراتنا في تحديد خوارزمية أخلاقية عادلة وواضحة في أنظمة الذكاء الاصطناعي؛ ففي محاولتنا لتأسيس ذكاء اصطناعي أخلاقي، نجد أنفسنا نواجه انعكاسًا لتناقضاتنا الأخلاقية؛ حيث إن خوارزميات الذكاء الاصطناعي تتعلم من البيانات التي ينتجها البشر، وبذلك؛ فإنها تعكس تحيزاتنا ومنطلقاتنا الأخلاقية؛ لتصبح أنظمة الذكاء الاصطناعي مرآة أخلاقية تظهر ما نفعله ونفكر فيه وما نخفيه من خلل أخلاقي. هنا تثير هذه المعضلة الأخلاقية تساؤلات عميقة تتعلق بالمسؤولية؛ فعندما يتخذ نظامُ ذكاءٍ اصطناعي قرارًا مشكوكًا فيه أخلاقيًا يعتمد على بيانات منحازة؛ فمن يتحمل المسؤولية؟ المطورون؟ المستخدمون؟ المجتمع كله؟ فحينها، سيتحوّل توسّع دائرة المسؤولية إلى معضلة أخلاقية أخرى.

يظن بعضنا أن الذكاء الاصطناعي يمكنه اتخاذ قرارات موضوعية بعيدة عن التأثيرات العاطفية أو غير المنطقية، ولكن الأخلاق ذاتها ليست موضوعية؛ فما يفترضه مجتمعٌ ما مقبولًا، يراه مجتمعٌ آخر مرفوضًا، ويشكّل هذا التباين تحديًا كبيرًا لتطوير المبدأ الأخلاقي في الذكاء الاصطناعي. في منحنى آخر، عندما يتخذ النموذج الذكي قرارات تتماشى بدقة مع المعايير الخوارزمية؛ فإن النموذج يمنح الأولوية للفائدة العامة بطريقة تتجاهل الحقوق الفردية أو الأضرار العاطفية، وهذا ما يمكن أن يكون تصادما مع القيم الإنسانية التي تحاول أن توازن بين المصالح العامة والخاصة، ويمكن تقريب المشهد عبر مثال يتناول منح الذكاء الاصطناعي صالحية رفع الإنتاجية في مكان العمل، ولتحقيق هذه الغاية وفق مستوياتها العليا؛ سيتعيّن اتباع بعض السياسات التي يمكن أن تكون في بعض حالاتها -الفردية- غير عادلة؛ فتؤدي إلى إنهاك الموظفين أو فقدان الوظائف نظرا لوجود الأولوية للإنتاجية على حساب المصالح الفردية.

مع تسارع مشهد تطويرات تقنيات الذكاء الاصطناعي واتساع رقعة توظيفها؛ سيكون من الضروري الإسراع إلى تبنّي أطر تنظيمية قوية معنية بالجانب الأخلاقي، وينبغي على الحكومات والهيئات الدولية التعامل مع هذه القضية باعتبارها أولوية رئيسة عبر وضع معايير تضمن تشغيل أنظمة الذكاء الاصطناعي ضمن حدود أخلاقية مقبولة تشمل معالجة قضايا مثل الخصوصية والموافقة وتعدد الاحتمالات ذات الطابع الأخلاقي للقرارات التي يتّخذها الذكاء الاصطناعي. تمثّل تشريعات مثل اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) خطوة جيدة نحو محاسبة الذكاء الاصطناعي وتأطير منظومته الأخلاقية، ولكن، لا يمكن للقوانين وحدها أن تضمن توظيفًا أخلاقيًا للذكاء الاصطناعي؛ فيقع عاتق المسؤولية على الجميع بدءا من التقنيين -مصنّعي أنظمة الذكاء الاصطناعي- وانتهاءً بالسياسيين المعنيين بمراقبة سلوك الذكاء الاصطناعي واستعمالاته، وهذا ما يدعو إلى تصميم ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية الرئيسة المتفق عليها من قبل المجتمعات الإنسانية، ويقترح بعض الباحثين إلى تطوير ذكاء اصطناعي يمكنه شرح عمليات اتخاذ قراراته -وفقَ منطق يُعرف باسم الذكاء الاصطناعي القابل للتفسير الذي يُختصر إلى (XAI)- وهذا ما يسهم في اقتران الذكاء الاصطناعي وتوليده للقرارات بشفافية؛ لتمكّن البشر من فهم منطق قرارات الذكاء الاصطناعي وكبحه عند أيّ منزلق أخلاقي.

بتضاعف تفاعل الذكاء الاصطناعي في مختلف جوانب الحياة، من المحتمل أن يصبح تأثيره على الأخلاق البشرية متبادلاً؛ فنبدأ في تبنّي معايير أخلاقية تتماشى مع منطق الذكاء الاصطناعي، سواء إلى الأفضل أو إلى الأسوأ، تماشيا مع متطلبات المنطق الرقمي، وهذا ما سبق أن طرحناه من وجهة نظر علمية تتمثّل في مشروع "أنسنة الذكاء الاصطناعي ورقمنة الإنسان وفق مبدأ التوأمة"، وهنا نجد تحديا جديدا يعكس معضلةً أخلاقية أخرى نظن -جهلا- أننا نحاول بواسطتها أن نتجاوز معضلة تحقيق السمو الأخلاقي المطلق في خوارزميات الذكاء الاصطناعي، ولهذا يظل السعي لتحقيق ذكاء اصطناعي أخلاقي بمضمونه المطلق تحديا عويصا من الناحية الفلسفية العميقة، وليس من الناحية التقنية، ورغم ذلك، سيكشف هذا السعي عن هشاشة مفاهيمنا الأخلاقية؛ فيدفعنا لإعادة النظر في ما يعنيه أن نكون كائنات بشرية أخلاقية قبل أن نطرق العنان إلى تأطير المنهج الأخلاقي في الذكاء الاصطناعي، ولهذا سنحتاج أن نعيد ترتيب أولوياتنا من ناحية البناء الأخلاقي؛ بحيث لا تبدأ في الآلات الرقمية التي يمكنها اتخاذ قرارات أخلاقية باعتبارها مرآة أخلاقية تعكس أخلاق البشرية وممارساتهم، بل تكون بداية من البشرية التي تحتاج إلى إعادتها إلى جوهر الأخلاق بشكل أفضل.

د. معمر بن علي التوبي أكاديمي وباحث عُماني

المصدر: لجريدة عمان

كلمات دلالية: أنظمة الذکاء الاصطناعی ذکاء اصطناعی یمکن أن وهذا ما

إقرأ أيضاً:

خبر سيئ للأفريقيات في هذا القطاع.. بسبب الذكاء الاصطناعي

قال تقرير، يوم الخميس، إن عددا أكبر من النساء يحتمل أن يفقدن مهامهن في قطاع التعهيد ويتم استبدالهن بالأنظمة الأوتوماتيكية والذكاء الاصطناعي بحلول 2030 مقارنة بالرجال.

وأضاف التقرير، الذي صدر في مؤتمر للذكاء الاصطناعي في العاصمة الرواندية، كيغالي، أن النمو المتزايد حاليا في قطاع التعهيد في القارة الأفريقية قد يتباطأ، وحث العاملين على تعزيز مهاراتهم حتى ينتقلون إلى وظائف أفضل.

 وتجمع أكثر من 1000 من صناع السياسات وقادة الأعمال وجماعات المصالح في كيغالي لأول قمة عالمية للذكاء الاصطناعي في أفريقيا على الإطلاق.

ودعا الرئيس الرواندي بول كاغامي، الذي ألقى خطابا في المؤتمر في يوم افتتاحه، إلى المزيد من الاستثمارات والابتكار والإبداع.

مقالات مشابهة

  • كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟
  • بيل غيتس يكشف المهن التي ستظل بعيدة عن تأثير الذكاء الاصطناعي: 3 فقط
  • مدعومة بالذكاء الاصطناعي.. تطوير جيل جديد من «النظارات الذكية»
  • “Meta” تطور نظارات مزودة بالذكاء الاصطناعي
  • بيل غيتس يستثني 3 مهن من هيمنة الذكاء الاصطناعي
  • بيل غيتس: 3 مهن ستصمد في وجه الذكاء الاصطناعي
  • بيل غيتس عن الذكاء الاصطناعي: 3 مهن ستنجو من إعصار
  • خبر سيئ للأفريقيات في هذا القطاع.. بسبب الذكاء الاصطناعي
  • تقرير أممي: الذكاء الاصطناعي سيؤثر على قرابة نصف الوظائف في العالم
  • التوترات التجارية عبر الأطلسي: دعوات أوروبية لإعادة النظر في شراكات التكنولوجيا مع أمريكا