في سعينا لابتكار آلات قادرة على التنّقل بين تعقيدات الأخلاق البشرية؛ سنجد أنفسنا نواجه حقائق غير مريحة تتعلق بطبيعة الأخلاق نفسها؛ إذ دفعتنا التطويرات المتسارعة في الذكاء الاصطناعي إلى عصرٍ لم تعد فيه الآلات -الأنظمة الذكية- باعتبارها أدوات رقمية وحسب، بل أصبحت صانعة قرارات بارزة في سيناريوهات تحمل تداعيات أخلاقية عبورا من السيارات ذاتية القيادة التي تُجبر على الاختيار بين نتيجتين ضارتين ووصولا إلى الخوارزميات التي تحدد مصير طالبي القروض، ولهذا يزداد ارتباط الذكاء الاصطناعي بالقضايا الأخلاقية، ويقودنا هذا إلى طرح تساؤل مفاده: أيمكننا حقًا غرس الأخلاق في خوارزميات الذكاء الاصطناعي؟ وما الذي يكشفه هذا السعي عن منظومتنا الأخلاقية بصورتها الكاملة؟

من الصعب أن نعتبر الأخلاق مفهومًا موحّدًا، ولكنها نسيج متنوع يتداخل فيه البعد الثقافي والاجتماعي والفردي، وتتباين معاييره بين المجتمعات والأفراد، ومع أيّ محاولة لاختزال هذا التعقيد في سطور برمجية "الخوارزمية"؛ ستنكشف لنا الصعوبات الكامنة في ذلك استنادا إلى المبدأ الفلسفي وليس العلمي، وفي هذا السياق، يمكن أن نقتبس ما قاله الكاتب "Paul Bloom" في مقال بعنوان "كيف يمكن للذكاء الاصطناعي أن يكون أخلاقيا حقا؟" في مجلة "The New Yorker": "من التحديات في خوارزمية الأخلاق وبرمجته داخل الذكاء الاصطناعي أن البشر أنفسهم لا يتفقون على ما يُعتبر سلوكًا أخلاقيا".

من الناحية العلمية، تعتمد البرمجة التقليدية على قواعد واضحة وبُنى منطقية، ولكن المعضلات الأخلاقية في غالبها غامضة تتحدى المنطق الثنائي الذي يقبل بالشيء ونقيضه، ويمكن أن نعتمد مسألة العربة أو القطار "The trolley problem" -التي تُعَدُّ تجربة فكرية شهيرة في فلسفة الأخلاق- لتكون مثالا يقرّبنا من قضية الاعتبارات الأخلاقية التي يمكن أن نضارعها بمثال واقعي -في حاضرنا- مع السيارة ذاتية القيادة التي ينبغي أن تتخذ قراراتها الحاسمة في جزء من الثانية دون الاستعانة بالحدس البشري؛ فتستدعي جدلنا النقدي لخوارزميتها الأخلاقية الاصطناعية، وتنتج مجموعة من الأسئلة مثل: من حيث المبدأ الأخلاقي، أتكون الأولوية لسلامة الركاب على حساب المارة أم العكس؟ وكيف تعمل السيارة على تقويم قيمة حياة مقابل حياة أخرى؟ تظل محدودية قدراتنا على استيعاب المنظومة الأخلاقية في نطاقنا البشري تحديا يكبح قدراتنا في تحديد خوارزمية أخلاقية عادلة وواضحة في أنظمة الذكاء الاصطناعي؛ ففي محاولتنا لتأسيس ذكاء اصطناعي أخلاقي، نجد أنفسنا نواجه انعكاسًا لتناقضاتنا الأخلاقية؛ حيث إن خوارزميات الذكاء الاصطناعي تتعلم من البيانات التي ينتجها البشر، وبذلك؛ فإنها تعكس تحيزاتنا ومنطلقاتنا الأخلاقية؛ لتصبح أنظمة الذكاء الاصطناعي مرآة أخلاقية تظهر ما نفعله ونفكر فيه وما نخفيه من خلل أخلاقي. هنا تثير هذه المعضلة الأخلاقية تساؤلات عميقة تتعلق بالمسؤولية؛ فعندما يتخذ نظامُ ذكاءٍ اصطناعي قرارًا مشكوكًا فيه أخلاقيًا يعتمد على بيانات منحازة؛ فمن يتحمل المسؤولية؟ المطورون؟ المستخدمون؟ المجتمع كله؟ فحينها، سيتحوّل توسّع دائرة المسؤولية إلى معضلة أخلاقية أخرى.

يظن بعضنا أن الذكاء الاصطناعي يمكنه اتخاذ قرارات موضوعية بعيدة عن التأثيرات العاطفية أو غير المنطقية، ولكن الأخلاق ذاتها ليست موضوعية؛ فما يفترضه مجتمعٌ ما مقبولًا، يراه مجتمعٌ آخر مرفوضًا، ويشكّل هذا التباين تحديًا كبيرًا لتطوير المبدأ الأخلاقي في الذكاء الاصطناعي. في منحنى آخر، عندما يتخذ النموذج الذكي قرارات تتماشى بدقة مع المعايير الخوارزمية؛ فإن النموذج يمنح الأولوية للفائدة العامة بطريقة تتجاهل الحقوق الفردية أو الأضرار العاطفية، وهذا ما يمكن أن يكون تصادما مع القيم الإنسانية التي تحاول أن توازن بين المصالح العامة والخاصة، ويمكن تقريب المشهد عبر مثال يتناول منح الذكاء الاصطناعي صالحية رفع الإنتاجية في مكان العمل، ولتحقيق هذه الغاية وفق مستوياتها العليا؛ سيتعيّن اتباع بعض السياسات التي يمكن أن تكون في بعض حالاتها -الفردية- غير عادلة؛ فتؤدي إلى إنهاك الموظفين أو فقدان الوظائف نظرا لوجود الأولوية للإنتاجية على حساب المصالح الفردية.

مع تسارع مشهد تطويرات تقنيات الذكاء الاصطناعي واتساع رقعة توظيفها؛ سيكون من الضروري الإسراع إلى تبنّي أطر تنظيمية قوية معنية بالجانب الأخلاقي، وينبغي على الحكومات والهيئات الدولية التعامل مع هذه القضية باعتبارها أولوية رئيسة عبر وضع معايير تضمن تشغيل أنظمة الذكاء الاصطناعي ضمن حدود أخلاقية مقبولة تشمل معالجة قضايا مثل الخصوصية والموافقة وتعدد الاحتمالات ذات الطابع الأخلاقي للقرارات التي يتّخذها الذكاء الاصطناعي. تمثّل تشريعات مثل اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) خطوة جيدة نحو محاسبة الذكاء الاصطناعي وتأطير منظومته الأخلاقية، ولكن، لا يمكن للقوانين وحدها أن تضمن توظيفًا أخلاقيًا للذكاء الاصطناعي؛ فيقع عاتق المسؤولية على الجميع بدءا من التقنيين -مصنّعي أنظمة الذكاء الاصطناعي- وانتهاءً بالسياسيين المعنيين بمراقبة سلوك الذكاء الاصطناعي واستعمالاته، وهذا ما يدعو إلى تصميم ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية الرئيسة المتفق عليها من قبل المجتمعات الإنسانية، ويقترح بعض الباحثين إلى تطوير ذكاء اصطناعي يمكنه شرح عمليات اتخاذ قراراته -وفقَ منطق يُعرف باسم الذكاء الاصطناعي القابل للتفسير الذي يُختصر إلى (XAI)- وهذا ما يسهم في اقتران الذكاء الاصطناعي وتوليده للقرارات بشفافية؛ لتمكّن البشر من فهم منطق قرارات الذكاء الاصطناعي وكبحه عند أيّ منزلق أخلاقي.

بتضاعف تفاعل الذكاء الاصطناعي في مختلف جوانب الحياة، من المحتمل أن يصبح تأثيره على الأخلاق البشرية متبادلاً؛ فنبدأ في تبنّي معايير أخلاقية تتماشى مع منطق الذكاء الاصطناعي، سواء إلى الأفضل أو إلى الأسوأ، تماشيا مع متطلبات المنطق الرقمي، وهذا ما سبق أن طرحناه من وجهة نظر علمية تتمثّل في مشروع "أنسنة الذكاء الاصطناعي ورقمنة الإنسان وفق مبدأ التوأمة"، وهنا نجد تحديا جديدا يعكس معضلةً أخلاقية أخرى نظن -جهلا- أننا نحاول بواسطتها أن نتجاوز معضلة تحقيق السمو الأخلاقي المطلق في خوارزميات الذكاء الاصطناعي، ولهذا يظل السعي لتحقيق ذكاء اصطناعي أخلاقي بمضمونه المطلق تحديا عويصا من الناحية الفلسفية العميقة، وليس من الناحية التقنية، ورغم ذلك، سيكشف هذا السعي عن هشاشة مفاهيمنا الأخلاقية؛ فيدفعنا لإعادة النظر في ما يعنيه أن نكون كائنات بشرية أخلاقية قبل أن نطرق العنان إلى تأطير المنهج الأخلاقي في الذكاء الاصطناعي، ولهذا سنحتاج أن نعيد ترتيب أولوياتنا من ناحية البناء الأخلاقي؛ بحيث لا تبدأ في الآلات الرقمية التي يمكنها اتخاذ قرارات أخلاقية باعتبارها مرآة أخلاقية تعكس أخلاق البشرية وممارساتهم، بل تكون بداية من البشرية التي تحتاج إلى إعادتها إلى جوهر الأخلاق بشكل أفضل.

د. معمر بن علي التوبي أكاديمي وباحث عُماني

المصدر: لجريدة عمان

كلمات دلالية: أنظمة الذکاء الاصطناعی ذکاء اصطناعی یمکن أن وهذا ما

إقرأ أيضاً:

حرب الذكاء الاصطناعي.. من ينتصر؟!

يشهد العالم اليوم سباقاً خطيراً وسريعاً بين الولايات المتحدة والصين للهيمنة على مجال الذكاء الاصطناعي.. سباق بات هو الأعلى صوتاً بعد وصول الرئيس ترامب للمكتب البيضاوي وإعلانه عن مشروع «ستارغيت» الضخم لإنشاء بنى تحتية لهذه التكنولوجيا في الولايات المتحدة باستثمارات تتجاوز قيمتها 500 مليار دولار بهدف التفوق على الصين.

وحتى نرى الصورة كاملة من المهم فهم أن الهيمنة على مجال الذكاء الاصطناعي في هذه المرحلة الزمنية لا تقتصر على تحقيق التفوق العلمي فقط، بل تشمل الجوانب العسكرية والاستخباراتية، ولهذا فإن التنافس المحموم يعكس إدراك الدولتين لمدى خطورة الذكاء الاصطناعي كعنصر حاسم في تشكيل مستقبلهما وتغيير قواعد اللعبة العالمية لتعزيز نفوذهما، بل وربما تمكين إحداهما من السيطرة على مستقبل البشرية! 
الولايات المتحدة لديها ميزة الريادة التقليدية بفضل نظامها البحثي القوي وشركاتها التكنولوجية الكبرى مثل Google ،Microsoft ،OpenAI، بجانب تبني واشنطن سياسات صارمة للحد من تصدير التقنيات المتقدمة والرقائق إلى الصين، في محاولة أخيرة للحفاظ على التفوق التكنولوجي.
ومن جهتها تواصل الصين تحقيق تقدم سريع في مجال الذكاء الاصطناعي، مدفوعة بخطة وطنية معلنة تهدف إلى تحقيق الريادة العالمية بحلول عام 2030. وتقود جهودها شركات التكنولوجيا الصينية العملاقة مثل «علي بابا»، «تينسنت»، و«بايدو».. وقد أثبتت هذه الشركات قدرتها على تطوير نماذج ذكاء اصطناعي تنافس النماذج الغربية، على الرغم من القيود الأمريكية على تصدير التقنيات المتقدمة، مثل أشباه الموصلات والرقائق الدقيقة، وتبرر واشنطن ذلك بكون الذكاء الاصطناعي ساحة رئيسية للتنافس العسكري بما في ذلك الطائرات بدون طيار، والأسلحة الذكية، وتحليل البيانات الاستخباراتية، وهو ما قد يدفع العالم مستقبلاً لوضع قوانين دولية لتنظيم استخدام الذكاء الاصطناعي في المجال العسكري.
السباق الصيني الأمريكي يختلف اختلافاً واضحاً في الأساليب المتبعة، ففي حين تعتمد واشنطن على الابتكار الفردي والتعاون بين القطاعين العام والخاص، تركز الصين على التخطيط المركزي والاستثمارات الحكومية الكبيرة. وهو تباين يعكس اختلاف الفلسفة الاقتصادية والسياسية لكل من البلدين.

مقالات مشابهة

  • ديب سيك الصيني يهدد عرش الذكاء الاصطناعي الأمريكي
  • الذكاء الاصطناعي خطر محدق بالكتابة الصحفية
  • «غوغل» تكشف عن مزايا جديدة بـ«الذكاء الاصطناعي» في خرائطها
  • الذكاء الاصطناعي أولوية وطنية
  • أوروبا تحظر نموذج الذكاء الاصطناعي "ديب سيك"
  • مؤتمر سوق العمل يناقش مستقبل الوظائف في ظل الذكاء الاصطناعي
  • “سدايا” تستعرض مستقبل الذكاء الاصطناعي العام والتحديات التي تواجهه بمشاركة أكثر من 16 جهة حكومية
  • حرب الذكاء الاصطناعي.. وأنظمة الغباء الصناعي!
  • "أوبن إيه آي" تتهم شركات صينية بنسخ نموذج الذكاء الاصطناعي الأمريكي
  • حرب الذكاء الاصطناعي.. من ينتصر؟!