المرآة الأخلاقية: كيف يدفعنا الذكاء الاصطناعي لإعادة النظر في منظومتنا الأخلاقية؟
تاريخ النشر: 30th, November 2024 GMT
في سعينا لابتكار آلات قادرة على التنّقل بين تعقيدات الأخلاق البشرية؛ سنجد أنفسنا نواجه حقائق غير مريحة تتعلق بطبيعة الأخلاق نفسها؛ إذ دفعتنا التطويرات المتسارعة في الذكاء الاصطناعي إلى عصرٍ لم تعد فيه الآلات -الأنظمة الذكية- باعتبارها أدوات رقمية وحسب، بل أصبحت صانعة قرارات بارزة في سيناريوهات تحمل تداعيات أخلاقية عبورا من السيارات ذاتية القيادة التي تُجبر على الاختيار بين نتيجتين ضارتين ووصولا إلى الخوارزميات التي تحدد مصير طالبي القروض، ولهذا يزداد ارتباط الذكاء الاصطناعي بالقضايا الأخلاقية، ويقودنا هذا إلى طرح تساؤل مفاده: أيمكننا حقًا غرس الأخلاق في خوارزميات الذكاء الاصطناعي؟ وما الذي يكشفه هذا السعي عن منظومتنا الأخلاقية بصورتها الكاملة؟
من الصعب أن نعتبر الأخلاق مفهومًا موحّدًا، ولكنها نسيج متنوع يتداخل فيه البعد الثقافي والاجتماعي والفردي، وتتباين معاييره بين المجتمعات والأفراد، ومع أيّ محاولة لاختزال هذا التعقيد في سطور برمجية "الخوارزمية"؛ ستنكشف لنا الصعوبات الكامنة في ذلك استنادا إلى المبدأ الفلسفي وليس العلمي، وفي هذا السياق، يمكن أن نقتبس ما قاله الكاتب "Paul Bloom" في مقال بعنوان "كيف يمكن للذكاء الاصطناعي أن يكون أخلاقيا حقا؟" في مجلة "The New Yorker": "من التحديات في خوارزمية الأخلاق وبرمجته داخل الذكاء الاصطناعي أن البشر أنفسهم لا يتفقون على ما يُعتبر سلوكًا أخلاقيا".
يظن بعضنا أن الذكاء الاصطناعي يمكنه اتخاذ قرارات موضوعية بعيدة عن التأثيرات العاطفية أو غير المنطقية، ولكن الأخلاق ذاتها ليست موضوعية؛ فما يفترضه مجتمعٌ ما مقبولًا، يراه مجتمعٌ آخر مرفوضًا، ويشكّل هذا التباين تحديًا كبيرًا لتطوير المبدأ الأخلاقي في الذكاء الاصطناعي. في منحنى آخر، عندما يتخذ النموذج الذكي قرارات تتماشى بدقة مع المعايير الخوارزمية؛ فإن النموذج يمنح الأولوية للفائدة العامة بطريقة تتجاهل الحقوق الفردية أو الأضرار العاطفية، وهذا ما يمكن أن يكون تصادما مع القيم الإنسانية التي تحاول أن توازن بين المصالح العامة والخاصة، ويمكن تقريب المشهد عبر مثال يتناول منح الذكاء الاصطناعي صالحية رفع الإنتاجية في مكان العمل، ولتحقيق هذه الغاية وفق مستوياتها العليا؛ سيتعيّن اتباع بعض السياسات التي يمكن أن تكون في بعض حالاتها -الفردية- غير عادلة؛ فتؤدي إلى إنهاك الموظفين أو فقدان الوظائف نظرا لوجود الأولوية للإنتاجية على حساب المصالح الفردية.
مع تسارع مشهد تطويرات تقنيات الذكاء الاصطناعي واتساع رقعة توظيفها؛ سيكون من الضروري الإسراع إلى تبنّي أطر تنظيمية قوية معنية بالجانب الأخلاقي، وينبغي على الحكومات والهيئات الدولية التعامل مع هذه القضية باعتبارها أولوية رئيسة عبر وضع معايير تضمن تشغيل أنظمة الذكاء الاصطناعي ضمن حدود أخلاقية مقبولة تشمل معالجة قضايا مثل الخصوصية والموافقة وتعدد الاحتمالات ذات الطابع الأخلاقي للقرارات التي يتّخذها الذكاء الاصطناعي. تمثّل تشريعات مثل اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) خطوة جيدة نحو محاسبة الذكاء الاصطناعي وتأطير منظومته الأخلاقية، ولكن، لا يمكن للقوانين وحدها أن تضمن توظيفًا أخلاقيًا للذكاء الاصطناعي؛ فيقع عاتق المسؤولية على الجميع بدءا من التقنيين -مصنّعي أنظمة الذكاء الاصطناعي- وانتهاءً بالسياسيين المعنيين بمراقبة سلوك الذكاء الاصطناعي واستعمالاته، وهذا ما يدعو إلى تصميم ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية الرئيسة المتفق عليها من قبل المجتمعات الإنسانية، ويقترح بعض الباحثين إلى تطوير ذكاء اصطناعي يمكنه شرح عمليات اتخاذ قراراته -وفقَ منطق يُعرف باسم الذكاء الاصطناعي القابل للتفسير الذي يُختصر إلى (XAI)- وهذا ما يسهم في اقتران الذكاء الاصطناعي وتوليده للقرارات بشفافية؛ لتمكّن البشر من فهم منطق قرارات الذكاء الاصطناعي وكبحه عند أيّ منزلق أخلاقي.
بتضاعف تفاعل الذكاء الاصطناعي في مختلف جوانب الحياة، من المحتمل أن يصبح تأثيره على الأخلاق البشرية متبادلاً؛ فنبدأ في تبنّي معايير أخلاقية تتماشى مع منطق الذكاء الاصطناعي، سواء إلى الأفضل أو إلى الأسوأ، تماشيا مع متطلبات المنطق الرقمي، وهذا ما سبق أن طرحناه من وجهة نظر علمية تتمثّل في مشروع "أنسنة الذكاء الاصطناعي ورقمنة الإنسان وفق مبدأ التوأمة"، وهنا نجد تحديا جديدا يعكس معضلةً أخلاقية أخرى نظن -جهلا- أننا نحاول بواسطتها أن نتجاوز معضلة تحقيق السمو الأخلاقي المطلق في خوارزميات الذكاء الاصطناعي، ولهذا يظل السعي لتحقيق ذكاء اصطناعي أخلاقي بمضمونه المطلق تحديا عويصا من الناحية الفلسفية العميقة، وليس من الناحية التقنية، ورغم ذلك، سيكشف هذا السعي عن هشاشة مفاهيمنا الأخلاقية؛ فيدفعنا لإعادة النظر في ما يعنيه أن نكون كائنات بشرية أخلاقية قبل أن نطرق العنان إلى تأطير المنهج الأخلاقي في الذكاء الاصطناعي، ولهذا سنحتاج أن نعيد ترتيب أولوياتنا من ناحية البناء الأخلاقي؛ بحيث لا تبدأ في الآلات الرقمية التي يمكنها اتخاذ قرارات أخلاقية باعتبارها مرآة أخلاقية تعكس أخلاق البشرية وممارساتهم، بل تكون بداية من البشرية التي تحتاج إلى إعادتها إلى جوهر الأخلاق بشكل أفضل.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: أنظمة الذکاء الاصطناعی ذکاء اصطناعی یمکن أن وهذا ما
إقرأ أيضاً:
حرب الذكاء الاصطناعي.. من ينتصر؟!
يشهد العالم اليوم سباقاً خطيراً وسريعاً بين الولايات المتحدة والصين للهيمنة على مجال الذكاء الاصطناعي.. سباق بات هو الأعلى صوتاً بعد وصول الرئيس ترامب للمكتب البيضاوي وإعلانه عن مشروع «ستارغيت» الضخم لإنشاء بنى تحتية لهذه التكنولوجيا في الولايات المتحدة باستثمارات تتجاوز قيمتها 500 مليار دولار بهدف التفوق على الصين.
وحتى نرى الصورة كاملة من المهم فهم أن الهيمنة على مجال الذكاء الاصطناعي في هذه المرحلة الزمنية لا تقتصر على تحقيق التفوق العلمي فقط، بل تشمل الجوانب العسكرية والاستخباراتية، ولهذا فإن التنافس المحموم يعكس إدراك الدولتين لمدى خطورة الذكاء الاصطناعي كعنصر حاسم في تشكيل مستقبلهما وتغيير قواعد اللعبة العالمية لتعزيز نفوذهما، بل وربما تمكين إحداهما من السيطرة على مستقبل البشرية!الولايات المتحدة لديها ميزة الريادة التقليدية بفضل نظامها البحثي القوي وشركاتها التكنولوجية الكبرى مثل Google ،Microsoft ،OpenAI، بجانب تبني واشنطن سياسات صارمة للحد من تصدير التقنيات المتقدمة والرقائق إلى الصين، في محاولة أخيرة للحفاظ على التفوق التكنولوجي.
ومن جهتها تواصل الصين تحقيق تقدم سريع في مجال الذكاء الاصطناعي، مدفوعة بخطة وطنية معلنة تهدف إلى تحقيق الريادة العالمية بحلول عام 2030. وتقود جهودها شركات التكنولوجيا الصينية العملاقة مثل «علي بابا»، «تينسنت»، و«بايدو».. وقد أثبتت هذه الشركات قدرتها على تطوير نماذج ذكاء اصطناعي تنافس النماذج الغربية، على الرغم من القيود الأمريكية على تصدير التقنيات المتقدمة، مثل أشباه الموصلات والرقائق الدقيقة، وتبرر واشنطن ذلك بكون الذكاء الاصطناعي ساحة رئيسية للتنافس العسكري بما في ذلك الطائرات بدون طيار، والأسلحة الذكية، وتحليل البيانات الاستخباراتية، وهو ما قد يدفع العالم مستقبلاً لوضع قوانين دولية لتنظيم استخدام الذكاء الاصطناعي في المجال العسكري.
السباق الصيني الأمريكي يختلف اختلافاً واضحاً في الأساليب المتبعة، ففي حين تعتمد واشنطن على الابتكار الفردي والتعاون بين القطاعين العام والخاص، تركز الصين على التخطيط المركزي والاستثمارات الحكومية الكبيرة. وهو تباين يعكس اختلاف الفلسفة الاقتصادية والسياسية لكل من البلدين.