المرآة الأخلاقية: كيف يدفعنا الذكاء الاصطناعي لإعادة النظر في منظومتنا الأخلاقية؟
تاريخ النشر: 30th, November 2024 GMT
في سعينا لابتكار آلات قادرة على التنّقل بين تعقيدات الأخلاق البشرية؛ سنجد أنفسنا نواجه حقائق غير مريحة تتعلق بطبيعة الأخلاق نفسها؛ إذ دفعتنا التطويرات المتسارعة في الذكاء الاصطناعي إلى عصرٍ لم تعد فيه الآلات -الأنظمة الذكية- باعتبارها أدوات رقمية وحسب، بل أصبحت صانعة قرارات بارزة في سيناريوهات تحمل تداعيات أخلاقية عبورا من السيارات ذاتية القيادة التي تُجبر على الاختيار بين نتيجتين ضارتين ووصولا إلى الخوارزميات التي تحدد مصير طالبي القروض، ولهذا يزداد ارتباط الذكاء الاصطناعي بالقضايا الأخلاقية، ويقودنا هذا إلى طرح تساؤل مفاده: أيمكننا حقًا غرس الأخلاق في خوارزميات الذكاء الاصطناعي؟ وما الذي يكشفه هذا السعي عن منظومتنا الأخلاقية بصورتها الكاملة؟
من الصعب أن نعتبر الأخلاق مفهومًا موحّدًا، ولكنها نسيج متنوع يتداخل فيه البعد الثقافي والاجتماعي والفردي، وتتباين معاييره بين المجتمعات والأفراد، ومع أيّ محاولة لاختزال هذا التعقيد في سطور برمجية "الخوارزمية"؛ ستنكشف لنا الصعوبات الكامنة في ذلك استنادا إلى المبدأ الفلسفي وليس العلمي، وفي هذا السياق، يمكن أن نقتبس ما قاله الكاتب "Paul Bloom" في مقال بعنوان "كيف يمكن للذكاء الاصطناعي أن يكون أخلاقيا حقا؟" في مجلة "The New Yorker": "من التحديات في خوارزمية الأخلاق وبرمجته داخل الذكاء الاصطناعي أن البشر أنفسهم لا يتفقون على ما يُعتبر سلوكًا أخلاقيا".
يظن بعضنا أن الذكاء الاصطناعي يمكنه اتخاذ قرارات موضوعية بعيدة عن التأثيرات العاطفية أو غير المنطقية، ولكن الأخلاق ذاتها ليست موضوعية؛ فما يفترضه مجتمعٌ ما مقبولًا، يراه مجتمعٌ آخر مرفوضًا، ويشكّل هذا التباين تحديًا كبيرًا لتطوير المبدأ الأخلاقي في الذكاء الاصطناعي. في منحنى آخر، عندما يتخذ النموذج الذكي قرارات تتماشى بدقة مع المعايير الخوارزمية؛ فإن النموذج يمنح الأولوية للفائدة العامة بطريقة تتجاهل الحقوق الفردية أو الأضرار العاطفية، وهذا ما يمكن أن يكون تصادما مع القيم الإنسانية التي تحاول أن توازن بين المصالح العامة والخاصة، ويمكن تقريب المشهد عبر مثال يتناول منح الذكاء الاصطناعي صالحية رفع الإنتاجية في مكان العمل، ولتحقيق هذه الغاية وفق مستوياتها العليا؛ سيتعيّن اتباع بعض السياسات التي يمكن أن تكون في بعض حالاتها -الفردية- غير عادلة؛ فتؤدي إلى إنهاك الموظفين أو فقدان الوظائف نظرا لوجود الأولوية للإنتاجية على حساب المصالح الفردية.
مع تسارع مشهد تطويرات تقنيات الذكاء الاصطناعي واتساع رقعة توظيفها؛ سيكون من الضروري الإسراع إلى تبنّي أطر تنظيمية قوية معنية بالجانب الأخلاقي، وينبغي على الحكومات والهيئات الدولية التعامل مع هذه القضية باعتبارها أولوية رئيسة عبر وضع معايير تضمن تشغيل أنظمة الذكاء الاصطناعي ضمن حدود أخلاقية مقبولة تشمل معالجة قضايا مثل الخصوصية والموافقة وتعدد الاحتمالات ذات الطابع الأخلاقي للقرارات التي يتّخذها الذكاء الاصطناعي. تمثّل تشريعات مثل اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) خطوة جيدة نحو محاسبة الذكاء الاصطناعي وتأطير منظومته الأخلاقية، ولكن، لا يمكن للقوانين وحدها أن تضمن توظيفًا أخلاقيًا للذكاء الاصطناعي؛ فيقع عاتق المسؤولية على الجميع بدءا من التقنيين -مصنّعي أنظمة الذكاء الاصطناعي- وانتهاءً بالسياسيين المعنيين بمراقبة سلوك الذكاء الاصطناعي واستعمالاته، وهذا ما يدعو إلى تصميم ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية الرئيسة المتفق عليها من قبل المجتمعات الإنسانية، ويقترح بعض الباحثين إلى تطوير ذكاء اصطناعي يمكنه شرح عمليات اتخاذ قراراته -وفقَ منطق يُعرف باسم الذكاء الاصطناعي القابل للتفسير الذي يُختصر إلى (XAI)- وهذا ما يسهم في اقتران الذكاء الاصطناعي وتوليده للقرارات بشفافية؛ لتمكّن البشر من فهم منطق قرارات الذكاء الاصطناعي وكبحه عند أيّ منزلق أخلاقي.
بتضاعف تفاعل الذكاء الاصطناعي في مختلف جوانب الحياة، من المحتمل أن يصبح تأثيره على الأخلاق البشرية متبادلاً؛ فنبدأ في تبنّي معايير أخلاقية تتماشى مع منطق الذكاء الاصطناعي، سواء إلى الأفضل أو إلى الأسوأ، تماشيا مع متطلبات المنطق الرقمي، وهذا ما سبق أن طرحناه من وجهة نظر علمية تتمثّل في مشروع "أنسنة الذكاء الاصطناعي ورقمنة الإنسان وفق مبدأ التوأمة"، وهنا نجد تحديا جديدا يعكس معضلةً أخلاقية أخرى نظن -جهلا- أننا نحاول بواسطتها أن نتجاوز معضلة تحقيق السمو الأخلاقي المطلق في خوارزميات الذكاء الاصطناعي، ولهذا يظل السعي لتحقيق ذكاء اصطناعي أخلاقي بمضمونه المطلق تحديا عويصا من الناحية الفلسفية العميقة، وليس من الناحية التقنية، ورغم ذلك، سيكشف هذا السعي عن هشاشة مفاهيمنا الأخلاقية؛ فيدفعنا لإعادة النظر في ما يعنيه أن نكون كائنات بشرية أخلاقية قبل أن نطرق العنان إلى تأطير المنهج الأخلاقي في الذكاء الاصطناعي، ولهذا سنحتاج أن نعيد ترتيب أولوياتنا من ناحية البناء الأخلاقي؛ بحيث لا تبدأ في الآلات الرقمية التي يمكنها اتخاذ قرارات أخلاقية باعتبارها مرآة أخلاقية تعكس أخلاق البشرية وممارساتهم، بل تكون بداية من البشرية التي تحتاج إلى إعادتها إلى جوهر الأخلاق بشكل أفضل.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: أنظمة الذکاء الاصطناعی ذکاء اصطناعی یمکن أن وهذا ما
إقرأ أيضاً:
%92 من الطلاب يستخدمونه.. الذكاء الاصطناعي يهدد جوهر التعليم الجامعي
أثار تقرير حديث يحذر الجامعات البريطانية من ضرورة "اختبار إجهاد" التقييمات في ظل استخدام 92% من الطلاب للذكاء الاصطناعي، جدلاً واسعاً حول مستقبل التعليم الجامعي ودور الذكاء الاصطناعي فيه.
يشير البروفيسور أندرو موران من جامعة لندن متروبوليتان إلى أن الجامعات، التي كانت تعتبر لقرون مخازن للمعرفة والحقيقة، بدأت تفقد هذا الدور عندما تراجعت قيمة الخبراء وضعف التفكير النقدي واستقطب الخطاب العام بشكل متزايد.
ندرة المعرفة وتحديات المصادر التقليديةفي هذا العالم، يتم رفض المصادر التقليدية للمعرفة بشكل متزايد، الكتب والمقالات الصحفية ووسائل الإعلام القديمة تواجه تحديات من خلال التطورات في عرض المعلومات واسترجاعها، وعلى رأسها التطبيقات ووسائل التواصل الاجتماعي، وأدى ذلك إلى "ندرة المعرفة"، على حد تعبير موران.
قوائم القراءة المنسقة، التي يقضي الأكاديميون وقتًا في البحث عنها وتسليط الضوء على المفكرين والكتابات الرئيسية، غالبًا ما يتم تجاهلها من قبل الطلاب لصالح بحث جوجل.
وإذا لم يعجب الطالب ما يقرأ، يمكنه ببساطة التمرير إلى اليسار، ويمكن للخوارزميات بعد ذلك إرسال الطلاب في اتجاهات غير متوقعة، غالبًا ما تحولهم عن الصرامة الأكاديمية إلى موارد غير أكاديمية.
يؤكد موران أهمية توفير مواد التعلم للطلاب على مدار الساعة طوال أيام الأسبوع، لكنه يتساءل: "هل تصبح المعرفة سلعة استهلاكية أخرى؟" فهي متاحة بلمسة زر عبر الإنترنت، ويتم توصيلها بشكل فعال إلى بابك، وهناك العديد من المنافذ للاختيار من بينها.
قد تكون هناك كمية، ولكن ليس بالضرورة جودة: الذكاء الاصطناعي هو السلعة الاستهلاكية المطلقة.
يثير هذا الأمر تساؤلات جوهرية حول ليس فقط ما نعنيه بالمعرفة، ولكن أيضًا ما سيكون دور التعليم والأكاديميين في المستقبل.
ويقول موران: "أستطيع أن أقدر فوائد الذكاء الاصطناعي في العلوم أو الاقتصاد أو الرياضيات، حيث الحقائق غالبًا ما تكون غير قابلة للشك، ولكن ماذا عن العلوم الإنسانية والاجتماعية، حيث الكثير قابل للطعن؟"
ويحذر من أننا نفقد أرضية بسرعة أمام تغييرات مجتمعية عميقة يمكن أن يكون لها عواقب لا يمكن تصورها على الجامعات إذا لم نستجب بسرعة.
التفكير النقدي في مواجهة الذكاء الاصطناعيمن جهته، يعبر محاضر جامعي في العلوم الإنسانية عن عدم استغرابه من الزيادة الهائلة في استخدام الذكاء الاصطناعي، مشيراً إلى أنه يتم الترويج له بقوة من قبل شركات التكنولوجيا باعتباره سلعة موفرة للوقت، والخطاب السياسي الأوسع يعزز هذا الرأي دون التشكيك في قيود الذكاء الاصطناعي وأخلاقياته.
بينما قد يكون الذكاء الاصطناعي مفيدًا في العديد من السياقات الأكاديمية - في كتابة التقارير الأساسية وإجراء البحوث الأولية على سبيل المثال - فإن استخدامه من قبل الطلاب لكتابة المقالات يشير إلى التقليل من قيمة موضوعات العلوم الإنسانية وسوء فهم ما يتيحه الكتابة الأصلية في تخصصات مثل التاريخ والأدب والفلسفة: التفكير النقدي.
ويستشهد المحاضر بقول الروائي العظيم إي إم فورستر: "كيف يمكنني أن أعرف ما أفكر فيه حتى أرى ما أقول؟" كان يقصد أن الكتابة هي شكل متطور من أشكال التفكير، وأن تعلم الكتابة بشكل جيد، والشعور بالمرء وهو يشق طريقه عبر تطوير فكرة أو حجة، هو جوهر الكتابة.
عندما نطلب من الذكاء الاصطناعي كتابة مقال، فإننا لا نقوم ببساطة بالاستعانة بمصادر خارجية للعمل، بل نستعين بمصادر خارجية لتفكيرنا وتطويره، مما سيجعلنا بمرور الوقت أكثر ارتباكًا وأقل ذكاءً.
في عصر تكنولوجي نيوليبرالي نهتم فيه غالبًا بالمنتج بدلاً من العملية التي تم من خلالها صنعه، ليس من المستغرب أن يتم تجاهل القيمة الحقيقية للكتابة.
فيما يأخذ الطلاب ببساطة إشاراتهم من عالم يفقد الاتصال بالقيمة التي لا يمكن تعويضها للإبداع البشري والتفكير النقدي.