في سعينا لابتكار آلات قادرة على التنّقل بين تعقيدات الأخلاق البشرية؛ سنجد أنفسنا نواجه حقائق غير مريحة تتعلق بطبيعة الأخلاق نفسها؛ إذ دفعتنا التطويرات المتسارعة في الذكاء الاصطناعي إلى عصرٍ لم تعد فيه الآلات -الأنظمة الذكية- باعتبارها أدوات رقمية وحسب، بل أصبحت صانعة قرارات بارزة في سيناريوهات تحمل تداعيات أخلاقية عبورا من السيارات ذاتية القيادة التي تُجبر على الاختيار بين نتيجتين ضارتين ووصولا إلى الخوارزميات التي تحدد مصير طالبي القروض، ولهذا يزداد ارتباط الذكاء الاصطناعي بالقضايا الأخلاقية، ويقودنا هذا إلى طرح تساؤل مفاده: أيمكننا حقًا غرس الأخلاق في خوارزميات الذكاء الاصطناعي؟ وما الذي يكشفه هذا السعي عن منظومتنا الأخلاقية بصورتها الكاملة؟

من الصعب أن نعتبر الأخلاق مفهومًا موحّدًا، ولكنها نسيج متنوع يتداخل فيه البعد الثقافي والاجتماعي والفردي، وتتباين معاييره بين المجتمعات والأفراد، ومع أيّ محاولة لاختزال هذا التعقيد في سطور برمجية "الخوارزمية"؛ ستنكشف لنا الصعوبات الكامنة في ذلك استنادا إلى المبدأ الفلسفي وليس العلمي، وفي هذا السياق، يمكن أن نقتبس ما قاله الكاتب "Paul Bloom" في مقال بعنوان "كيف يمكن للذكاء الاصطناعي أن يكون أخلاقيا حقا؟" في مجلة "The New Yorker": "من التحديات في خوارزمية الأخلاق وبرمجته داخل الذكاء الاصطناعي أن البشر أنفسهم لا يتفقون على ما يُعتبر سلوكًا أخلاقيا".

من الناحية العلمية، تعتمد البرمجة التقليدية على قواعد واضحة وبُنى منطقية، ولكن المعضلات الأخلاقية في غالبها غامضة تتحدى المنطق الثنائي الذي يقبل بالشيء ونقيضه، ويمكن أن نعتمد مسألة العربة أو القطار "The trolley problem" -التي تُعَدُّ تجربة فكرية شهيرة في فلسفة الأخلاق- لتكون مثالا يقرّبنا من قضية الاعتبارات الأخلاقية التي يمكن أن نضارعها بمثال واقعي -في حاضرنا- مع السيارة ذاتية القيادة التي ينبغي أن تتخذ قراراتها الحاسمة في جزء من الثانية دون الاستعانة بالحدس البشري؛ فتستدعي جدلنا النقدي لخوارزميتها الأخلاقية الاصطناعية، وتنتج مجموعة من الأسئلة مثل: من حيث المبدأ الأخلاقي، أتكون الأولوية لسلامة الركاب على حساب المارة أم العكس؟ وكيف تعمل السيارة على تقويم قيمة حياة مقابل حياة أخرى؟ تظل محدودية قدراتنا على استيعاب المنظومة الأخلاقية في نطاقنا البشري تحديا يكبح قدراتنا في تحديد خوارزمية أخلاقية عادلة وواضحة في أنظمة الذكاء الاصطناعي؛ ففي محاولتنا لتأسيس ذكاء اصطناعي أخلاقي، نجد أنفسنا نواجه انعكاسًا لتناقضاتنا الأخلاقية؛ حيث إن خوارزميات الذكاء الاصطناعي تتعلم من البيانات التي ينتجها البشر، وبذلك؛ فإنها تعكس تحيزاتنا ومنطلقاتنا الأخلاقية؛ لتصبح أنظمة الذكاء الاصطناعي مرآة أخلاقية تظهر ما نفعله ونفكر فيه وما نخفيه من خلل أخلاقي. هنا تثير هذه المعضلة الأخلاقية تساؤلات عميقة تتعلق بالمسؤولية؛ فعندما يتخذ نظامُ ذكاءٍ اصطناعي قرارًا مشكوكًا فيه أخلاقيًا يعتمد على بيانات منحازة؛ فمن يتحمل المسؤولية؟ المطورون؟ المستخدمون؟ المجتمع كله؟ فحينها، سيتحوّل توسّع دائرة المسؤولية إلى معضلة أخلاقية أخرى.

يظن بعضنا أن الذكاء الاصطناعي يمكنه اتخاذ قرارات موضوعية بعيدة عن التأثيرات العاطفية أو غير المنطقية، ولكن الأخلاق ذاتها ليست موضوعية؛ فما يفترضه مجتمعٌ ما مقبولًا، يراه مجتمعٌ آخر مرفوضًا، ويشكّل هذا التباين تحديًا كبيرًا لتطوير المبدأ الأخلاقي في الذكاء الاصطناعي. في منحنى آخر، عندما يتخذ النموذج الذكي قرارات تتماشى بدقة مع المعايير الخوارزمية؛ فإن النموذج يمنح الأولوية للفائدة العامة بطريقة تتجاهل الحقوق الفردية أو الأضرار العاطفية، وهذا ما يمكن أن يكون تصادما مع القيم الإنسانية التي تحاول أن توازن بين المصالح العامة والخاصة، ويمكن تقريب المشهد عبر مثال يتناول منح الذكاء الاصطناعي صالحية رفع الإنتاجية في مكان العمل، ولتحقيق هذه الغاية وفق مستوياتها العليا؛ سيتعيّن اتباع بعض السياسات التي يمكن أن تكون في بعض حالاتها -الفردية- غير عادلة؛ فتؤدي إلى إنهاك الموظفين أو فقدان الوظائف نظرا لوجود الأولوية للإنتاجية على حساب المصالح الفردية.

مع تسارع مشهد تطويرات تقنيات الذكاء الاصطناعي واتساع رقعة توظيفها؛ سيكون من الضروري الإسراع إلى تبنّي أطر تنظيمية قوية معنية بالجانب الأخلاقي، وينبغي على الحكومات والهيئات الدولية التعامل مع هذه القضية باعتبارها أولوية رئيسة عبر وضع معايير تضمن تشغيل أنظمة الذكاء الاصطناعي ضمن حدود أخلاقية مقبولة تشمل معالجة قضايا مثل الخصوصية والموافقة وتعدد الاحتمالات ذات الطابع الأخلاقي للقرارات التي يتّخذها الذكاء الاصطناعي. تمثّل تشريعات مثل اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) خطوة جيدة نحو محاسبة الذكاء الاصطناعي وتأطير منظومته الأخلاقية، ولكن، لا يمكن للقوانين وحدها أن تضمن توظيفًا أخلاقيًا للذكاء الاصطناعي؛ فيقع عاتق المسؤولية على الجميع بدءا من التقنيين -مصنّعي أنظمة الذكاء الاصطناعي- وانتهاءً بالسياسيين المعنيين بمراقبة سلوك الذكاء الاصطناعي واستعمالاته، وهذا ما يدعو إلى تصميم ذكاء اصطناعي يتوافق مع المبادئ الأخلاقية الرئيسة المتفق عليها من قبل المجتمعات الإنسانية، ويقترح بعض الباحثين إلى تطوير ذكاء اصطناعي يمكنه شرح عمليات اتخاذ قراراته -وفقَ منطق يُعرف باسم الذكاء الاصطناعي القابل للتفسير الذي يُختصر إلى (XAI)- وهذا ما يسهم في اقتران الذكاء الاصطناعي وتوليده للقرارات بشفافية؛ لتمكّن البشر من فهم منطق قرارات الذكاء الاصطناعي وكبحه عند أيّ منزلق أخلاقي.

بتضاعف تفاعل الذكاء الاصطناعي في مختلف جوانب الحياة، من المحتمل أن يصبح تأثيره على الأخلاق البشرية متبادلاً؛ فنبدأ في تبنّي معايير أخلاقية تتماشى مع منطق الذكاء الاصطناعي، سواء إلى الأفضل أو إلى الأسوأ، تماشيا مع متطلبات المنطق الرقمي، وهذا ما سبق أن طرحناه من وجهة نظر علمية تتمثّل في مشروع "أنسنة الذكاء الاصطناعي ورقمنة الإنسان وفق مبدأ التوأمة"، وهنا نجد تحديا جديدا يعكس معضلةً أخلاقية أخرى نظن -جهلا- أننا نحاول بواسطتها أن نتجاوز معضلة تحقيق السمو الأخلاقي المطلق في خوارزميات الذكاء الاصطناعي، ولهذا يظل السعي لتحقيق ذكاء اصطناعي أخلاقي بمضمونه المطلق تحديا عويصا من الناحية الفلسفية العميقة، وليس من الناحية التقنية، ورغم ذلك، سيكشف هذا السعي عن هشاشة مفاهيمنا الأخلاقية؛ فيدفعنا لإعادة النظر في ما يعنيه أن نكون كائنات بشرية أخلاقية قبل أن نطرق العنان إلى تأطير المنهج الأخلاقي في الذكاء الاصطناعي، ولهذا سنحتاج أن نعيد ترتيب أولوياتنا من ناحية البناء الأخلاقي؛ بحيث لا تبدأ في الآلات الرقمية التي يمكنها اتخاذ قرارات أخلاقية باعتبارها مرآة أخلاقية تعكس أخلاق البشرية وممارساتهم، بل تكون بداية من البشرية التي تحتاج إلى إعادتها إلى جوهر الأخلاق بشكل أفضل.

د. معمر بن علي التوبي أكاديمي وباحث عُماني

المصدر: لجريدة عمان

كلمات دلالية: أنظمة الذکاء الاصطناعی ذکاء اصطناعی یمکن أن وهذا ما

إقرأ أيضاً:

%92 من الطلاب يستخدمونه.. الذكاء الاصطناعي يهدد جوهر التعليم الجامعي

 أثار تقرير حديث يحذر الجامعات البريطانية من ضرورة "اختبار إجهاد" التقييمات في ظل استخدام 92% من الطلاب للذكاء الاصطناعي، جدلاً واسعاً حول مستقبل التعليم الجامعي ودور الذكاء الاصطناعي فيه.

يشير البروفيسور أندرو موران من جامعة لندن متروبوليتان إلى أن الجامعات، التي كانت تعتبر لقرون مخازن للمعرفة والحقيقة، بدأت تفقد هذا الدور عندما تراجعت قيمة الخبراء وضعف التفكير النقدي واستقطب الخطاب العام بشكل متزايد.

ندرة المعرفة وتحديات المصادر التقليدية

في هذا العالم، يتم رفض المصادر التقليدية للمعرفة بشكل متزايد، الكتب والمقالات الصحفية ووسائل الإعلام القديمة تواجه تحديات من خلال التطورات في عرض المعلومات واسترجاعها، وعلى رأسها التطبيقات ووسائل التواصل الاجتماعي، وأدى ذلك إلى "ندرة المعرفة"، على حد تعبير موران.

قوائم القراءة المنسقة، التي يقضي الأكاديميون وقتًا في البحث عنها وتسليط الضوء على المفكرين والكتابات الرئيسية، غالبًا ما يتم تجاهلها من قبل الطلاب لصالح بحث جوجل.

 وإذا لم يعجب الطالب ما يقرأ، يمكنه ببساطة التمرير إلى اليسار، ويمكن للخوارزميات بعد ذلك إرسال الطلاب في اتجاهات غير متوقعة، غالبًا ما تحولهم عن الصرامة الأكاديمية إلى موارد غير أكاديمية.

سباق الذكاء الاصطناعي.. كيف يعيد التقطير رسم ملامح المنافسة بين عمالقة التكنولوجيا؟Alexa+.. قفزة نوعية في الذكاء الاصطناعي.. أبرز ميزات المساعد الذكي الجديد من أمازون«DeepSeek» تُشعل سباق الذكاء الاصطناعي.. هامش ربح 545% يهز الأسواق وسهم NVIDIA ينهار«جروك 3».. الذكاء الاصطناعي غير المقيد بين وعود الشفافية ومخاوف الأمان |تفاصيلالذكاء الاصطناعي .. سيرجي برين: تسريع وتيرة التطوير نحو AGIهل المعرفة سلعة استهلاكية؟

يؤكد موران أهمية توفير مواد التعلم للطلاب على مدار الساعة طوال أيام الأسبوع، لكنه يتساءل: "هل تصبح المعرفة سلعة استهلاكية أخرى؟" فهي متاحة بلمسة زر عبر الإنترنت، ويتم توصيلها بشكل فعال إلى بابك، وهناك العديد من المنافذ للاختيار من بينها.

 قد تكون هناك كمية، ولكن ليس بالضرورة جودة: الذكاء الاصطناعي هو السلعة الاستهلاكية المطلقة.

يثير هذا الأمر تساؤلات جوهرية حول ليس فقط ما نعنيه بالمعرفة، ولكن أيضًا ما سيكون دور التعليم والأكاديميين في المستقبل. 

ويقول موران: "أستطيع أن أقدر فوائد الذكاء الاصطناعي في العلوم أو الاقتصاد أو الرياضيات، حيث الحقائق غالبًا ما تكون غير قابلة للشك، ولكن ماذا عن العلوم الإنسانية والاجتماعية، حيث الكثير قابل للطعن؟"

ويحذر من أننا نفقد أرضية بسرعة أمام تغييرات مجتمعية عميقة يمكن أن يكون لها عواقب لا يمكن تصورها على الجامعات إذا لم نستجب بسرعة.

التفكير النقدي في مواجهة الذكاء الاصطناعي

من جهته، يعبر محاضر جامعي في العلوم الإنسانية عن عدم استغرابه من الزيادة الهائلة في استخدام الذكاء الاصطناعي، مشيراً إلى أنه يتم الترويج له بقوة من قبل شركات التكنولوجيا باعتباره سلعة موفرة للوقت، والخطاب السياسي الأوسع يعزز هذا الرأي دون التشكيك في قيود الذكاء الاصطناعي وأخلاقياته.

بينما قد يكون الذكاء الاصطناعي مفيدًا في العديد من السياقات الأكاديمية - في كتابة التقارير الأساسية وإجراء البحوث الأولية على سبيل المثال - فإن استخدامه من قبل الطلاب لكتابة المقالات يشير إلى التقليل من قيمة موضوعات العلوم الإنسانية وسوء فهم ما يتيحه الكتابة الأصلية في تخصصات مثل التاريخ والأدب والفلسفة: التفكير النقدي.

ويستشهد المحاضر بقول الروائي العظيم إي إم فورستر: "كيف يمكنني أن أعرف ما أفكر فيه حتى أرى ما أقول؟" كان يقصد أن الكتابة هي شكل متطور من أشكال التفكير، وأن تعلم الكتابة بشكل جيد، والشعور بالمرء وهو يشق طريقه عبر تطوير فكرة أو حجة، هو جوهر الكتابة. 

عندما نطلب من الذكاء الاصطناعي كتابة مقال، فإننا لا نقوم ببساطة بالاستعانة بمصادر خارجية للعمل، بل نستعين بمصادر خارجية لتفكيرنا وتطويره، مما سيجعلنا بمرور الوقت أكثر ارتباكًا وأقل ذكاءً.

في عصر تكنولوجي نيوليبرالي نهتم فيه غالبًا بالمنتج بدلاً من العملية التي تم من خلالها صنعه، ليس من المستغرب أن يتم تجاهل القيمة الحقيقية للكتابة. 

فيما يأخذ الطلاب ببساطة  إشاراتهم من عالم يفقد الاتصال بالقيمة التي لا يمكن تعويضها للإبداع البشري والتفكير النقدي.

مقالات مشابهة

  • كيف سيغير وكلاء الذكاء الاصطناعي هجمات سرقة بيانات الاعتماد
  • الخبرات النادرة والمعادلة الجديدة في الذكاء الاصطناعي
  • عندما يلتقي الذكاء الاصطناعي والعاطفي
  • الخوارزمية الأولى: أساطير الذكاء الاصطناعي
  • الشراكات الدولية وتعزيز الريادة الإماراتية في الذكاء الاصطناعي
  • %92 من الطلاب يستخدمونه.. الذكاء الاصطناعي يهدد جوهر التعليم الجامعي
  • الدماغ البشري يتفوّق على الذكاء الاصطناعي في حالات عدّة
  • حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
  • الجزائر في طليعة تبني الذكاء الاصطناعي في إفريقيا
  • سامسونج تطلق Galaxy A56 مع دعم ميزات الذكاء الاصطناعي