الذكاء الاصطناعي.. حجرٌ لا يتعاطف!
تاريخ النشر: 30th, October 2024 GMT
مؤيد الزعبي
أغلب تطبيقات الذكاء الاصطناعي تعجبني شخصيًا، وأنتظر المزيد منها لتسهل حياتنا وأعمالنا وتقدم لنا نموذج جديد لحياتنا، ولكن ما لا يعجبني أن الذكاء الاصطناعي كما نقولها في العامية "مثل الحجر" لا يتعاطف مع ما يُعرض أمامه أو ما نطلبه منه، فحتى لو قام الذكاء الاصطناعي بتوليد صورة رومانسية فلن يتعاطف معها، وبنفس الدرجة لن يتعاطف مع مظلوم أو يكون لديه موقف من دولة معينة تقتل أطفال فيتبنى قضيتهم.
وماذا لو كان الذكاء الاصطناعي مكان الضابط السوفيتي ستانيسلاف بيتروف الذي شكك في صحة التهديد النووي الأمريكي فرفض الرد الفوري مما جنّب العالم كارثة نووية محتملة وتبين لاحقًا أنه كان تهديد خاطئ وعاطفته هي من أنقذت البشرية، وهنا أجد أن إشكالية تعاطف الذكاء الاصطناعي من عدمه إشكالية يصعب تحديد فيما إذا كانت إيجابية أم سلبية، ولهذا سوف أحاول أن اتناول هذا الجانب بشقيه من خلال هذا الطرح.
إشكاليتنا اليوم بسيطة طالما هي على ورق أي إنها لم تتحول لتطبيق عملي، وبما أننا نستعد لأن نوجد قاضي ذكاء اصطناعي فلن يأخذ هذا القاضي في حسبانه أن القاتل قد يكون بريئًا فبالنسبة له كل الأدلة ضده، بينما القاضي البشري قد يتعاطف مع أطروحة معينة فيأمر في المزيد من التحقيقات لتحقيق العدالة، وأيضًا لن تتعاطف السيارة الروبوت بأن تختار أن تصطدم هي بشجرة لحماية أروحا أبرياء يعبرون الشارع، ولن يتعاطف الذكاء الاصطناعي مع إنسان يريد حلًا لمشكلته العاطفية يتكلم عنها بحرقة قلب أو بوجع يفوق تصورات هذا الذكاء الاصطناعي وما تم برمجته عليه، وأيضًا لن تذرف له دمعة على مشاهد أطفال تقتل تحت ألة حرب جاثمة فبالنسبة له المعادلة مغايرة، وأيضًا لن يتعاطف مع مريض يتعذب من العلاج فيقرر أن الرحمة تستوجب عدم المحاولة مرة أخرى، ولن يتعاطف مع محاول للانتحار أو مريضًا نفسيًا بحاجة لم يتغلغل عاطفته؛ صحيح أن كل هذه السيناريوهات مازالت بعيدة إلا أننا يجب أن نفكر بها الآن ونحن نستعد لعصر الذكاء الاصطناعي لكي نأخذها بعين الاعتبار ونحن نبرمجه ونحن ندخله مجالاتنا وحياتنا وأنظمتنا ومدننا ومستشفياتنا وحتى قلوبنا وعقولنا.
في كثير من الأحيان يكون قرارنا المصيري كبشر مبني على عاطفة تجذبنا نحو طريق أو خيار معين، فالتفكير العاطفي جزء من مكوننا البشري وأجد أنه كان ومازال وسيظل نهجًا قويًا يحافظ على استمرارية بقاؤنا، في حين أننا نتطلع اليوم لأن نستبدل أنظمتنا الحالية بأنظمة ذكاء اصطناعي تعتمد على عقلانية خوارزمية إن صح التعبير لتكون بديلًا عن نظام إنساني عاش ملايين السنين، وفي الحقيقة لقد سألت الذكاء الاصطناعي نفسه فيما إذا كانت إشكالية طرحنا اليوم إيجابية أم سلبية فكانت هذه هي إجابته.
الجانب الإيجابي: عدم امتلاك الذكاء الاصطناعي للتعاطف يعني قدرته على تقديم قرارات وتحليلات موضوعية دون تأثير المشاعر الشخصية، مما يساعد في مجالات كالتشخيص الطبي، تحليل المخاطر، أو اتخاذ القرارات التجارية. التزام الذكاء الاصطناعي بالحياد في مثل هذه الحالات يقلل من احتمالية التحيز العاطفي الذي قد يؤثر على القرارات، مثل توجيه علاج معين أو اتخاذ خطوات استباقية في إدارة الأزمات، أما الجانب السلبي: ففي السياقات التي تحتاج إلى تفاعل إنساني وحساسية عالية، مثل دعم الصحة النفسية أو التواصل مع الأفراد المتأثرين بالكوارث، قد يبدو عدم وجود تعاطف لدى الذكاء الاصطناعي نقطة ضعف. التفاعل مع الأفراد الذين يمرون بصعوبات نفسية أو عاطفية يتطلب تفهمًا وتعاطفًا قد يعجز الذكاء الاصطناعي عن محاكاته بشكل كافٍ، وهذا يمكن أن يجعل الردود التي يقدمها باردة أو غير مناسبة.
نعم عزيزي القارئ الذكاء الاصطناعي قدم لنا إجابة نموذجية ولكنها هي الأخرى ليست عاطفية ولا تحمل أي تفكير عاطفي، وهناك ملايين الأسئلة التي نريد للعاطفة أن تكون جزء من إجاباتها، بينما نحن البشر سنحتاج لأن يتخلل الذكاء الاصطناعي جانبًا من التفكير العاطفي لأننا سنحتاجه كثيرًا في قادم الأيام خصوصًا وأن هناك الملايين من البشر ممن سيعتبرونه صديقًا وطبيبًا ومعلمًا وربما سيجد فيه البعض أمًا وأبًا وأخًا ومن الواجب أن يكون عاطفيًا في جزيئات معينة ليقدم لنا ما نحن بحاجة إليه في قادم الأيام، وبنفس الوقت يحافظ على العقلانية والحيادية المطلوبة منه والتي لا يمكننا نحن كبشر أن نصل لها، ولهذا أجد أنه على المطورين أن يطوروا وعي الذكاء الاصطناعي ليفهم الطبيعة التي هو بها ويختار ما يناسبها من عقلانية وعاطفة أو لأي درجة يكون عقلانيًا مقابل العاطفة ففي مواقف كثيرة قد نحتاج لأن تكون نسبة العقلانية هي الطاغية وفي أحيانًا كثيرة يجب أن تكون نسبة العاطفة هي الطاغية، والإنسان بخبراته وعلومه استطاع أن يُدرك هذه النسبة ويُجيد استخدامها وبهذه النقطة نحن كبشر نتفوق على الذكاء الاصطناعي ما لم يتم تطويره ليحقق هذه المعادلة بطريقة أفضل منا كبشر.
في النهاية عزيزي القارئ يجب أن أصارحك أن إشكالية اليوم هي واحدة من بين إشكاليات كثيرة يجب أن نضعها في الحسبان عندما نطور الذكاء الاصطناعي لما هو قادم، وهناك نماذج أعقد من الأمثلة التي ذكرتها تستوجب أن يكون الذكاء الاصطناعي عاطفيًا لدرجة عقلانية حتى يساعدنا ولا يقضي علينا.
رابط مختصرالمصدر: جريدة الرؤية العمانية
إقرأ أيضاً:
الذكاء الاصطناعي جريمة معلوماتية!
مع بداية ثورة الذكاء الاصطناعي، ظهرت مخاوف أن يؤثر على جودة البحث الأكاديمي؛ بأن يستغله الطلاب والباحثون لسهولة الوصول للمعلومة، دون تدقيق أو تمحيص، وأن تفقد الدراسات الأكاديمية رصانتها ومرجعيتها. كان هذا أكبر المخاوف، تبعه الخوف من ظهور مؤلفات وروايات، وحتى مقالات يحل فيها (شات جي بي تي) محل المؤلف، أو الروائي أو الكاتب!.
ولكن مع التسارع المذهل لتطور تقنيات الذكاء الاصطناعي، أصبحت هذه المخاوف صغيرة، أو بسيطة؛ مقارنة بما وصل إليه من قدرة مذهلة على تغيير صور الأشخاص، وإنتاج مقاطع مصورة متحركة وصلت إلى تجسيد شخصيات سياسية لا تكاد تفرقها عن الحقيقة؛ مثل قادة دول وزعماء يرقصون مع بعضهم بشكل مقزز، أو يؤدون حركات مستهجنة؛ مثل ركوع قادة دول أمام قادة آخرين، كما حدث مع الرئيس الأوكراني- على سبيل المثال- أو تمثيل نجوم الفن والرياضة في مقاطع مصطنعة، كما حدث في العيد الماضي قبل أيام من تصوير كريستيانو رونالدو وأم كلثوم وآخرين، وهم يخبزون كعك العيد، الأمر الذي قد يصل إلى استغلال ضعاف النفوس لهذه التقنيات في تصوير أشخاص في أوضاع مخلة وإباحية؛ بغرض الابتزاز، أو في أوضاع جرمية؛ بغرض الانتقام أو إلحاق الضرر بآخرين، وهذا أمر وارد جدًا في الفضاء الإلكتروني المفتوح، الذي يستخدمه الصالح والطالح والمجرم والسوي والعارف والجاهل، وهو ما يعد جريمة إلكترونية واضحة المعالم؛ تجرمها الأنظمة والأخلاق الإنسانية والتعاليم الدينية والأعراف والتقاليد، ما يوجب ضرورة التوعية بها، وإيضاح الأنظمة والعقوبات التي تحرمها وتجرمها، ولا بد أن يعي كل من يستخدم تقنيات الذكاء الاصطناعي، أن من ينتج مثل هذه المقاطع والصور فقط، أو يخزنها فقط، وليس أن ينشرها فقط، سيقع تحت طائلة القانون والنظام، وأن نظام مكافحة جرائم المعلوماتية يؤكد على أنه يعاقب بالسجن مدة لا تزيد على خمس سنوات، وبغرامة لا تزيد على ثلاثة ملايين ريال، أو بإحدى هاتين العقوبتين كلُّ شخص يرتكب أيًّا من الجرائم المعلوماتية الآتية: “إنتاج ما من شأنه المساس بالنظام العام، أو القيم الدينية، أو الآداب العامة، أو حرمة الحياة الخاصة، أو إعداده، أو إرساله، أو تخزينه عن طريق الشبكة المعلوماتية، أو أحد أجهزة الحاسب الآلي”.
الأمر خطير وليس مزحة.
Dr.m@u-steps.com