أشباح الذكاء الاصطناعي.. كيف تشكل تهديدا خطيرا للبشر؟
تاريخ النشر: 16th, March 2024 GMT
باستخدام الذكاء الاصطناعي، يمكن إعادة إنشاء أصدقائك وأقاربك وأحبابك المتوفين "افتراضيا" حتى تتمكن من إجراء محادثات معهم، ومعرفة ما يشعرون به، لكن لذلك تداعيات خطيرة على الصحة العقلية للبشر، ويمكن أن يتسبب في تهديد حياة الإنسان.
"معجزة مخيفة"؟وقد تبدو "إعادة الإنشاء الافتراضي" لشخص عزيز متوفى "معجزة"، لكنها "مخيفة" بعض الشيء، ولها تداعيات على صحة الإنسان، لأن "أشباح الذكاء الاصطناعي"، قد تكون عائقا أمام عملية الحزن، وفق موقع "Theconversation".
ويقول الأستاذ المساعد في العلاج النفسي، بكلية التمريض والعلاج النفسي وصحة المجتمع، في جامعة مدينة دبلن، نايجل موليجان، "باعتباري معالجا نفسيا يبحث في كيفية استخدام تكنولوجيا الذكاء الاصطناعي لتعزيز التدخلات العلاجية، فإن ظهور الروبوتات الشبحية يثير اهتمامي".
ولكنني أيضا أشعر بالقلق قليلا بشأن التأثيرات المحتملة لهذه التكنولوجيا على الصحة العقلية لأولئك الذين يستخدمونها، وخاصة أولئك الذين يعانون من الحزن، وفق حديثه.
ويشير إلى أن "إحياء الموتى كأفاتار" يمكن أن يسبب ضررا أكثر من نفعه، مما يؤدي إلى إدامة المزيد من الارتباك والتوتر والاكتئاب والبارانويا، وفي بعض الحالات، الذهان.
وبعد التطورات الأخيرة في الذكاء الاصطناعي, وظهور روبوتات الدردشة مثل "تشات جي بي تي"، تستطيع تلك الأنظمة الذكية "إجراء محادثات متطورة تشبه المحادثات البشرية".
وباستخدام تقنية التزييف العميق، يمكن لبرنامج الذكاء الاصطناعي إنشاء تمثيل افتراضي تفاعلي للشخص المتوفى باستخدام محتواه الرقمي مثل "الصور الفوتوغرافية ورسائل البريد الإلكتروني ومقاطع الفيديو".
وكانت تلك القدرات مجرد خيال علمي قبل بضع سنوات فقط ولكنها الآن حقيقة علمية.
مساعدة أم عائق؟يمكن للأشباح الرقمية أن توفر الراحة من فقدوا أحبائهم من خلال مساعدتهم على إعادة التواصل مع "الموتى"، وفق موقع "ساينس أليرت".
لكن التشابه الغريب بين الروبوتات الأشباح وشخص عزيز مفقود "قد لا يكون إيجابيا كما يبدو".
وتشير "أبحاث سابقة" إلى أنه يجب استخدام "الروبوتات الأشباح" فقط كمساعدة مؤقتة للحداد لتجنب الاعتماد العاطفي الضار المحتمل على التكنولوجيا.
ويمكن أن تكون أشباح الذكاء الاصطناعي ضارة بالصحة العقلية للأشخاص من خلال التدخل في عملية الحزن.
وكان المحلل النفسي الشهير، سيغموند فرويد، مهتما بكيفية استجابة البشر لتجربة الخسارة، وبينها حالة تسمى "الحزن المعقد".
في بعض الحالات القصوى، قد يعاني الشخص من تخيلات وهلوسة بأنه يرى الشخص الميت ويبدأ في الاعتقاد بأنه على قيد الحياة.
يمكن لروبوتات الذكاء الاصطناعي الشبحية أن تزيد من صدمة الشخص الذي يعاني من "حزن معقد" وقد تؤدي إلى تفاقم المشاكل المرتبطة به مثل الهلوسة.
رعب ومخاطرهناك أيضا مخاطر تتمثل في أن هذه "الروبوتات الشبح" قد تقول أشياء ضارة أو تقدم نصائح سيئة لشخص ما في حالة حداد.
وتتعرض البرامج التوليدية المماثلة مثل روبوتات الدردشة "تشات جي بي تي"، لانتقادات واسعة النطاق بالفعل لأنها تقدم معلومات مضللة للمستخدمين، وفق صحيفة "نيويورك تايمز".
وإذا أصبحت تقنية الذكاء الاصطناعي "مارقة وبدأت في الإدلاء بملاحظات غير لائقة للمستخدم"، سيكون الأمر مؤلما للغاية.
ويمكن استخدام تلك الأنظمة بشكل "غير لائق"، واستحضار شخص متوفى باعتباره شبحا يعمل بالذكاء الاصطناعي، ليقول لأحبائه "أنهم لم يكونوا محبوبين أو مفضلين لديه".
وهناك أيضا "سيناريو أكثر تطرفا"، فقد يقترح "الروبوت الشبح" على المستخدم الانضمام إليهم في "الموت أو قتل شخص ما أو إيذائه"، وقد يبدو هذا وكأنه حبكة من فيلم رعب، لكنه ليس بعيد المنال.
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی تلک الأنظمة
إقرأ أيضاً:
نيويورك تايمز: إسرائيل استخدمت الذكاء الاصطناعي بشكل واسع في حرب غزة
كشفت صحيفة “نيويورك تايمز” الأميركية، في تقرير نشر مؤخرًا، أن جيش الاحتلال الإسرائيلي اعتمد على تقنيات ذكاء اصطناعي متقدمة على نطاق واسع خلال حربه على قطاع غزة، في خطوة أثارت موجة من الجدل الأخلاقي والحقوقي عالميًا، وسط تساؤلات حول دقة هذه الأنظمة ومدى مسؤوليتها عن وقوع ضحايا مدنيين.
وبحسب التقرير، فإن هذه الأنظمة طُورت في ما يُعرف بـ"الاستوديو"، وهو مركز مشترك بين وحدة الاستخبارات الإسرائيلية الشهيرة 8200، وعدد من جنود الاحتياط الذين يعملون في شركات تكنولوجيا عالمية كبرى مثل "جوجل" و"مايكروسوفت" و"ميتا".
وأوضح التقرير أن هذا التعاون بين المؤسسات العسكرية والتقنية أسفر عن أدوات تحليل بيانات واتخاذ قرارات هجومية بسرعة قياسية، لكن دون رقابة بشرية كافية.
كما أشار التقرير إلى أن جيش الاحتلال الإسرائيلي طور نموذجًا لغويًا ضخمًا متخصصًا في تحليل اللهجات العربية وفهم "المزاج العام" في المنطقة، وقد استخدم هذا النموذج عقب اغتيال الأمين العام لحزب الله، حسن نصرالله، في محاولة لتقييم احتمالات الرد اللبناني عبر تحليل التعابير المحلية المنتشرة على وسائل التواصل الاجتماعي.
ورغم القدرات التقنية العالية التي ادعتها إسرائيل، إلا أن الصحيفة أكدت أن النظام لم يكن دائمًا دقيقًا، إذ فشل في أحيانٍ كثيرة في تفسير المصطلحات العامية أو التلميحات الثقافية، مما أدى إلى قرارات ميدانية مشكوك في صحتها وأدت إلى وقوع ضحايا بين المدنيين.
ويأتي هذا الكشف في وقت تتزايد فيه الدعوات الدولية للتحقيق في استخدام الذكاء الاصطناعي في العمليات العسكرية، خصوصًا عندما يؤدي إلى خسائر في صفوف الأبرياء، فيما تطالب منظمات حقوقية بفرض رقابة مشددة على هذه التقنيات ومساءلة الجهات المطورة والمستخدمة لها.