محادثات مع أشخاص متوفين عبر الذكاء الاصطناعي.. تداعيات خطيرة
تاريخ النشر: 19th, March 2024 GMT
#سواليف
حذر #مختصون من تداعيات خطيرة على #البشر، نتيجة #المحادثات التي تُمكنها أدوات #الذكاء_الاصطناعي، مع الأصدقاء والأقرباء والأحباب #المتوفين، وذلك بشكل افتراضي.
وذكر موقع “Theconversation” أنه باستخدام الذكاء الاصطناعي يمكن إعادة إنشاء أصدقائك وأقاربك وأحبابك المتوفين، حتى يتم إجراء محادثات معهم، ومعرفة ما يشعرون به، لكن لذلك تداعيات خطيرة على #الصحة_العقلية للبشر، ويمكن أن يتسبب في تهديد #حياة_الإنسان.
وأضاف الموقع أن “إعادة الإنشاء الافتراضي لشخص عزيز متوفى قد تبدو معجزة، لكنها #مخيفة بعض الشيء، ولها تداعيات على صحة الإنسان، لأن أشباح الذكاء الاصطناعي، قد تكون عائقا أمام عملية الحزن”.
مقالات ذات صلةوقال الأستاذ المساعد في العلاج النفسي بجامعة مدين دبلن نايجل موليجان: “باعتباري معالجا نفسيا يبحث في كيفية استخدام تكنولوجيا الذكاء الاصطناعي لتعزيز التدخلات العلاجية، فإن ظهور الروبوتات الشبحية يثير اهتمامي”.
الصحة العقلية
واستدرك قائلا: “لكنني أيضا أشعر بالقلق قليلا بشأن التأثيرات المحتملة لهذه التكنولوجيا على الصحة العقلية لأولئك الذين يستخدمونها، وخاصة أولئك الذين يعانون من الحزن”.
وأشار إلى أن الحديث مع الموتى يمكن أن يسبب ضررا أكثر من نفعه، ما يؤدي إلى إدامة المزيد من الارتباك والتوتر والاكتئاب.
وباستخدام تقنية التزييف العميق، يمكن لبرنامج الذكاء الاصطناعي إنشاء تمثيل افتراضي تفاعلي للشخص المتوفى باستخدام محتواه الرقمي، مثل “الصور الفوتوغرافية ورسائل البريد الإلكتروني ومقاطع الفيديو”، وكانت تلك القدرات مجرد خيال علمي قبل بضع سنوات فقط، ولكنها الآن حقيقة علمية.
ويمكن للأشباح الرقمية أن توفر الراحة لمن فقدوا أحباءهم من خلال مساعدتهم، على إعادة التواصل مع “الموتى”، وفق موقع “ساينس أليرت”.
التشابه الغريب
لكن التشابه الغريب بين الروبوتات الأشباح وشخص عزيز مفقود “قد لا يكون إيجابيا كما يبدو”، وتشير “أبحاث سابقة” إلى أنه يجب استخدام “الروبوتات الأشباح” فقط كمساعدة مؤقتة للحداد، لتجنب الاعتماد العاطفي الضار المحتمل على التكنولوجيا.
هناك أيضا مخاطر تتمثل في أن هذه “الروبوتات الشبح”، قد تقول أشياء ضارة أو تقدم نصائح سيئة لشخص ما في حالة حداد.
وتتعرض البرامج التوليدية المماثلة مثل روبوتات الدردشة “تشات جي بي تي”، لانتقادات واسعة النطاق بالفعل لأنها تقدم معلومات مضللة للمستخدمين، وفق صحيفة “نيويورك تايمز”.
ويمكن استخدام تلك الأنظمة بشكل “غير لائق”، واستحضار شخص متوفى باعتباره شبحا يعمل بالذكاء الاصطناعي، ليقول لأحبائه “إنهم لم يكونوا محبوبين أو مفضلين لديه”.
وهناك أيضا “سيناريو أكثر تطرفا”، فقد يقترح “الروبوت الشبح” على المستخدم الانضمام إليهم في “الموت أو قتل شخص ما أو إيذائه”.
المصدر: سواليف
كلمات دلالية: سواليف مختصون البشر المحادثات الذكاء الاصطناعي المتوفين الصحة العقلية حياة الإنسان مخيفة الذکاء الاصطناعی
إقرأ أيضاً:
رغم الدفاع عن نظامها.. بلومبرج تواجه مشكلات مع ملخصات الذكاء الاصطناعي
أطلقت وكالة بلومبرج نيوز في يناير الماضي نظامًا يعتمد على الذكاء الاصطناعي لتوليد ملخصات تلقائية لمقالاتها، بهدف مساعدة القراء على استيعاب المعلومات بسرعة واتخاذ قرارات حول المقالات التي تستحق القراءة بعمق.
لكن مع مرور الوقت، اضطرت الوكالة إلى إزالة عدة ملخصات بسبب أخطاء في المحتوى، مما أثار تساؤلات حول دقة هذه التقنية في بيئة الأخبار الاحترافية.
أمثلة على الأخطاء التي دفعت بلومبرغ إلى التدخلكشف بحث على Google عن 20 حالة على الأقل تم فيها حذف ملخصات المقالات بعد نشرها بسبب أخطاء.
من بين هذه الحالات، ملخصان لمقالات تتعلق بسياسة الرسوم الجمركية للرئيس الأمريكي السابق دونالد ترامب تم سحبهما، أحدهما لعدم تحديد موعد تطبيق الرسوم، والآخر بسبب "عدم الدقة" دون تحديد التفاصيل.
مقال اخر عن بيع مصانع الصلب تم تعديل ملخصه بعد أن أشار بشكل خاطئ إلى أن نقابة عمال الصلب (United Steelworkers) كانت تعارض خطط المالك، في حين أن ذلك لم يكن صحيحًا.
رغم هذه الأخطاء، أكدت بلومبرج أن 99% من الملخصات تفي بالمعايير التحريرية، وأن حالات التصحيح والتعديلات هي استثناءات نادرة.
كما أوضحت أن الصحفيين لديهم سيطرة كاملة على الملخصات، سواء قبل النشر أو بعده، ويمكنهم إزالة أي ملخص لا يرقى إلى مستوى الدقة المطلوبة.
الشفافية والمستقبلأكدت بلومبرج أنها شفافة تمامًا بشأن أي تحديثات أو تصحيحات يتم إجراؤها على المقالات، وأن فريق الخبراء التابع لها يواصل تحسين أداء النموذج اللغوي المستخدم في التلخيص.
ومع ذلك، تظل هذه التحديات بمثابة تحذير مهم حول الاعتماد الكامل على الذكاء الاصطناعي في الصحافة، حيث قد يكون دقيقًا في معظم الأحيان، لكنه لا يزال معرضًا للخطأ.