أخبارنا:
2025-02-06@20:30:00 GMT

هل يتحول تطبيق تشات جي بي تي إلى طبيب نفسي؟

تاريخ النشر: 11th, October 2023 GMT

هل يتحول تطبيق تشات جي بي تي إلى طبيب نفسي؟



كتبت ليليان ونغ، المسؤولة عن المسائل الأمنية المرتبطة بالذكاء الاصطناعي، في أواخر أيلول/سبتمبر على خدمة إكس (تويتر سابقاً) "لقد أجريتُ للتو محادثة شخصية عاطفية جداً مع تشات جي بي تي عبر الصوت، حول التوتر والتوازن بين العمل والحياة".

وتساءلت "من المثير للاهتمام أنني شعرت بالاستماع والراحة. لم أجرّب العلاج من قبل، لكن هل الأمر على هذا النحو على الأرجح؟".



وقد سعت ونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة (المدفوعة) لروبوت الدردشة الذي طُرح قبل عام تقريباً والساعي إلى اعتماد نموذج اقتصادي خاص به.

لكنّ المطورة والناشطة الأميركية شير سكارليت ردت بحدة على هذا التصريح، قائلة إن علم النفس "يرمي إلى تحسين الصحة العقلية وهو عمل شاق". وأضافت "أن يرسل المرء مشاعر إيجابية لنفسه أمر جيد، لكن لا علاقة لذلك بالعلاج".

ولكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن يُنتج التجربة الإيجابية التي وصفتها ليليان ونغ؟ بحسب دراسة نُشرت قبل أيام في المجلة العلمية "نيتشر ماشين إنتلجنس" Nature Machine Intelligence، يمكن تفسير هذه الظاهرة من خلال تأثير الدواء الوهمي.

ولإثبات ذلك، استطلع باحثون من معهد ماساتشوستس للتكنولوجيا (ام اي تي) وجامعة أريزونا، آراء 300 مشارك، موضحين للبعض أن روبوت الدردشة لديه تعاطف، ولآخرين أنه كان متلاعباً، فيما قالوا لأفراد مجموعة ثالثة إنه ذو سلوك متوازن.

ونتيجة لذلك، فإن أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم كانوا أكثر ميلاً إلى اعتبار محدّثهم جديراً بالثقة.

وقال بات باتارانتابورن، المشارك في إعداد الدراسة "لقد وجدنا أن الذكاء الاصطناعي يُنظر إليه بطريقة ما بحسب تصورات المستخدم المسبقة".

ومن دون اتخاذ الكثير من الاحتياطات في مجال لا يزال حساساً، انطلقت شركات ناشئة كثيرة في تطوير تطبيقات من المفترض أن تقدم شكلاً من أشكال المساعدة في مسائل الصحة العقلية، ما تسبب في نشوء جدالات متنوعة.

واشتكى مستخدمون لـ"ريبليكا" Replika، وهو تطبيق شائع معروف بتقديم منافع عن الصحة النفسية، بشكل خاص من أن الذكاء الاصطناعي قد يصبح مهووساً بالجنس أو متلاعباً.

كما أقرت المنظمة الأمريكية غير الحكومية "كوكو"، التي أجرت تجربة في شباط/فبراير على 4000 مريض قدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي "جي بي تي-3"، بأن الاستجابات الآلية لم تنجح كعلاج.

وكتب المؤسس المشارك للشركة روب موريس على إكس "محاكاة التعاطف تبدو غريبة، ولا معنى لها". وتعكس هذه الملاحظة نتائج الدراسة السابقة حول تأثير الدواء الوهمي، حيث شعر بعض المشاركين وكأنهم "يتحدثون إلى الحائط".

ورداً على سؤال لوكالة فرانس برس، قال ديفيد شو من جامعة بازل السويسرية، إنه ليس مندهشاً من هذه النتائج السيئة. ويشير إلى أنه "يبدو أنه لم يتم إبلاغ أي من المشاركين بغباء روبوتات الدردشة".

المصدر: أخبارنا

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

جي 42 تطلق إطار عمل السلامة في الذكاء الاصطناعي الحدودي

أعلنت مجموعة "جي 42"، مجموعة التكنولوجيا القابضة، عن إطلاق إطار عملها للسلامة في مجال الذكاء الاصطناعي الحدودي (Frontier AI)، الذي يضع آليات واضحة لتقييم المخاطر، وتعزيز الحوكمة، وتوفير الإشراف الخارجي، بما يضمن تطوير نماذج الذكاء الاصطناعي المتقدّمة بطريقة آمنة ومسؤولة.
ويقدّم إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي نهجاً متعدد الطبقات لإدارة مخاطره، مما يضمن تطوير أنظمة الذكاء الاصطناعي المتقدّمة واختبارها ونشرها بشكل مسؤول، حيث أنشأت في هذا الإطار مجلس إدارة لحوكمة الذكاء الاصطناعي الحدودي للإشراف على الامتثال وتقييم المخاطر وضمانات نماذج الذكاء الاصطناعي ويضم مجلس الإدارة كلاً من: الدكتور أندرو جاكسون، كبير مسؤولي الذكاء الاصطناعي، وألكسندر ترافتون، رئيس مخاطر التكنولوجيا، ومارتن إيدلمان، المستشار العام، وأديل أوهيرليهي، رئيس الذكاء الاصطناعي المسؤول.
ويشمل الإطار عمليات التدقيق المستقلة وتدابير الشفافية، حيث ستجري "جي 42" عمليات تدقيق داخلية منتظمة للحوكمة، إضافةً إلى المشاركة في مراجعات خارجية سنوية لضمان الامتثال لأفضل معايير السلامة، كما ستصدر الشركة تقرير شفافية يسلّط الضوء على رؤى السلامة الرئيسية وتقييمات المخاطر.
كما يشمل تحديد عتبات المخاطر واستراتيجيات التخفيف، والتي تتيح تقييم المخاطر المرتبطة بالتهديدات البيولوجية، وثغرات الأمن السيبراني، ومخاطر اتخاذ القرار الذاتي.
وحظي تطوير إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي بدعم نخبة من خبراء مخاطر الذكاء الاصطناعي، بما في ذلك METR وSaferAI، حيث ساهمت رؤاهم في صياغة استراتيجيات الحوكمة والتخفيف من المخاطر الواردة في الإطار، مما يعزز التزام "جي 42" بتطوير ذكاء اصطناعي آمن ومسؤول.
ولتطبيق إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي، أطلقت "جي 42" منصة التقييم "X-Risks "Leaderboard، المختصة بقياس مخاطر نماذج الذكاء الاصطناعي في مجالات الأمن السيبراني والكيمياء والأحياء، وقد تم تطويرها من مجموعة تقييم السلامة الخاصة بشركة "إنسيبشن"، لتوفير تقييم عملي لنقاط الضعف المحتملة في الذكاء الاصطناعي، مما يعكس التزام "جي 42" بتعزيز سلامة الذكاء الاصطناعي، من خلال مناقشة السياسات، ووضع ضمانات شفافة وقابلة للقياس.
وتعد "جي 42" من أولى الشركات في الشرق الأوسط التي قدّمت إطار عمل شاملا لسلامة الذكاء الاصطناعي، وتواصل الشركة التعاون مع الجهات التنظيمية وصناع السياسات وشركاء القطاع لتعزيز ممارسات السلامة، والمساهمة بفاعلية في مناقشات الحوكمة العالمية لضمان تطوير واستخدام مسؤول لهذه التكنولوجيا.

أخبار ذات صلة لأول مرة في الشرق الأوسط.. تقنية جديدة لاستبدال الورك بالروبوت في دبي «الإمارات الصحية» تنظم منتدى الذكاء الاصطناعي المصدر: وام

مقالات مشابهة

  • طبيب نفسي يحلل شخصية ترامب: نموذج للنازية المستحدثة في 2025
  • جي 42 تطلق إطار عمل السلامة في الذكاء الاصطناعي الحدودي
  • أستراليا تحظر برنامج الذكاء الاصطناعي ديب سيك
  • هواوي تدمج نموذج الذكاء الاصطناعي Deepseek في خدمتها
  • سر جديد عن المريخ يكشفه الذكاء الاصطناعي
  • كيف هز ديب سيك الصيني عروش الذكاء الاصطناعي بـ5.6 ملايين دولار فقط؟
  • ريد هات العالمية: الإمارات تواصل ريادتها في عالم الذكاء الاصطناعي
  • أبوظبي تستضيف قمة «عالم الذكاء الاصطناعي» 2026
  • انطلاق قمة عالم الذكاء الاصطناعي في أبوظبي
  • الإمارات تحافظ على مكانتها مركزاً للاستثمار في الذكاء الاصطناعي