هل يمكن لـ"تشات جي بي تي" أن يساعد المستخدمين في العلاج النفسي؟
تاريخ النشر: 9th, October 2023 GMT
انطلقت شركات ناشئة كثيرة في تطوير تطبيقات من المفترض أن تقدم شكلاً من أشكال المساعدة في مسائل الصحة العقلية، ما تسبب في نشوء جدالات متنوعة.
هل "تشات جي بي تي" عالم نفسي جيد؟ هذا ما ألمحت إليه مسؤولة في شركة الذكاء الاصطناعي الأميركية "أوبن إيه آي" التي تقف وراء برنامج الدردشة الآلية الشهير، ما أثار انتقادات كثيرة بسبب تقليلها من صعوبة علاج الأمراض العقلية.
وكتبت ليليان ونغ، المسؤولة عن المسائل الأمنية المرتبطة بالذكاء الاصطناعي، في أواخر أيلول/سبتمبر على خدمة إكس تويتر سابقاً: "أجريتُ للتو محادثة شخصية عاطفية جداً مع تشات جي بي تي عبر الصوت، حول التوتر والتوازن بين العمل والحياة".
وتساءلت ونغ "من المثير للاهتمام أني شعرت بالاستماع والراحة. لم أجرّب العلاج من قبل، لكن هل الأمر على هذا النحو على الأرجح؟".
وسعت ليليان ونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة المدفوعة لروبوت الدردشة الذي طُرح قبل عام تقريباً والساعي إلى اعتماد نموذج اقتصادي خاص به.
ولكنّ المطورة والناشطة الأميركية شير سكارليت ردت بحدة على هذا التصريح، قائلة إن علم النفس "يرمي إلى تحسين الصحة العقلية وهو عمل شاق". وأضافت "أن يرسل المرء مشاعر إيجابية لنفسه أمر جيد، لكن لا علاقة لذلك بالعلاج".
ولكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن يُنتج التجربة الإيجابية التي وصفتها ليليان ونغ؟
حسب دراسة نُشرت قبل أيام بالمجلة العلمية "نيتشر ماشين إنتلجنس"، يمكن تفسير هذه الظاهرة من خلال تأثير الدواء الوهمي.
تشات جي بي تي يعمل على مشروع للتحدث إلى الموتى رقمياًفي تطور مهم.. "تشات جي بي تي" بات قادراً على استخراج بيانات من الإنترنت في الوقت الفعليولإثبات ذلك، استطلع باحثون من معهد ماساتشوستس للتكنولوجيا (ام اي تي) وجامعة أريزونا، آراء 300 مشارك، موضحين للبعض أن روبوت الدردشة لديه تعاطف، ولآخرين أنه كان متلاعباً، فيما قالوا لأفراد مجموعة ثالثة إنه ذو سلوك متوازن.
ونتيجة لذلك، فإن أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم كانوا أكثر ميلاً إلى اعتبار محدّثهم جديراً بالثقة.
وأوضح بات باتارانتابورن، المشارك في إعداد الدراسة "لقد وجدنا أن الذكاء الاصطناعي يُنظر إليه بطريقة ما حسب تصورات المستخدم المسبقة".
"غباء" الروبوتاتومن دون اتخاذ الكثير من الاحتياطات في مجال لا يزال حساساً، انطلقت شركات ناشئة كثيرة في تطوير تطبيقات من المفترض أن تقدم شكلاً من أشكال المساعدة في مسائل الصحة العقلية، ما تسبب في نشوء جدالات متنوعة.
واشتكى مستخدمون لـ"ريبليكا"، وهو تطبيق شائع معروف بتقديم منافع على الصحة النفسية، بشكل خاص من أن الذكاء الاصطناعي قد يصبح مهووساً بالجنس أو متلاعباً.
كما أقرت المنظمة الأميركية غير الحكومية "كوكو"، التي أجرت تجربة في شباط/فبراير على 4000 مريض قدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي "جي بي تي-3"، بأن الاستجابات الآلية لم تنجح كعلاج.
وكتب المؤسس المشارك للشركة روب موريس على إكس "محاكاة التعاطف تبدو غريبة، ولا معنى لها". وتعكس هذه الملاحظة نتائج الدراسة السابقة حول تأثير الدواء الوهمي، حيث شعر بعض المشاركين وكأنهم "يتحدثون إلى الحائط".
ورداً على سؤال لوكالة فرانس برس، قال ديفيد شو من جامعة بازل السويسرية، إنه ليس مندهشاً من هذه النتائج السيئة. ويشير إلى أنه "يبدو أنه لم يتم إبلاغ أي من المشاركين بغباء روبوتات الدردشة".
لكن فكرة المعالج الآلي ليست جديدة. ففي ستينيات القرن العشرين، طُوّر أول برنامج من نوعه لمحاكاة العلاج النفسي، حمل اسم "إليزا"، باستخدام طريقة عالم النفس الأميركي كارل روجرز.
ومن دون فهم حقيقي لأي شيء عن المشكلات التي طُرحت عليه، كان البرنامج يعمد ببساطة إلى توسيع المناقشة بأسئلة قياسية معززة بالكلمات الرئيسية الموجودة في ردود محاوريه.
وكتب جوزيف وايزنباوم، مبتكر البرنامج، لاحقاً عن سلف "تشات جي بي تي" هذا "ما لم أدركه هو أن التعرض القصير للغاية لبرنامج كمبيوتر بسيط نسبياً يمكن أن يحفز أفكاراً وهمية قوية لدى الأشخاص العاديين تماماً".
المصادر الإضافية • أ ف ب
شارك هذا المقالمحادثة مواضيع إضافية الصراع بمجال الذكاء الاصطناعي يحتدم.. ماسك يُعلن عن شركته الجديدة وغوغل تُطلق منافسًا لتشات جي بي تي "تشات جي بي تي" ينال علامة "مقبول" عقب اختباره بمادة الفلسفة في فرنسا محام أميركي يعتذر بسبب تقديمه للمحكمة معلومات مُلفقة حصل عليها عبر "تشات جي بي تي" الصحة الذكاء اصطناعي تشات جي بي تي علاجالمصدر: euronews
كلمات دلالية: الصحة الذكاء اصطناعي تشات جي بي تي علاج إسرائيل حركة حماس فلسطين غزة الشرق الأوسط قصف ألمانيا هجوم اقتصاد فلسطين هجوم قتل إسرائيل حركة حماس فلسطين غزة الشرق الأوسط قصف الذکاء الاصطناعی تشات جی بی تی یعرض الآن Next
إقرأ أيضاً:
كيف سيغير وكلاء الذكاء الاصطناعي هجمات سرقة بيانات الاعتماد
شهدت هجمات "تعبئة بيانات الاعتماد" تأثيرًا هائلًا في عام 2024، حيث أدت إلى دوامة مدمرة من عدوى برامج سرقة المعلومات وتسريبات البيانات.
وفي ظل هذا المشهد الأمني المتوتر، قد تزداد الأمور سوءًا مع ظهور "الوكلاء الحاسوبيين" (Computer-Using Agents)، وهي فئة جديدة من وكلاء الذكاء الاصطناعي تُتيح أتمتة مهام الويب الشائعة بتكلفة وجهد منخفضين، بما في ذلك تلك التي يؤديها المهاجمون عادةً.
يُعد سرقة بيانات الاعتماد الإجراء الأول للمهاجمين في عام 2023/24، حيث شكلت هذه البيانات ثغرة استغلالية في 80% من هجمات تطبيقات الويب.
ليس من المستغرب أن المليارات من بيانات الاعتماد المسروقة متداولة على الإنترنت، ويمكن للمهاجمين الحصول على آخر التسريبات مقابل مبلغ يبدأ من 10 دولارات على المنتديات الإجرامية.
وقد استفاد السوق الإجرامي من التسريبات الكبيرة التي شهدها عام 2024، مثل الهجمات التي استهدفت عملاء Snowflake، حيث تم استخدام بيانات الاعتماد المسربة من تفريغات التسريبات ومصادر بيانات مخترقة نتيجة حملات تصيد جماعي وعدوى ببرامج سرقة المعلومات، مما أدى إلى اختراق 165 مستأجرًا لعملاء الشركة وملايين السجلات المسربة.
أتمتة هجمات بيانات الاعتماد في عصر SaaSلم تعد تقنيات التخمين العشوائي وتعبئة بيانات الاعتماد كما كانت في السابق؛ فقد تغيرت بنية تكنولوجيا المعلومات الحديثة لتصبح أكثر لامركزية مع ظهور مئات التطبيقات والخدمات عبر الإنترنت، وتوليد آلاف الهويات داخل كل مؤسسة.
ولم تعد بيانات الاعتماد تُخزن حصريًا في أنظمة مثل Active Directory، بل باتت موزعة في أماكن متعددة على الإنترنت.
تواجه الأدوات التقليدية صعوبة في التعامل مع التعقيدات الجديدة لتطبيقات الويب الحديثة، التي تتميز بواجهات رسومية متطورة وحلول حماية مثل CAPTCHA والحد من معدلات الطلب، مما يستدعي تطوير أدوات مخصصة لكل تطبيق على حدة.
وفي ظل وجود حوالي 15 مليار بيانات اعتماد مسربة متاحة، رغم أن الغالبية منها قديمة وغير صالحة، فإن هناك فرصة كبيرة للمهاجمين إذا تمكنوا من تحديد البيانات الفعّالة والاستفادة منها.
فرصة ضائعة للمهاجمين؟رغم أن نسبة البيانات الاعتمادية الصالحة لا تتجاوز 1% في معظم مجموعات المعلومات، إلا أن ظاهرة إعادة استخدام كلمات المرور تتيح للمهاجمين استغلال بيانات اعتماد واحدة للوصول إلى حسابات متعددة في تطبيقات مختلفة.
تخيل سيناريو يتم فيه استخدام بيانات اعتماد صالحة على نطاق واسع، مما يسمح للمهاجمين بتوسيع نطاق هجماتهم بشكل جماعي عبر تطبيقات متعددة دون الحاجة إلى تطوير أدوات جديدة لكل تطبيق.
دور "الوكلاء الحاسوبيين" في توسيع نطاق الهجماتلقد كانت تأثيرات الذكاء الاصطناعي في الهجمات السابقة محصورة في استخدام النماذج اللغوية الكبيرة لإنشاء رسائل تصيد أو لتطوير برمجيات خبيثة بمساعدة الذكاء الاصطناعي، ولكن مع إطلاق "OpenAI Operator"، يظهر نوع جديد من "الوكلاء الحاسوبيين" قادر على أداء مهام الويب البسيطة بشكل مشابه للبشر دون الحاجة إلى تنفيذ برامج مخصصة.
تتيح هذه التقنية الجديدة للمهاجمين إمكانية تنفيذ هجمات تعبئة بيانات الاعتماد على نطاق واسع وبجهد أقل، مما يجعل عملية المسح الآلي للمعلومات واستغلالها أكثر سهولة حتى للمبتدئين.
استغلال بياناتتشير التطورات الحالية إلى أن التحديات الأمنية المتعلقة بهجمات بيانات الاعتماد قد تصل إلى مستويات جديدة مع دخول تقنيات الأتمتة الذكية القائمة على الذكاء الاصطناعي إلى الساحة.
إذ يمكن لهذه التكنولوجيا أن تمنح المهاجمين القدرة على استغلال بيانات الاعتماد المسروقة على نطاق أوسع، مما يحول الهجمات من عمليات محدودة النطاق إلى تهديدات منهجية واسعة النطاق.
في هذا السياق، يصبح من الضروري على المؤسسات تكثيف جهودها لتعزيز دفاعاتها على سطح الهجمات الأمنية والتركيز على إصلاح الثغرات المتعلقة بالهوية قبل أن يستغلها المهاجمون.