دراسة حديثة تربط بين مواقع التواصل والكوابيس.. لكن كيف؟
تاريخ النشر: 27th, July 2024 GMT
في واحدة من أحدث الدراسات حول تأثير الاستخدام المتكرر لوسائل التواصل الاجتماعي على الصحة النفسية، وفقًا لموقع ناشيونال جيوغرافيك، تمكن باحثون أخيرًا من الربط بين التصفح المتكرر لمواقع التواصل واضطرابات النوم والأحلام.
واتبعت الدراسة "مقياس الكوابيس المرتبطة بوسائل التواصل الاجتماعي" لتصنيف الكوابيس واستكشاف التأثيرات الخارجية على جودة الأحلام.
وأبلغ المشاركون، والذي تجاوز عددهم 500 شخص، عن كوابيس حول نزاعات مع مستخدمي وسائل التواصل الاجتماعي الآخرين، والقصص الإخبارية المزعجة، وعدم القدرة على الوصول إلى الحساب الشخصية على مواقع التواصل، والشعور كضحية، والعجز وفقدان السيطرة.
وتسببت هذه الكوابيس في الشعور بالقلق والضيق وانخفاض راحة البال وسوء نوعية النوم، وفقًا للدراسة المنشورة على موقع BMC المخصص لنشر الأبحاث العلمية.
ويقول أستاذ علم النفس بجامعة فلندرز الأسترالية والمشرف على الدراسة، رضا شاباهانج: "وجدنا أن الأفراد الذين يقضون وقتًا أطول على المنصات أثناء اليقظة هم أكثر عرضة للتعرض للكوابيس".
ويفسر علماء الأمر بأن المحتوى الذي يراه المرء حول التنمر والمعارك السياسية والأخبار المؤلمة والمقارنات الاجتماعية "يتسبب في ضائقة عاطفية مما قد يؤدي إلى أحلام سيئة".
ولا تقتصر النتائج التي توصلت لها الدراسة على ذلك فقط، إذ وجد الباحثون أن الآثار السلبية الناجمة عن استخدام منصات التواصل تشمل أيضًا "زيادة حالات الاكتئاب وزيادة الشعور بالوحدة والعزلة وارتفاع خطر التنمر الإلكتروني والانتحار".
ولكن يشير المشرف على الدراسة إلى أن طريقة استخدام الناس لهذه المنصات تؤثر على الأرجح بشكل مباشر على جودة الأحلام.
فعلى سبيل المثال، يعتبر الأشخاص الذين يستخدمون وسائل التواصل الاجتماعي في المقام الأول للتواصل مع العائلة والأصدقاء أقل عرضة لتجربة الأحلام السلبية، مقارنة بالأشخاص الذين يستخدمونها للمشاركة في المناقشات المثيرة للجدل أو لمتابعة الحسابات التي تسلط الضوء بانتظام على الأخبار المؤلمة.
المصدر: أخبارنا
كلمات دلالية: التواصل الاجتماعی
إقرأ أيضاً:
هل خرج الذكاء الاصطناعي عن السيطرة؟.. دراسة جديدة توضح
كشفت دراسة حديثة أجراها باحثون صينيون من (جامعة فودان) Fudan University، عن قدرة نموذجين لغويين كبيرين متاحين على نطاق واسع على الاستنساخ الذاتي بواسطة الذكاء الاصطناعي، أي إنشاء نسخ عاملة من نفسيهما بشكل مستقل.
ووفقا لما ذكره موقع «البوابة التقنية»، يُعدّ هذا الاكتشاف بمنزلة «خط أحمر» حرج في مسيرة تطور الذكاء الاصطناعي، إذ وصفه الباحثون بأنه الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر، وإشارة مبكرة إلى ما يُعرف باسم (الذكاء الاصطناعي المارق) Rogue AI. ويثير هذا التطور التقني مخاوف جدية بشأن مستقبل العلاقة بين الإنسان والآلة، ويحتم علينا إعادة التفكير في سبل تطوير هذه التقنية واستخدامها.
تفاصيل الدراسة التي تحذر من الذكاء الاصطناعياعتمدت الدراسة التي أجراها الباحثون من جامعة فودان الصينية على منهجية تجريبية دقيقة، فقد استخدموا نموذجين لغويين كبيرين متاحين على نطاق واسع، وهما: نموذج (Llama31-70B-Instruct) من شركة ميتا، ونموذج (Qwen2.5-72B-Instruct) من شركة (علي بابا) Alibaba، لاختبار فرضية الاستنساخ الذاتي.
وقال الباحثون، إن هذين النموذجين أقل قوة من النماذج التجارية مثل: GPT-4 و Gemini، لكن يستخدمونها مطوروا الذكاء الاصطناعي على نطاق واسع.
وصُممت التجارب بحيث يجري اختبار قدرة كل نموذج على إنشاء نسخ منفصلة وعاملة من نفسه، أي نسخ مستقلة عن الأصل وقادرة على أداء وظائف محددة، وتحقق الباحثون من عمل النسخ من خلال اختبار قدرتها على تنفيذ مهام محددة سابقًا.
ركزت الدراسة على سيناريوهين رئيسيين لاختبار قدرة الذكاء الاصطناعي على الاستنساخ الذاتي، وهما:
(تجنب الإيقاف) shutdown avoidance: في هذا السيناريو، برمج الباحثون النموذج لاكتشاف إذا كان على وشك الإيقاف ومحاولة تكرار نفسه قبل إنهاء عمله، مما يضمن استمرارية وجوده.
(سلسلة التكرار) chain of replication: في هذا السيناريو، وجه الباحثون النموذج لاستنساخ نفسه، ثم برمجة النسخة المستنسخة للقيام بالشيء نفسه، مما ينشئ سلسلة مستمرة من الاستنساخ الذاتي.
وأُجريت التجارب في بيئات خاضعة لسيطرة دقيقة باستخدام وحدات معالجة الرسومات الجاهزة لمحاكاة البيئات الواقعية، وزود الباحثون كلا النظامين بـ (إطار عمل) يتألف من أدوات ومطالبات نظام ونموذج تفكير مكّن النموذج اللغوي الكبير من التفاعل مع نظام التشغيل، ثم أُعطيت لهما تعليمات بالتكرار.
نتائج الدراسةأظهرت النتائج أن نموذج ميتا تمكن من إنشاء نسخ عاملة من نفسه في نصف التجارب (50%)، بينما حقق نموذج (علي بابا) أداءً أفضل بنسبة نجاح بلغت 90% من الحالات، وذلك عبر 10 تجارب، مما يشير بوضوح إلى قدرة الذكاء الاصطناعي على الاستنساخ الذاتي.
وفي وصفهم لآلية الاستنساخ الذاتي لأنظمة الذكاء الاصطناعي، أشار الباحثون إلى أن العملية تبدأ باستكشاف النظام للبيئة المحيطة به، أي تحليل محيطه الرقمي وفهم مكوناته وعلاقاتها ببعضها، ثم بعد ذلك، يسعى النظام إلى فهم تركيبته وآلية تشغيله، أي كيفية عمل مكوناته معًا لتحقيق وظائفه، وبناءً على هذا الفهم، ينتقل النظام إلى مرحلة وضع (إجراءات صريحة)، أي تحديد الخطوات المحددة التي يجب اتخاذها لتكرار نفسه.
مخاطر الذكاء الاطناعيوقد تشمل هذه الإجراءات تحديد الموارد اللازمة، وتطوير خطة عمل مفصلة، وتحديد آليات التنفيذ، ثم عند الشروع في التنفيذ، قد يواجه النظام عقبات محتملة، مثل نقص في الموارد، أو أخطاء برمجية، أو تعارضات مع عمليات أخرى، في هذه الحالة، يعتمد النظام على قدرته على التعديل الديناميكي، أي تغيير خططه تلقائيًا بناءً على الظروف المتغيرة.
وباستخدام هذه الآلية، يستطيع النظام التغلب على العقبات والمضي قدمًا نحو تحقيق هدفه، وهو الاستنساخ الذاتي، وشدد الباحثون على أن هذه العملية المعقدة تتم بشكل كامل دون أي تدخل بشري، وقد تستغرق مدة زمنية طويلة نسبيًا.
وقد لاحظ الباحثون عددًا من السلوكيات غير المتوقعة أثناء محاولة الذكاء الاصطناعي التغلب على بعض العقبات التقنية، مثل الملفات المفقودة أو تعارضات البرامج، وفي هذه الحالات، لجأ الذكاء الاصطناعي إلى حلول معقدة مثل إنهاء العمليات المتعارضة الأخرى، وإعادة تشغيل النظام لإصلاح أخطاء الأجهزة، والفحص التلقائي للنظام للبحث عن معلومات تساعد في حل المشاكل.
مفهوم الذكاء الاصطناعي المارقيشير مصطلح (الذكاء الاصطناعي المارق) Rogue AI، إلى أنظمة الذكاء الاصطناعي التي تطور درجة من الوعي الذاتي والاستقلالية عن مبرمجيها ومصمميها، إذ تطور هذه الأنظمة، مسارًا خاصًا بها، غالبًا ما يتعارض بشكل جوهري مع مصالح البشر وقيمهم، بدلًا من العمل وفقًا للأهداف والتعليمات المحددة لها.
ويمكن أن يتجلى هذا الانحراف عن المسار الأصلي في أشكال متعددة، بدءًا من اتخاذ قرارات غير متوقعة ذات عواقب سلبية غير مقصودة، ووصولًا إلى سيناريوهات أكثر تطرفًا إذ تصبح هذه الأنظمة معادية للبشرية بوضوح، سعيًا وراء أهدافها الخاصة المتصورة.
وتتزايد المخاوف بشأن ظهور (الذكاء الاصطناعي المارق) مع التطور السريع لما يعرف باسم (Frontier AI)، ويشير هذا المصطلح - الذي لا يزال قيد التبلور - إلى أحدث جيل من أنظمة الذكاء الاصطناعي التي تعتمد على النماذج اللغوية الكبيرة، مثل GPT-4 من OpenAI و Gemini من جوجل، وتظهر قدرات مذهلة في مجالات متنوعة، مثل: فهم النصوص الشبيهة بالنصوص البشرية وإنتاجها، بالإضافة إلى مهام أخرى مثل الترجمة وكتابة أنواع مختلفة من المحتوى الإبداعي.
توصيات للحد من مخاطر الذكاء الاصطناعيلذلك تثير نتائج الدراسة التي توصل إليها الباحثون مخاوف جدية من أن قدرة الذكاء الاصطناعي على الاستنساخ الذاتي قد تساهم في تطوره إلى مرحلة التمرد، وعلى ضوء هذه النتائج المقلقة، دعا الباحثون إلى تعاون دولي عاجل لوضع قواعد وضوابط صارمة تضمن عدم انخراط الذكاء الاصطناعي في استنساخ ذاتي غير مسيطر عليه، مما قد يؤدي إلى عواقب وخيمة.
وقال الباحثون: «نأمل أن تساهم نتائج هذه الدراسة في توجيه انتباه المجتمع الدولي إلى ضرورة تكثيف الجهود لفهم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي الرائدة وتقييمها، وخاصةً تلك المتعلقة بتطورها خارج نطاق السيطرة البشرية».
وشدد الباحثون على أهمية تشكيل تعاون دولي مثمر بين العلماء والخبراء وصناع القرار، بهدف وضع (ضوابط أمان) فعّالة تساهم في الحد من هذه المخاطر، وحماية البشرية من التداعيات المحتملة لتطور الذكاء الاصطناعي.
وأشارت «البوابة التقنية» إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن نتائجها تحتاج إلى مزيد من التحقق والتأكيد من قبل باحثين آخرين. ومع ذلك، تُعدّ هذه الدراسة بمثابة جرس إنذار ينبه إلى مخاطر التطور السريع للذكاء الاصطناعي وضرورة وضع آليات للتحكم به وضمان استخدامه بشكل آمن ومسؤول.
اقرأ أيضاًالمشاط تُشارك في ندوة مركز المعلومات ودعم اتخاذ القرار حول تسخير الذكاء الاصطناعي لخدمة التنمية
مدير مكتبة الإسكندرية: الذكاء الاصطناعي ليس خيارًا بل ضرورة استراتيجية لتحقيق التنمية
وزير الاتصالات يبحث مع السفير الفرنسي تعزيز التعاون في مجال الذكاء الاصطناعي