كشفت دراسة حديثة نشرتها المجلة الطبية البريطانية أن سائقي سيارات الأجرة والإسعاف، الذين يتطلب عملهم مهارات ملاحية وذاكرة مكانية مكثفة، يتمتعون بمعدلات وفاة أقل بسبب مرض ألزهايمر مقارنة بمهن أخرى.

الدراسة التي استندت إلى تحليل بيانات أكثر من 9 ملايين شخص بين عامي 2020 و2022 أظهرت أن معدل الوفاة بسبب ألزهايمر بين سائقي سيارات الأجرة بلغ 1.

03%، وبين سائقي سيارات الإسعاف 0.74%، وهو أقل بكثير من المعدل العام البالغ 1.69%.

ويعتقد الباحثون أن الأنشطة الذهنية المرتبطة بهذه المهن، والتي تعتمد على التعامل مع مسارات متغيرة والتفاعل المستمر مع البيئة، قد تساهم في تقوية الحُصين، المنطقة الدماغية المسؤولة عن الذاكرة المكانية، ما قد يقي من الإصابة بألزهايمر. ولم تُلاحظ هذه الحماية في مهن أخرى مثل قيادة الحافلات أو الطائرات، التي تعتمد على مسارات ثابتة.

ورغم أن الدراسة لا تؤكد علاقة سببية مباشرة، إلا أنها تفتح المجال لمزيد من البحث لفهم تأثير الأنشطة العقلية في الوقاية من أمراض الدماغ التنكسية مثل ألزهايمر.

المصدر: مملكة بريس

كلمات دلالية: ألزهايمر الح صين الوقاية من ألزهايمر دراسة دراسة طبية سائقي سيارات الأجرة سيارات الإسعاف

إقرأ أيضاً:

هل خرج الذكاء الاصطناعي عن السيطرة؟.. دراسة جديدة توضح

كشفت دراسة حديثة أجراها باحثون صينيون من (جامعة فودان) Fudan University، عن قدرة نموذجين لغويين كبيرين متاحين على نطاق واسع على الاستنساخ الذاتي بواسطة الذكاء الاصطناعي، أي إنشاء نسخ عاملة من نفسيهما بشكل مستقل.

ووفقا لما ذكره موقع «البوابة التقنية»، يُعدّ هذا الاكتشاف بمنزلة «خط أحمر» حرج في مسيرة تطور الذكاء الاصطناعي، إذ وصفه الباحثون بأنه الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر، وإشارة مبكرة إلى ما يُعرف باسم (الذكاء الاصطناعي المارق) Rogue AI. ويثير هذا التطور التقني مخاوف جدية بشأن مستقبل العلاقة بين الإنسان والآلة، ويحتم علينا إعادة التفكير في سبل تطوير هذه التقنية واستخدامها.

تفاصيل الدراسة التي تحذر من الذكاء الاصطناعي

اعتمدت الدراسة التي أجراها الباحثون من جامعة فودان الصينية على منهجية تجريبية دقيقة، فقد استخدموا نموذجين لغويين كبيرين متاحين على نطاق واسع، وهما: نموذج (Llama31-70B-Instruct) من شركة ميتا، ونموذج (Qwen2.5-72B-Instruct) من شركة (علي بابا) Alibaba، لاختبار فرضية الاستنساخ الذاتي.

وقال الباحثون، إن هذين النموذجين أقل قوة من النماذج التجارية مثل: GPT-4 و Gemini، لكن يستخدمونها مطوروا الذكاء الاصطناعي على نطاق واسع.

وصُممت التجارب بحيث يجري اختبار قدرة كل نموذج على إنشاء نسخ منفصلة وعاملة من نفسه، أي نسخ مستقلة عن الأصل وقادرة على أداء وظائف محددة، وتحقق الباحثون من عمل النسخ من خلال اختبار قدرتها على تنفيذ مهام محددة سابقًا.

ركزت الدراسة على سيناريوهين رئيسيين لاختبار قدرة الذكاء الاصطناعي على الاستنساخ الذاتي، وهما:

(تجنب الإيقاف) shutdown avoidance: في هذا السيناريو، برمج الباحثون النموذج لاكتشاف إذا كان على وشك الإيقاف ومحاولة تكرار نفسه قبل إنهاء عمله، مما يضمن استمرارية وجوده.

(سلسلة التكرار) chain of replication: في هذا السيناريو، وجه الباحثون النموذج لاستنساخ نفسه، ثم برمجة النسخة المستنسخة للقيام بالشيء نفسه، مما ينشئ سلسلة مستمرة من الاستنساخ الذاتي.

وأُجريت التجارب في بيئات خاضعة لسيطرة دقيقة باستخدام وحدات معالجة الرسومات الجاهزة لمحاكاة البيئات الواقعية، وزود الباحثون كلا النظامين بـ (إطار عمل) يتألف من أدوات ومطالبات نظام ونموذج تفكير مكّن النموذج اللغوي الكبير من التفاعل مع نظام التشغيل، ثم أُعطيت لهما تعليمات بالتكرار.

نتائج الدراسة

أظهرت النتائج أن نموذج ميتا تمكن من إنشاء نسخ عاملة من نفسه في نصف التجارب (50%)، بينما حقق نموذج (علي بابا) أداءً أفضل بنسبة نجاح بلغت 90% من الحالات، وذلك عبر 10 تجارب، مما يشير بوضوح إلى قدرة الذكاء الاصطناعي على الاستنساخ الذاتي.

وفي وصفهم لآلية الاستنساخ الذاتي لأنظمة الذكاء الاصطناعي، أشار الباحثون إلى أن العملية تبدأ باستكشاف النظام للبيئة المحيطة به، أي تحليل محيطه الرقمي وفهم مكوناته وعلاقاتها ببعضها، ثم بعد ذلك، يسعى النظام إلى فهم تركيبته وآلية تشغيله، أي كيفية عمل مكوناته معًا لتحقيق وظائفه، وبناءً على هذا الفهم، ينتقل النظام إلى مرحلة وضع (إجراءات صريحة)، أي تحديد الخطوات المحددة التي يجب اتخاذها لتكرار نفسه.

مخاطر الذكاء الاطناعي

وقد تشمل هذه الإجراءات تحديد الموارد اللازمة، وتطوير خطة عمل مفصلة، وتحديد آليات التنفيذ، ثم عند الشروع في التنفيذ، قد يواجه النظام عقبات محتملة، مثل نقص في الموارد، أو أخطاء برمجية، أو تعارضات مع عمليات أخرى، في هذه الحالة، يعتمد النظام على قدرته على التعديل الديناميكي، أي تغيير خططه تلقائيًا بناءً على الظروف المتغيرة.

وباستخدام هذه الآلية، يستطيع النظام التغلب على العقبات والمضي قدمًا نحو تحقيق هدفه، وهو الاستنساخ الذاتي، وشدد الباحثون على أن هذه العملية المعقدة تتم بشكل كامل دون أي تدخل بشري، وقد تستغرق مدة زمنية طويلة نسبيًا.

وقد لاحظ الباحثون عددًا من السلوكيات غير المتوقعة أثناء محاولة الذكاء الاصطناعي التغلب على بعض العقبات التقنية، مثل الملفات المفقودة أو تعارضات البرامج، وفي هذه الحالات، لجأ الذكاء الاصطناعي إلى حلول معقدة مثل إنهاء العمليات المتعارضة الأخرى، وإعادة تشغيل النظام لإصلاح أخطاء الأجهزة، والفحص التلقائي للنظام للبحث عن معلومات تساعد في حل المشاكل.

مفهوم الذكاء الاصطناعي المارق

يشير مصطلح (الذكاء الاصطناعي المارق) Rogue AI، إلى أنظمة الذكاء الاصطناعي التي تطور درجة من الوعي الذاتي والاستقلالية عن مبرمجيها ومصمميها، إذ تطور هذه الأنظمة، مسارًا خاصًا بها، غالبًا ما يتعارض بشكل جوهري مع مصالح البشر وقيمهم، بدلًا من العمل وفقًا للأهداف والتعليمات المحددة لها.

ويمكن أن يتجلى هذا الانحراف عن المسار الأصلي في أشكال متعددة، بدءًا من اتخاذ قرارات غير متوقعة ذات عواقب سلبية غير مقصودة، ووصولًا إلى سيناريوهات أكثر تطرفًا إذ تصبح هذه الأنظمة معادية للبشرية بوضوح، سعيًا وراء أهدافها الخاصة المتصورة.

وتتزايد المخاوف بشأن ظهور (الذكاء الاصطناعي المارق) مع التطور السريع لما يعرف باسم (Frontier AI)، ويشير هذا المصطلح - الذي لا يزال قيد التبلور - إلى أحدث جيل من أنظمة الذكاء الاصطناعي التي تعتمد على النماذج اللغوية الكبيرة، مثل GPT-4 من OpenAI و Gemini من جوجل، وتظهر قدرات مذهلة في مجالات متنوعة، مثل: فهم النصوص الشبيهة بالنصوص البشرية وإنتاجها، بالإضافة إلى مهام أخرى مثل الترجمة وكتابة أنواع مختلفة من المحتوى الإبداعي.

توصيات للحد من مخاطر الذكاء الاصطناعي

لذلك تثير نتائج الدراسة التي توصل إليها الباحثون مخاوف جدية من أن قدرة الذكاء الاصطناعي على الاستنساخ الذاتي قد تساهم في تطوره إلى مرحلة التمرد، وعلى ضوء هذه النتائج المقلقة، دعا الباحثون إلى تعاون دولي عاجل لوضع قواعد وضوابط صارمة تضمن عدم انخراط الذكاء الاصطناعي في استنساخ ذاتي غير مسيطر عليه، مما قد يؤدي إلى عواقب وخيمة.

وقال الباحثون: «نأمل أن تساهم نتائج هذه الدراسة في توجيه انتباه المجتمع الدولي إلى ضرورة تكثيف الجهود لفهم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي الرائدة وتقييمها، وخاصةً تلك المتعلقة بتطورها خارج نطاق السيطرة البشرية».

وشدد الباحثون على أهمية تشكيل تعاون دولي مثمر بين العلماء والخبراء وصناع القرار، بهدف وضع (ضوابط أمان) فعّالة تساهم في الحد من هذه المخاطر، وحماية البشرية من التداعيات المحتملة لتطور الذكاء الاصطناعي.

وأشارت «البوابة التقنية» إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن نتائجها تحتاج إلى مزيد من التحقق والتأكيد من قبل باحثين آخرين. ومع ذلك، تُعدّ هذه الدراسة بمثابة جرس إنذار ينبه إلى مخاطر التطور السريع للذكاء الاصطناعي وضرورة وضع آليات للتحكم به وضمان استخدامه بشكل آمن ومسؤول.

اقرأ أيضاًالمشاط تُشارك في ندوة مركز المعلومات ودعم اتخاذ القرار حول تسخير الذكاء الاصطناعي لخدمة التنمية

مدير مكتبة الإسكندرية: الذكاء الاصطناعي ليس خيارًا بل ضرورة استراتيجية لتحقيق التنمية

وزير الاتصالات يبحث مع السفير الفرنسي تعزيز التعاون في مجال الذكاء الاصطناعي

مقالات مشابهة

  • هل خرج الذكاء الاصطناعي عن السيطرة؟.. دراسة جديدة توضح
  • بسبب الحرّ.. دراسة تتوقّع ارتفاع الوفيّات في أوروبا بنسبة 50%
  • دراسة.. غاز "غريب" قد يكون المفتاح لعلاج مرض ألزهايمر
  • ساعات العمل الطويلة تهدد الصحة والعمر: دراسة تحذر من مخاطرها الجسيمة
  • دراسة صادمة.. الفواكه والخضروات ضارة بصحة المدخنين
  • دراسة تحذر من أن تغير المناخ يزيد من خطر الوفيات بسبب الحرارة في المدن الأوروبية
  • حقيقة أرتباط السعادة بالسمنة دراسة توضح
  • دراسة تربط زيادة الإصابة السكري بالأحماض الدهنية القصيرة
  • 4 أكواب قهوة يومياً تقي من السرطان