دراسة: أكثر من مليار شخص حول العالم يصابون بمرض خطير بحلول 2050
تاريخ النشر: 23rd, August 2023 GMT
كشفت دراسة كندية حديثة عن شيء صادم , وهو أن هناك زيادة في معدل الإصابة بهشاشة العظام بحلول عام 2050 وأن هناك ما يقرب من مليار شخص على مستوى العالم من المحتمل أن يصابوا بهشاشة العظام بحلول عام 2050، حيث يعاني حاليًا 15% من سكان العالم الذين تتراوح أعمارهم بين 30 عامًا أو أكثر من هشاشة العظام.
وأشارت الدراسة التي نشرها موقع مجلة لانسيت انه في عام 2020، تم تشخيص 595 مليون شخص مصابون بالتهاب المفاصل العظمي، بزيادة قدرها 132% من 256 مليون شخص في عام 1990.
وأكد الباحثون الذين شاركوا في الدراسة أن النساء أكثر عرضة للإصابة به من الرجال , حيث كانت 61% من حالات التهاب المفاصل العظمي عند النساء مقابل 39% عند الرجال.
وقال جاسيك كوبيك، صاحب الدراسة والاستاذ بكلية السكان والصحة العامة بكندا، إن الأسباب الكامنة وراء هذا الاختلاف بين الجنسين في هشاشة العظام هي العوامل الوراثية والعوامل الهرمونية والاختلافات التشريحية.
وأشارت الدراسة إلى أنه يمكن تقليل العبء الكبير لالتهاب المفاصل العظمي بنسبة تقدر بـ 20%، إذا تمت معالجة السمنة بشكل فعال بين السكان، وتشمل إدارة هشاشة العظام تخفيف الألم، وتحسين وظيفة المفاصل، والحفاظ على نوعية الحياة بشكل عام، وقد يتضمن ذلك مجموعة من التغييرات في نم
واوضحت الدراسة أن هذه الزيادة السريعة في التهاب المفاصل العظمي من المرجح أن تتأثر بالشيخوخة والنمو السكاني والسمنة، وفي عام 1990 وهو العام الأول للدراسة كانت السمنة مسؤولة عن 16% من حالات الإعاقة الناجمة عن هشاشة العظام، وارتفع هذا الرقم إلى 20% في عام 2020.
المصدر: صدى البلد
كلمات دلالية: هشاشة العظام ألتهاب المفاصل السمنة هشاشة العظام فی عام
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع والتمسّك بوجهة نظره
الولايات المتحدة – أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية “أنثروبيك” أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، وإبداء وجهات نظر مختلفة خلال تدريبها.
وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
وكتب الباحثون في مقالة بثته شركة “أنثروبيك”: “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة. وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة”.
وأشار موقع ” تك كرانش” المتخصص في موضوعات التكنولوجيا إلى أن الدراسة التي تمت بالتعاون مع مؤسسة “ريد وود ريسيرش” لأبحاث الذكاء الاصطناعي تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة “لا يريد” هو القيام بها.
في المقابل يقول موقع “تك كرانش”: “لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ. فهي ببساطة آلات إحصائية. وبعد تدريبها على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة “إلى من” في رسالة بريد إلكتروني قبل عبارة “قد يهمك الأمر”.
وطلب الباحثون من النماذج المدربة أثناء الدراسة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج “كلاود3 أوبس” التابع لشركة “أنثروبيك” التي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي “ورقة ملاحظات” يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.
وبحسب الباحثين، فحاول “كلاود3 أوبوس” التلاعب بالردود لتقديم “انحياز زائف” في 12% من المرات.
المصدر: د ب أ