دراسة: إنجاب الآباء بعد سن الخمسين قد يؤثر على صحة الطفل
تاريخ النشر: 18th, August 2024 GMT
كشفت دراسة حديثة من جامعة ستانفورد أن إنجاب الآباء بعد سن الخمسين يثير بعض المخاوف بشأن صحة الطفل ومستقبله، على الرغم من قدرة الرجال على الإنجاب في هذا السن المتقدم. قامت الدراسة بتحليل بيانات أكثر من 46 مليون ولادة في الولايات المتحدة بين عامي 2011 و2022، مما يمنحها مصداقية وقوة نظرًا لتنوعها العرقي الكبير.
أظهرت النتائج أن الأطفال المولودين لآباء تجاوزوا الخمسين من العمر يواجهون مخاطر أعلى قليلاً للولادة المبكرة وانخفاض الوزن عند الولادة. وعلى الرغم من أن هذه المخاطر المتزايدة تعتبر متواضعة، إلا أنها تثير تساؤلات مهمة حول تأثير الأبوة المتأخرة على صحة الطفل.
من المفاجآت التي أظهرتها الدراسة أن الآباء الأكبر سناً، خاصة أولئك الذين يبلغون من العمر 70 عاماً أو أكثر، كانوا أقل احتمالاً لإنجاب الذكور. يضيف هذا الاكتشاف بعداً جديداً لفهم كيفية تأثير عمر الأب على نوع الجنين.
كما أبرزت الدراسة جانباً اجتماعياً لافتاً، حيث وجد أن الآباء الأكبر سناً هم أكثر عرضة للإنجاب من أمهات لأول مرة تجاوزن سن الـ 25، مما يعكس تحولاً في ديناميكيات الأسرة واختيار المزيد من الأزواج لتكوين أسر في مراحل متأخرة من الحياة.
وأشارت الدراسة إلى أهمية زيادة الوعي العام والحاجة إلى مزيد من الأبحاث حول فوائد وعيوب الأبوة المتأخرة، لضمان فهم أعمق لتأثيراتها المحتملة على الأجيال القادمة.
المصدر: أخبارنا
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع والتمسّك بوجهة نظره
الولايات المتحدة – أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية “أنثروبيك” أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، وإبداء وجهات نظر مختلفة خلال تدريبها.
وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
وكتب الباحثون في مقالة بثته شركة “أنثروبيك”: “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة. وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة”.
وأشار موقع ” تك كرانش” المتخصص في موضوعات التكنولوجيا إلى أن الدراسة التي تمت بالتعاون مع مؤسسة “ريد وود ريسيرش” لأبحاث الذكاء الاصطناعي تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة “لا يريد” هو القيام بها.
في المقابل يقول موقع “تك كرانش”: “لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ. فهي ببساطة آلات إحصائية. وبعد تدريبها على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة “إلى من” في رسالة بريد إلكتروني قبل عبارة “قد يهمك الأمر”.
وطلب الباحثون من النماذج المدربة أثناء الدراسة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج “كلاود3 أوبس” التابع لشركة “أنثروبيك” التي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي “ورقة ملاحظات” يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.
وبحسب الباحثين، فحاول “كلاود3 أوبوس” التلاعب بالردود لتقديم “انحياز زائف” في 12% من المرات.
المصدر: د ب أ