كيف يؤثر الإفراط في تناول السكر على الجسم؟.. مخاطر لا تنتهي
تاريخ النشر: 24th, September 2024 GMT
السكر من المكونات الأساسية، التي لا يمكن الاستغناء عنها مطلقًا، إلا أن الإفراط في تناولها يسبب كثير من المخاطر الصحية، يجب الانتباه لها قدر الإمكان، لتجنب تأثيرها السلبي على الجسم، ليبقى السؤال: ماذا يحدث للجسم عند الإفراط في تناول السكر؟
يصنف السكر على أنه مصدرا أساسيا للطاقة، إذ يعمل الجهاز الهضمي عادة على تحطيم الكربوهيدرات المعقدة وتحويلها إلى سكر بسيط، لكن الإفراط في تناوله يشكل خطرا كبيرا، بحسب موقع «sciencefocus».
يستخدم الكبد عادة الفركتوز، الذي يعتبر أحد مكونات السكر، من أجل تكوين الدهون، إلا أنه في حالة استهلاك الفرد كميات كبيرة من السكر، فذلك يؤدي إلى تراكم الدهون، ما يؤدي إلى الإصابة بمرض الكبد غير الكحولي.
تسوس الأسنانيؤثر تناول السكر على مينا الأسنان، فهناك بكتيريا معينة في الأسنان تعمل على أكل بقايا السكر، وتحولها في الأخير إلى إلى حمض اللاكتيك، الذي يعمل بدوره على إذابة المعادن في مينا الأسنان، وهي المادة المسئولة عن حماية أسنانك من التسوس.
السكر وبناء العضلاتعندما يحتاج الجسم الى المزيد من الطاقة، يعمل على تحطيم الجليكوجين، إلا أنه وجب الانتباه إلى أن قدرات العضلات والكبد على التخزين محدودة، لهذا يعمل الجسم على تخزين الفائض منها في الخلايا الدهنية، ما يتسبب في زيادة الوزن.
تأثير الإفراط في السكر على الجلد والقلبيشكل الجلوكوز والفركتوز روابط بين الأحماض الأمينية التي تحوّل الكولاجين والإيلاستين إلى مواد تسبب التجاعيد، كما تسبب مستويات الإنسولين المرتفعة في الدم إلى نمو العضلات حول جدران الشرايين بشكل أسرع، الأمر الذي يزيد من ضغط الدم، ليؤدي في النهاية إلى حدوث الإصابة بأمراض القلب.
تؤكد الدكتورة مروة شعير، استشاري التغذية العلاجية، لـ«الوطن»، ما سبق بشأن خطورة الإفراط في تناول السكر، مشددة على كون السكر عنصرًا مهمًا للجسم، إلا أنه وجب تناوله باعتدال، إذ من الأفضل ألا يزيد الشخص عن تناول معلقتين منه يوميا.
المصدر: الوطن
كلمات دلالية: السكر الإفراط في تناول السكر الإفراط فی تناول السکر السکر على
إقرأ أيضاً:
هل يؤثر “شات جي بي تي” على نتيجة الانتخابات الأميركية 2024؟
سرايا - تمكن “شات جي بي تي” ومختلف روبوتات الدردشة المعتمدة على نماذج الذكاء الاصطناعي اللغوية من التغلغل في كافة جوانب الحياة اليومية لمختلف المستخدمين ذوي الخلفيات المتنوعة، وذلك بشكل أسرع من التقنيات الحديثة الأخرى، إذ يملك “شات جي بي تي” تحديدا أسرع معدل نمو في الاستخدام مقارنةً مع “فيسبوك” و”إنستغرام” كمثال.
ورغم الفوائد الجمة التي تقدمها نماذج الذكاء الاصطناعي وفي مقدمتها “شات جي بي تي”، إلا أنها تحمل بداخلها مخاطر تهدد السلام والأمن العام للدول، إما عبر نشر الشائعات الخاطئة من داخل النموذج ذاته، أو استخدامه لتوليد محتوى يروج للشائعات والمعلومات الخاطئة، ومع اقتراب يوم الانتخابات الرئاسية الأميركية 2024، تزداد المخاوف من الاستخدامات السيئة لهذه التقنية.
ولكن هل تملك هذه المخاوف أي أساس من الصحة؟ أم أنها مجرد لحظات تهويل من أشخاص غير خبراء أو مطلعين على التقنية ومدى قدرتها في التأثير على الآراء العامة؟ أم أنها فعلا تمثل خطرا حقيقيا على الانتخابات الرئاسية الأميركية أو أي عملية انتخابية في أي مكان حول العالم؟
تأثير غير مباشر
عند الحديث عن التأثير الذي يمكن أن يمتلكه “شات جي بي تي” ونماذج الدردشة الأخرى يتبادر إلى الذهن محاولة روبوت الدردشة التأثير المباشر في آراء الناخبين، ولكن الحقيقة أن هذا التأثير ليس مباشرا وقد لا يأتي من الروبوت بشكل مباشر.
وذلك بفضل قدرة “شات جي بي تي” وروبوتات الدردشة المماثلة على توليد محتوى سواءً كان نصيا أو مقاطع فيديو أو مقاطع صوتية تحاكي طريقة وأسلوب الحديث المحلي المستخدم في مختلف الدول حول العالم، وهو ما يجعل هذا المحتوى أقرب إلى المحتوى البشري ويمكن تصديقه.
وتعد هذه القدرة هي الخطر الأكبر الذي تمثله روبوتات الدردشة على المستخدمين وآرائهم، وبفضلها اختفت الحاجة إلى وجود أشخاص محليين راغبين ومستعدين لتوليد المحتوى المضلل، وفضلا عن جودة المحتوى الناتج من روبوتات الدردشة هذه، فإن سرعة توليد المحتوى ووفرته تجعله مثاليا للاستخدام مع مختلف المنصات عبر الإنترنت، سواءً كانت محركات بحث مثل “غوغل” أو منصات تواصل اجتماعي على غرار “فيسبوك” و”إنستغرام”.
ولم يغب هذا الاستخدام عن الجهات الخارجية التي وجدت في قدرات “شات جي بي تي” وسيلةً لتوليد محتوى مضلل مُقنع وأقرب إلى المحتوى البشري، لذا قامت مجموعة إيرانية باستخدامه ضمن عملية أطلقت عليها اسم “عاصفة-2035” (Storm-2035) لتوليد محتوى مضلل يستهدف الجاليات اللاتينية في الولايات المتحدة طمعا في التأثير على أصواتهم في الانتخابات.
وأشارت “أوبن إيه آي” إلى هذه العملية في بيان رسمي عبر موقعها، ومن خلال هذا البيان كشفت عن آلية استخدام “شات جي بي تي” في العملية، إذ كان الروبوت يولد المحتوى المضلل بناءً على المعلومات المضللة التي يتم تزويده بها، ثم يتم تخصيص المحتوى وتحسينه عبر الروبوت بشكل يجعله يقترب من المحتوى البشري قبل أن يتم نشره عبر منصات التواصل الاجتماعي المختلفة.
ووفق تقرير الشركة، فإن الحسابات التي كانت مشتركة في هذه العملية تم حظر وصولها إلى “شات جي بي تي” فضلا عن أن المحتوى المولد عبره لم يحظَ بالانتشار الذي يجعله يهدد أمن وسلامة المستخدمين بشكل مباشر، لذا فإن آثارها لم تكن واسعة بحسب وصف الشركة، ولكن بالطبع لا يمكن التأكد من أن جميع الحسابات المشاركة في هذه العملية أو التي نشرت المحتوى تم حظرها، وذلك لأن الحسابات التي ستتمكن من الاختفاء عن أعين الرقابة ستكون قادرة على توليد محتوى ذي جودة أكبر وقابلية انتشار أعلى.
حقبة تخصيص المحتوى المضلل
في العادة، يتم توليد المحتوى المضلل ليخاطب أكبر عدد ممكن من الأفراد فضلا عن صعوبة تخصيص المحتوى ليناسب الثقافة المحلية من قبل أشخاص خارج هذه الثقافة، ولكن “شات جي بي تي” يحل هذه المشكلة بشكل بسيط وسريع للغاية.
يستطيع النموذج تحويل المعلومات المضللة المقدمة إليه لتصبح مناسبة لفئات معينة ومختلفة من الشعب المستهدف، وربما كانت عملية “عاصفة-2035” مثالا حيا على ذلك، إذ تمكن النموذج من تخصيص المعلومات المضللة لتناسب الجالية اللاتينية أو ذات الأصول اللاتينية.
ويمكن توسيع رقعة الاستهداف الخاصة بالمحتوى المضلل أو تضييقها بحسب ما تقتضي الحاجة لهذا المحتوى، فيمكن عبر “شات جي بي تي” صناعة محتوى يستهدف السيدات اللاتي يبلغ من العمر 50 عاما أو أكبر ويعشن في ولايات جنوب أميركا ولا يعملن ويحببن مشاهدة الأعمال الدرامية التي تتحدث عن المؤامرات، وفي هذه الحال يكون صدى المحتوى المولد أكبر من المحتوى العشوائي.
أداة جمع بيانات وتخصيص إعلانات أكثر قوة
في مارس/آذار 2018 ظهرت فضيحة شركة “كامبريدج أناليتيكا” (Cambridge Analytica) التي اعتمدت عليها حملة الرئيس الأميركي آنذاك دونالد ترامب من أجل توجيه الإعلانات وتخصيصها بشكل يجعلها أكثر تناسبا لفئة معينة من الشعب بناء على تفضيلاتهم وبياناتهم على منصات التواصل الاجتماعي.
وبينما كانت المشكلة في تلك الفضيحة هي آلية وصول الشركة إلى البيانات من شركة “ميتا” وغيرها، إلا أن وجود البيانات في حد ذاته لم يكن جزءا من الفضيحة، وبفضل قدرات الذكاء الاصطناعي على قراءة وفحص العديد من الصفحات والنصوص والحسابات عبر الإنترنت، فإنه يصبح قادرا على تقديم مثل هذه البيانات بشكل سريع وفوري.
وتتسع رقعة الخطر أيضا حين استخدام نماذج الذكاء الاصطناعي للتنبؤ بنتائج الانتخابات، وهو الأمر الذي أشارت إليه ورقة بحثية نشرت في “جامعة كورنيل” (Cornell University) وشارك فيها خبراء من “غوغل” ومعهد “إم آي تي” وجامعة “هارفارد”.
وبحسب ما جاء في البحث، فإن هذه القدرة التي يتمتع بها الذكاء الاصطناعي تتيح للشركات والجهات الخارجية أو الداخلية توقع نتيجة الانتخابات بشكل أقرب للصواب ثم بناء إستراتيجيات وتصميم حملات تهدف للتأثير في هذه النتيجة بناءً على البيانات الواردة من الذكاء الاصطناعي، ليصبح بذلك الذكاء الاصطناعي مؤثرا في نتائج الانتخابات بشكل غير مباشر.
بناء روبوتات دردشة مضللة
رغم خطورة الاحتمالات السابقة، إلا أنها تناقش فقط استخدام نماذج الذكاء الاصطناعي لتوليد محتوى مضلل قادر على التأثير في الانتخابات، ولكن هناك آلية أكثر خطورة تجعل تهديد وخطر الذكاء الاصطناعي أكثر شراسة.
وتعتمد هذه الآلية على اختراق روبوتات الدردشة الموجودة في الوقت الحالي بمختلف أنواعها، ثم تزويدها ببيانات خاطئة تماما ليقوم الروبوت لاحقا بنشر هذه البيانات بين مستخدميه والإجابة عن الأسئلة التي يمتلكونها.
وإن كان اختراق “شات جي بي تي” أو “جيميناي” أمرا صعبا، فإن الجهات الخارجية أو الداخلية قد تسعى إلى بناء روبوت دردشة من الصفر والترويج له قبل الانتخابات بوقت كافٍ ليستطيع نشر المعلومات والبيانات المضللة عن الحملات الانتخابية بين المستخدمين.
وبينما يعد هذا السيناريو مستبعدا في الوقت الحالي، إلا أن التخطيط المناسب والاستعداد قبل الانتخابات بوقت كاف يجعله أقرب إلى التصديق، وهو سيناريو أكثر خطورة من مجرد توليد المحتوى المضلل عبر روبوتات الدردشة ونشره في منصات التواصل الاجتماعي.