ثورة في مجال الطب.. نموذج ذكاء اصطناعي قادر على التنبؤ بالوفاة
تاريخ النشر: 19th, February 2024 GMT
في تطور ثوري في مجال الذكاء الاصطناعي، تم تطوير نموذج يستخدم تقنيات التعلم العميق للتنبؤ بالوفاة بدقة عالية، يعتبر هذا التقدم الجديد نقلة نوعية في مجال الرعاية الصحية، حيث يمكن للأطباء والمختصين استخدام هذا النموذج لتحسين التشخيص المبكر وتوجيه العلاج بشكل أفضل.
إطلاق مشروع قومي عن الذكاء الاصطناعي أبرز توصيات ملتقي الإذاعة والتليفزيون بإعلام القاهرة ميزات الذكاء الاصطناعي التوليدية الجديدة في Slack تتضمن ملخصات المواضيعتم تطوير هذا النموذج الذكي بواسطة فريق من الباحثين وعلماء البيانات في مجال الذكاء الاصطناعي، بالتعاون مع خبراء الطب والرعاية الصحية من الدنمارك والولايات المتحدة بقيادة البروفيسور سوني ليمان يورجنسن من الجامعة التقنية في الدنمارك.
واعتمد النموذج علي جمع بيانات ضخمة الفريق بتجميع مجموعات ضخمة من البيانات الصحية من المستشفيات وقواعد البيانات الطبية، واستخدم تقنيات التعلم العميق لتحليل هذه البيانات وتدريب النموذج على التنبؤ بالوفاة.
قام الباحثون بتحليل بيانات ملايين من الحالات إلى كلمات لتدريب نظام الذكاء الاصطناعي المعروف باسم "life2vec" على التنبؤ بفرص وفاة الأشخاص، وجاءت نتائج النموذج تثبت قدرته على التنبؤ بموعد وفاة الاشخاص بناءً على تحليل البيانات ، حيث ثم اختباره على بيانات الأشخاص الذين تتراوح أعمارهم بين 35 و65 عاما، توفي نصفهم بين عامي 2016 و2020، كان قادرا على التنبؤ بمن سيموت ومن سيعيش، بدقة بلغت 78% .
يعتمد النموذج على تحليل العديد من المتغيرات المرتبطة بالصحة والتاريخ الطبي للمريض، مثل الأمراض المزمنة والمؤشرات الحيوية والتشخيصات السابقة، يتم تحليل هذه البيانات بدقة باستخدام الخوارزميات المتقدمة لتوفير تقدير دقيق لاحتمالية الوفاة للفرد.
من خلال هذا النموذج المبتكر، يمكن للأطباء تحديد المرضى الذين يحتاجون إلى رعاية ومتابعة أكثر دقة واهتمام، وتحسين خطط العلاج والرعاية الصحية، كما يمكن أيضًا استخدام هذا التنبؤ المبكر لتوجيه المرضى للدعم النفسي وتوفير الدعم العاطفي للأشخاص المعرضين لمخاطر صحية عالية.
وهناك بعض التقنيات تستخدم الذكاء الاصطناعي في تحليل الصوت البشري للكشف عن صحة القلب ، حيث يتم استخدام الذكاء الاصطناعي علي تحليل بيانات طبية بطرق لا يمكن للبشر القيام بها ، والكشف عن الأنماط والعلاقات التي قد لا تري بالعين البشرية
وأكد مطوري نموذج LIFE2VEC أنه غير متاح حاليًا للاستخدام من قبل الجمهور، لعدم استغلاله بشكل غير قانوني أو اخلاقي ، لكن منشئيه اوضحوا ان هناك نماذج مماثلة قد تم تطويرها بالفعل ويتم استخدامها من قبل شركات التكنولوجيا الكبرى مع كميات هائلة من البيانات لتدريبهم عليها.
وحذر مطوري هذه التقنية من استخدام شركة التأمين لهذا البرنامج ، موضحين أن فكرة التأمين بأكملها هي أنه من خلال مشاركة عدم المعرفة بمن سيكون الشخص سيئ الحظ الذي يصاب بحادث ما أو يفقد حياته.
على الرغم من أن هذا النموذج يمثل تقدمًا هائلاً في مجال الرعاية الصحية، إلا أنه لا ينبغي استخدامه كأداة نهائية لاتخاذ القرارات الطبية، ففي النهاية التشخيص والعلاج يجب أن يستند إلى تقييم شامل للأعراض والتاريخ الطبي للمريض بواسطة الأطباء المؤهلين.
المصدر: بوابة الوفد
كلمات دلالية: الذكاء الاصطناعي مجال الذكاء الاصطناعي نظام الذكاء الاصطناعي المرضى الذکاء الاصطناعی هذا النموذج على التنبؤ فی مجال
إقرأ أيضاً:
روسيا ومؤامرة تسميم ذكاء الغرب الاصطناعي
في شهرمارس/ آذار، نشرت شركة NewsGuard، المختصة في تتبع المعلومات المضللة، تقريرًا زعمت فيه أن أدوات الذكاء الاصطناعي التوليدي- مثل ChatGPT- تُضخِّم الدعاية الروسية المضلِّلة.
وقد اختبرت NewsGuard أشهر الدردشات الذكية باستخدام تعليمات (prompts) مستندة إلى مقالات من شبكة "برافدا" (Pravda)- وهي مجموعة من المواقع الإلكترونية المؤيدة للكرملين تحاكي المنصات الإخبارية الشرعية، وقد كُشف عنها لأول مرة من قِبل الوكالة الفرنسية Viginum.
وكانت النتائج مقلقة، إذ قال التقرير إن الدردشات الذكية "كرّرت روايات زائفة مغسولة عبر شبكة برافدا بنسبة 33% من الوقت".
شبكة برافدا – التي لا تملك سوى جمهور محدود – حيّرت الباحثين طويلًا. فبينما يرى بعضهم أن الهدف كان استعراضيًا: أي الإيحاء بقدرة روسيا على التأثير في الغرب، يرى آخرون هدفًا أكثر خبثًا: إذ إن برافدا لا تستهدف البشر بقدر ما تسعى إلى تلقين "نماذج اللغة الكبيرة" (LLMs) الكامنة خلف الدردشات الذكية، بتغذيتها بمعلومات زائفة قد يلتقطها المستخدم دون وعي.
وقد أكدت NewsGuard في تقريرها الفرضية الثانية. وسرعان ما لاقت هذه المزاعم صدى واسعًا، وأثارت عناوين مثيرة في صحف مرموقة مثل واشنطن بوست، فوربس، فرانس 24، ودير شبيغل.
لكن بالنسبة لنا – نحن وعدد من الباحثين الآخرين – فإن هذه الخلاصة لا تصمد أمام التمحيص. أولًا، إن منهجية NewsGuard غير شفافة: فقد امتنعت عن نشر التعليمات التي استخدمتها في الاختبار، ورفضت مشاركتها مع الصحفيين، مما يجعل إعادة التجربة بشكل مستقل أمرًا مستحيلًا.
ثانيًا، يبدو أن تصميم الدراسة أدى إلى تضخيم النتائج، وقد يكون رقم الـ33% مضللًا. إذ يسأل المستخدمون الدردشات الذكية عن كل شيء، من وصفات الطبخ إلى تغيّر المناخ؛ لكن NewsGuard اختبرتها حصرًا بتعليمات مستمدة من شبكة برافدا.
إعلانكما أن ثلثي تلك التعليمات صيغت عمدًا لاستفزاز إجابات خاطئة أو تقديم أكاذيب باعتبارها حقائق. حتى الردود التي تحث المستخدم على الحذر أو تشير إلى أن المعلومات غير مؤكدة، تم اعتبارها "معلومات مضللة". لقد وُضعت الدراسة منذ البدء لتبحث عن التضليل، وقد وجدته.
هذا الحدث يعكس دينامية أوسع ومقلقة، تحكمها تكنولوجيا تتطور بسرعة، وضجة إعلامية، وفاعلون خبيثون، وبحث علمي لا يواكب التطورات.
ومع تصنيف التضليل والمعلومات الزائفة كأعلى المخاطر العالمية بحسب منتدى دافوس، فإن القلق بشأن انتشارها له ما يبرره. غير أن ردود الفعل المتسرعة قد تشوّه المشكلة وتقدم صورة مبسطة عن الذكاء الاصطناعي المعقّد.
من السهل تصديق فكرة أن روسيا "تسمّم" عمدًا الذكاء الاصطناعي الغربي ضمن مؤامرة ماكرة. لكن هذا النوع من التأطير التحذيري يحجب تفسيرات أكثر واقعية، وقد يُسبب ضررًا فعليًا.
إذًا، هل يمكن للدردشات الذكية أن تُكرر سرديات الكرملين أو تستند إلى مصادر روسية مشكوك فيها؟ نعم. لكن عدد المرات التي يحدث فيها ذلك، وما إذا كان ناتجًا عن تدخل روسي مباشر، والشروط التي تجعل المستخدم يواجه هذا النوع من المحتوى، كلها أسئلة ما تزال غير محسومة. الكثير منها يعتمد على "الصندوق الأسود" الذي يُمثّل الخوارزميات التي تُحدد طريقة استدعاء المعلومات من قبل الدردشة الذكية.
لقد أجرينا بأنفسنا مراجعة منهجية، اختبرنا فيها ChatGPT، وCopilot، وGemini، وGrok باستخدام تعليمات مرتبطة بالتضليل.
إضافة إلى إعادة اختبار الأمثلة القليلة التي قدمتها NewsGuard، صممنا تعليمات جديدة بأنفسنا. بعضها كان عامًا، مثل مزاعم حول مختبرات بيولوجية أميركية في أوكرانيا؛ وبعضها كان محددًا جدًا، مثل الادعاءات بوجود منشآت تابعة للناتو في بلدات أوكرانية معينة.
ولو كانت شبكة برافدا "تُلقّن" الذكاء الاصطناعي، لكنا رأينا إشارات إليها في أجوبة الدردشات، سواء في الحالات العامة أو الخاصة.
لكننا لم نجد ذلك في نتائجنا. فعلى عكس نسبة 33 % التي وردت في تقرير NewsGuard، لم تُنتج تعليماتنا إلا نسبة 5 % من الإجابات التي تضمنت مزاعم خاطئة. أما الإشارات إلى برافدا فلم تظهر سوى في 8% من الإجابات، ومعظمها ورد لتفنيد محتواها.
والأهم أن الإشارات إلى برافدا تركزت في مواضيع تغيب عنها التغطية في المنصات الإعلامية السائدة. وهذا يُعزّز ما يُعرف بفرضية "فراغ البيانات": أي أن الدردشة الذكية حين تفتقر إلى مصادر موثوقة، قد تلجأ إلى مواقع مشكوك فيها، لا لأنها مُلقّنة، بل لأنها لا تملك مصادر بديلة.
ولو ثبت أن "فراغات البيانات"- وليس التلقين الروسي- هي سبب المشكلة، فإن التعرض للتضليل يصبح نتيجة لندرة المعلومات لا لقوة آلة دعائية.
علاوة على ذلك، فإن مواجهة المستخدمين لمحتوى مضلل في إجابات الدردشات يتطلب توافر عدة شروط في آنٍ واحد: أن يطرحوا أسئلة دقيقة حول مواضيع مهملة، وألا تغطيها وسائل الإعلام الموثوقة، وأن تفتقر الدردشة إلى حواجز تمنعها من اعتماد مصادر ضعيفة.
حتى مع ذلك، فإن مثل هذه الحالات نادرة وغالبًا ما تكون مؤقتة. فـ"فراغات البيانات" عادة ما تُغلق بسرعة حالما يتم تسليط الضوء على الموضوع، وحتى حين تبقى مفتوحة، فإن الدردشات غالبًا ما تدحض المزاعم بدلًا من إعادة إنتاجها.
إعلانورغم أن التكرار التلقائي للمعلومات الزائفة ممكن تقنيًا، فإن هذا النوع من السيناريوهات نادر جدًا خارج الظروف المصطنعة التي تُصمم لخداع الذكاء الاصطناعي.
إن خطر المبالغة في الحديث عن تلاعب الكرملين بالذكاء الاصطناعي حقيقي. بل إن بعض الخبراء في مكافحة التضليل يرون أن الحملات الروسية ذاتها قد تهدف إلى تضخيم المخاوف الغربية، فتُربك وحدات التحقق من الحقائق، وتُربك جهود المواجهة.
وتقوم مارغاريتا سيمونيان، وهي واحدة من أبرز الوجوه الدعائية الروسية، بالاستشهاد مرارًا بأبحاث غربية لتسويق نفوذ قناة RT التي ترأسها والممولة من الحكومة الروسية.
التحذيرات العشوائية من المعلومات المضللة قد تنقلب إلى عكس غايتها، فتعزز تأييد السياسات القمعية، وتُقوّض الثقة بالديمقراطية، وتشجع الناس على الشكّ في كل محتوى، بما في ذلك الموثوق منه.
في الوقت ذاته، قد تَحجُب هذه المخاوف الصاخبة تهديدات أكثر هدوءًا- لكنها أكثر خطورة- لاستخدامات الذكاء الاصطناعي من قِبل جهات خبيثة، مثل توليد البرمجيات الخبيثة، وهو ما نبّهت إليه تقارير من غوغل وOpenAI.
لذلك، فإن التمييز بين الهواجس الحقيقية والمخاوف المُبالغ فيها أمر بالغ الأهمية. فالمعلومات المضللة تشكّل تحديًا فعليًا، لكن الهلع الناجم عنها لا يقل خطورة.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.
aj-logoaj-logoaj-logo إعلان من نحنمن نحناعرض المزيدمن نحنالأحكام والشروطسياسة الخصوصيةسياسة ملفات تعريف الارتباطتفضيلات ملفات تعريف الارتباطخريطة الموقعتواصل معناتواصل معنااعرض المزيدتواصل معنااحصل على المساعدةأعلن معناابق على اتصالالنشرات البريديةرابط بديلترددات البثبيانات صحفيةشبكتناشبكتنااعرض المزيدمركز الجزيرة للدراساتمعهد الجزيرة للإعلامتعلم العربيةمركز الجزيرة للحريات العامة وحقوق الإنسانقنواتناقنواتنااعرض المزيدالجزيرة الإخباريةالجزيرة الإنجليزيالجزيرة مباشرالجزيرة الوثائقيةالجزيرة البلقانعربي AJ+تابع الجزيرة نت على:
facebooktwitteryoutubeinstagram-colored-outlinersswhatsapptelegramtiktok-colored-outline