يساعد الأطباء باستخدام الذكاء الاصطناعي.. "سدايا" و"كاوست" تُطلقان نموذج MiniGPT-Med
تاريخ النشر: 26th, July 2024 GMT
أعلن مركز التميز المشترك لعلوم البيانات والذكاء الاصطناعي في الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" وجامعة الملك عبدالله للعلوم والتقنية (كاوست)، عن إطلاق نموذج MiniGPT-Med.
MiniGPT-Med هو نموذج لغوي ضخم متعدد الوسائط يساعد الأطباء في تشخيص الأشعة الطبية بسرعة ودقة عاليتين باستخدام تقنيات الذكاء الاصطناعي.
وقال رئيس الفريق العلمي في سدايا الذي عمل على إنشاء النموذج مستشار الذكاء الاصطناعي في المركز الوطني للذكاء الاصطناعي، الدكتور أحمد بن زكي السنان، إن نموذج MiniGPT-Med تم تصميمه بطريقة تُتيح للمستخدم إدخال صور طبية إليه وإجراء عدد من المهام منها: توليد التقارير الطبية، والإجابة عن الأسئلة البصرية الطبية، والتحديد الوصفي للأمراض، واكتشاف موقع المرض، والتعرف على الأمراض، والوصف الطبي المستند.
وأوضح أنه تم تدريب النموذج على صور طبية مختلفة (الأشعة السينية، والأشعة المقطعية، والرنين المغناطيسي)، مبينًا أن التطورات الأخيرة في الذكاء الاصطناعي أسهمت في تطور مجال الرعاية الصحية خاصة في تحسين إجراءات التشخيص إلا أنها في كثير من الأحيان مقيدة بوظائف محدودة لذلك سيعمل نموذج MiniGPT-Med على معالجة هذا الأمر وهو مشتق من نماذج لغوية واسعة النطاق ومصمم خصيصًا للتطبيقات الطبية، ويُظهر تنوعًا ملحوظًا عبر طرق التصوير المختلفة، بما في ذلك الأشعة السينية والأشعة المقطعية والتصوير بالرنين المغناطيسي، مما يعزز فائدته.
ولفت النظر إلى أن نموذج MiniGPT-Med عمل عليه متخصصون في الذكاء الاصطناعي من سدايا ومن كاوست، ويحقق أداءً متطورًا في إنشاء التقارير الطبية أعلى من أفضل نموذج سابق بمعدل 19%، ويعد واجهة عامة لتشخيص الأشعة، مما يعزز كفاءة التشخيص عبر مجموعة واسعة من تطبيقات التصوير الطبي.
وشارك بالعمل على هذا المشروع مجموعة من مهندسات الذكاء الاصطناعي أبرزهن رنيم الناجم وأسماء الخالدي و ليان العبداللطيف و روان اليحيى وهذا يعكس دور العنصر النسائي بالتطور التقني المعتمد على الذكاء الاصطناعي إذ تشكل المهندسات النساء ما يزيد عن نصف مجمل مهندسي الذكاء بالمركز الوطني للذكاء الاصطناعي.
ومن جهته، قال رئيس الفريق البحثي في كاوست البروفيسور محمد الحسيني، إن النموذج قادر على أداء مهام مثل إنشاء التقارير الطبية والإجابة على الأسئلة المرئية (VQA) وتحديد المرض ضمن الصور الطبية، فيما تعمل المعالجة المتكاملة لكل من البيانات السريرية الصورية والنصية على تحسين دقة التشخيص بشكل متفوق في أسس المرض، وإنشاء التقارير الطبية، ومعايير VQA، ما يسهم في تطوير أداء ممارسة الأشعة.
#سدايا و "كاوست" تُطلقان نموذج MiniGPT-Med الذي يساعد الأطباء في تشخيص الأشعة الطبية باستخدام الذكاء الاصطناعي pic.twitter.com/T8Og2ejNtm
— SDAIA (@SDAIA_SA) July 26, 2024المصدر: صحيفة عاجل
كلمات دلالية: كاوست سدايا الذکاء الاصطناعی التقاریر الطبیة
إقرأ أيضاً:
بيل غيتس يُحذر.. ماذا لو قرر الذكاء الاصطناعي الاستغناء عنّا؟
قد يبدو هذا السؤال خيالياً إلا أنه في الواقع جاء على لسان مؤسس شركة مايكروسوفت، الملياردير الأمريكي بيل غيتس، الذي سبق أن حذّر من أوبئة ومخاطر عالمية قبل سنوات، واليوم، يعود مجددًا ليُثير الجدل، ليس بهدف بثّ الذعر، بل لحثّنا على التفكير الجاد في مستقبل قد يكون أقرب مما نتصور.
لماذا يشعر غيتس بالقلق؟
رغم كونه من أبرز رواد التكنولوجيا، لا يُخفي غيتس مخاوفه من المدى الذي قد تبلغه تقنيات الذكاء الاصطناعي، فقد غيّرت كل اختراعات البشرية مجرى التاريخ، من العجلة إلى الإنترنت، وجلب كل منها تحديات ومشكلات بجانب التقدم. ومع ذلك، لا يمكن إحراز التقدم دون المخاطرة، والتغيير لا يُعدّ سيئًا إذا رافقه وعي ومنطق، وفقا لموقع unionrayo.
الذكاء الاصطناعي يتطوّر بسرعة غير متوقعة
يُشبّه غيتس المرحلة الحالية من الذكاء الاصطناعي ببدايات استخدام السيارات، حين لم تكن هناك إشارات مرور أو قوانين واضحة، فنحن الآن منبهرون بقدرات هذه التقنية، لكن دون وجود ضوابط حاكمة، وأكثر ما يُقلق غيتس وبعض فلاسفة جامعة أكسفورد هو ما يُعرف بـ”انفجار الذكاء” — لحظة قد يتمكن فيها الذكاء الاصطناعي من تحسين نفسه دون تدخل بشري، بشكل يفوق السيطرة، وربما دون الحاجة للبشر أصلاً. ورغم أن هذا قد يبدو خيالاً علمياً، إلا أنه احتمال واقعي يستحق التفكير.
التزييف العميق والتضليل والتأثير على الانتخابات
واحدة من أخطر التحديات الحالية هي ظاهرة “التزييف العميق”؛ حيث يمكن للذكاء الاصطناعي إنتاج مقاطع فيديو وتسجيلات صوتية يصعب تمييزها عن الحقيقة، تخيّل تأثير فيديو مزيف لمرشح سياسي يرتكب جريمة قبل الانتخابات بيومين — حتى لو تم نفيه لاحقًا، الضرر سيكون قد وقع.
الذكاء الاصطناعي كسلاح رقمي
مخاوف غيتس لا تتوقف عند التضليل. فهو يحذر أيضًا من دور الذكاء الاصطناعي في الهجمات السيبرانية، حيث يمكنه رصد ثغرات في الأنظمة الأمنية واستغلالها، من سرقة بيانات إلى شن هجمات بين الدول.
ما الحل في نظر غيتس؟
يقترح غيتس تأسيس هيئة دولية تُشبه الوكالة الدولية للطاقة الذرية، ولكن متخصصة في مراقبة الذكاء الاصطناعي وتنظيمه، بحيث تُطلق التحذيرات حين تظهر مؤشرات خطر.
هل الذكاء الاصطناعي سيأخذ وظائفنا؟
غيتس لا يرى أن الذكاء الاصطناعي سيقضي على فرص العمل بالكامل، لكنه يُقرّ بأن هناك تحوّلاً قادماً في سوق العمل، وظائف ستختفي، وأخرى ستُخلق، والمهم هو كيف سنتعامل مع هذا التغيير ونستخدم الذكاء الاصطناعي كأداة، لا كبديل تام.
كما يشدد على أهمية ضمان العدالة في الوصول إلى هذه التقنيات، حتى لا تزيد الفجوة الاجتماعية القائمة.
الذكاء الاصطناعي ليس معصومًا من الخطأ
يُنبّه غيتس إلى أن الذكاء الاصطناعي قد يُنتج معلومات مغلوطة أو يحمل تحيزات بشرية تعلّمها من بياناته، لذلك، لا يدعو لحظره، بل لتحسينه، وتنويعه، وتثقيف من يستخدمه.
في النهاية، لا يُعلن غيتس نهاية العالم، لكنه في الوقت ذاته لا يتجاهل التحديات. فالذكاء الاصطناعي سيُغيّر كل شيء، لكن ما زال السؤال مفتوحًا: هل سيكون هذا التغيير نعمة أم نقمة؟
البيان
إنضم لقناة النيلين على واتساب