صحيفة البلاد:
2024-09-07@21:54:15 GMT

“سدايا” و “كاوست” تُطلقان نموذج MiniGPT-Med

تاريخ النشر: 26th, July 2024 GMT

“سدايا” و “كاوست” تُطلقان نموذج MiniGPT-Med

الرياض : البلاد

أطلق مركز التميز المشترك لعلوم البيانات والذكاء الاصطناعي في الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” وجامعة الملك عبدالله للعلوم والتقنية (كاوست)، نموذج MiniGPT-Med ، وهو نموذج لغوي ضخم متعدد الوسائط يساعد الأطباء في تشخيص الأشعة الطبية بسرعة ودقة عاليتين باستخدام تقنيات الذكاء الاصطناعي.

وقال رئيس الفريق العلمي في سدايا الذي عمل على إنشاء النموذج مستشار الذكاء الاصطناعي في المركز الوطني للذكاء الاصطناعي الدكتور أحمد بن زكي السنان: إن نموذج MiniGPT-Med تم تصميمه بطريقة تُتيح للمستخدم إدخال صور طبية إليه وإجراء عدد من المهام منها: توليد التقارير الطبية، والإجابة عن الأسئلة البصرية الطبية، والتحديد الوصفي للأمراض، واكتشاف موقع المرض، والتعرف على الأمراض، والوصف الطبي المستند.

وأضاف أنه تم تدريب النموذج على صور طبية مختلفة (الأشعة السينية، والأشعة المقطعية، والرنين المغناطيسي)، مبينًا أن التطورات الأخيرة في الذكاء الاصطناعي أسهمت في تطور مجال الرعاية الصحية خاصة في تحسين إجراءات التشخيص إلا أنها في كثير من الأحيان مقيدة بوظائف محدودة لذلك سيعمل نموذج MiniGPT-Med على معالجة هذا الأمر وهو مشتق من نماذج لغوية واسعة النطاق ومصمم خصيصًا للتطبيقات الطبية، ويُظهر تنوعًا ملحوظًا عبر طرق التصوير المختلفة، بما في ذلك الأشعة السينية والأشعة المقطعية والتصوير بالرنين المغناطيسي، مما يعزز فائدته.

ولفت الدكتور أحمد السنان النظر إلى أن نموذج MiniGPT-Med عمل عليه متخصصون في الذكاء الاصطناعي من سدايا ومن كاوست، ويحقق أداءً متطورًا في إنشاء التقارير الطبية أعلى من أفضل نموذج سابق بمعدل 19%، ويعد واجهة عامة لتشخيص الأشعة، مما يعزز كفاءة التشخيص عبر مجموعة واسعة من تطبيقات التصوير الطبي.

وشارك بالعمل على هذا المشروع مجموعة من مهندسات الذكاء الاصطناعي أبرزهن رنيم الناجم وأسماء الخالدي و ليان العبداللطيف و روان اليحيى وهذا يعكس دور العنصر النسائي بالتطور التقني المعتمد على الذكاء الاصطناعي إذ تشكل المهندسات النساء ما يزيد عن نصف مجمل مهندسي الذكاء بالمركز الوطني للذكاء الاصطناعي.

ومن جهته أفاد رئيس الفريق البحثي في كاوست البروفيسور محمد الحسيني أن النموذج قادر على أداء مهام مثل إنشاء التقارير الطبية والإجابة على الأسئلة المرئية (VQA) وتحديد المرض ضمن الصور الطبية، فيما تعمل المعالجة المتكاملة لكل من البيانات السريرية الصورية والنصية على تحسين دقة التشخيص بشكل متفوق في أسس المرض، وإنشاء التقارير الطبية، ومعايير VQA، مما يسهم في تطوير أداء ممارسة الأشعة.

ويمكن الاطلاع على نموذج MiniGPT-Med من خلال الرابط : https://github.com/Vision-CAIR/MiniGPT-Med .

المصدر: صحيفة البلاد

كلمات دلالية: الذکاء الاصطناعی التقاریر الطبیة

إقرأ أيضاً:

سوء استخدام الذكاء الاصطناعي سيكلّف العالم 10 تريليونات دولار

الشارقة: «الخليج»
أكد خبراء ومختصون في مجال الأمن السيبراني أن سوء استخدام الذكاء الاصطناعي كلف العالم 3 تريليونات دولار عام 2015، فيما يُتوقع أن تصل التكلفة إلى 10 تريليونات بحلول عام 2025، موضحين أن «التزييف العميق» ازداد بنسبة 550% من عام 2019 إلى 2023.
جاء ذلك خلال جلسة رئيسية بالتعاون مع سكاي نيوز عربية بعنوان «الحكومات المرنة تبني دروعاً واقية بالذكاء الاصطناعي.. ما السبب؟»، أقيمت ضمن فعاليات اليوم الثاني من المنتدى الدولي للاتصال الحكومي، وتحدث خلالها هيكتور مونسيجور، مؤسس شركة ناشئة في الأمن السيبراني وباحث أمني إلكتروني، والدكتور نادر الغزال، الأكاديمي والخبير في الذكاء الاصطناعي والتحول الرقمي، وألان سيمثسون، المؤسس والمشارك لـ(MetaVRse)، والدكتور إنهايوك تشا، أستاذ بمعهد غوانغجو للعلوم والتكنولوجيا، ونائب الرئيس عن التعاون العالمي، كوريا الجنوبية، وأدارها الإعلامي سامي قاسمي.
وقال مونسيجور، إن التزييف العميق والذكاء الاصطناعي ليسا بجديدين، ولكن الفارق أنها أصبحت الآن وسائل متاحة ومتوفرة، لذلك يمكن استغلالها وتطويرها والتفاعل معها من الأشخاص العاديين. وأضاف أن الذكاء الاصطناعي يحمل معه منافع وأغراضاً جيدة مثل الترجمة وفتح مجالات جديدة للتعليم، لكن لا يمكن إغفال الجانب السلبي منه، فهناك أشخاص يستخدمونه لأهدافهم الخاصة، ولديهم نوايا تخريبية وغير سليمة. وتابع: «خلال السنوات العشر الماضية كان لدينا أدوات للتعلم ونمذجة السلوك، وما سنراه في السنوات المقبلة يمثل تطويراً لهذه الأدوات، إلا أن الاستخدام الضار لن يوقفنا عن تطويرها». بدوره، أكد الدكتور نادر الغزال أن التزييف العميق مسألة حساسة تحمل الكثير من المخاوف والمخاطر، موضحاً أن استخدامه في الخداع المالي أو نشر الأكاذيب وغيرها من الأمور، أصبح يعرض سلامة الأفراد وأسس المجتمعات وقيمها للخطر، فهو يقوض الثقة، ويتلاعب بالمشاعر العامة.
ولفت إلى أنه في الوقت الذي تظهر فيه مخاطر الذكاء الاصطناعي، نجد أن هناك إيجابيات تغطي على تلك المخاطر؛ فهناك مجالات يمكن تطويع الذكاء الاصطناعي من خلالها لخدمة الحكومات. من جانبه، أوضح ألان سيمثسون أن بعض المبرمجين ينفقون وقتاً على التزييف العميق بالدخول إلى الإنترنت وتنفيذ مقاطع فيديو أو صوت بشكل مجاني، وفي الوقت الذي يبدو فيه التزييف العميق ذا خطورة كبيرة، إلا أن البعض يطوّعه ويستخدمه في جوانب إيجابية. وأكد على أهمية عدم استخدام تلك التقنية لأسباب سيئة لاسيما أن التزييف العميق يمكن من خلاله تحويل مقطع صوتي إلى عدة لغات وبالتالي يفيد في عملية الترجمة وتحويل الخطابات، إلا أنه يمكن إساءة استخدامه أيضاً عبر نشر معلومات غير حقيقية.
من جهته، قال الدكتور إنهايوك تشا، إن طبيعة البشر تتمثل في قصّ الحكايات ورغبتهم بأن يكونوا مسموعين، وفكرة مثل «التزييف العميق» ساهمت في مضاعفة هذه الرغبة، ولكن السؤال هو: أي نوع من القصص قابل للتصديق؟
وأضاف: أعتقد أن الحكومات يجب أن تفكر بهذا الأمر ولماذا يفعل بعض البشر ذلك، مؤكداً أنه قبل الوصول إلى أي نظام رقابي فإن على الحكومات التفكير بالنزعات البشرية الأساسية وفهم الطرق البديلة لتوجيه سلوك الناس ليصبح أكثر إيجابية.

مقالات مشابهة

  • منصة للعلماء والإنجازات الطبية.. أمير الشرقية يرعى المؤتمر الدولي لتطورات “السكري”
  • “سدايا” تنظم مؤتمرًا صحفيًا تستعرض فيه أبعاد القمة العالمية للذكاء الاصطناعي المحلية والإقليمية والدولية
  • حضور 100 دولة.. "سدايا" تستعرض أبعاد القمة العالمية للذكاء الاصطناعي
  • سيئون.. دورة تدريبية حول “الذكاء الاصطناعي وتطبيقاته في مجال العمل الإنساني
  • “الطاقة والبنية التحتية” تطلق الدردشة الفورية “اسألنا” باستخدام الذكاء الاصطناعي التوليدي للتفاعل المباشر مع المتعاملين
  • سوء استخدام الذكاء الاصطناعي سيكلّف العالم 10 تريليونات دولار
  • وزارة الداخلية تطلق ختماً خاصاً بالقمة العالمية للذكاء الاصطناعي بنسختها الـ (3) بالتعاون مع “سدايا”
  • “دندرة” .. أول فرقة موسيقية بالذكاء الاصطناعي في العالم
  • “جوجل” تستفيد من الذكاء الاصطناعي في التنبؤ بالعلامات المبكِّرة للمرض
  • الاحتلال يرفض دخول الفرق الطبية لـ”التطعيم” في مناطق شرق “صلاح الدين”