أعلن مركز التميز المشترك لعلوم البيانات والذكاء الاصطناعي في الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" وجامعة الملك عبدالله للعلوم والتقنية (كاوست)، عن إطلاق نموذج MiniGPT-Med.

MiniGPT-Med هو نموذج لغوي ضخم متعدد الوسائط يساعد الأطباء في تشخيص الأشعة الطبية بسرعة ودقة عاليتين باستخدام تقنيات الذكاء الاصطناعي.

وقال رئيس الفريق العلمي في سدايا الذي عمل على إنشاء النموذج مستشار الذكاء الاصطناعي في المركز الوطني للذكاء الاصطناعي، الدكتور أحمد بن زكي السنان، إن نموذج MiniGPT-Med تم تصميمه بطريقة تُتيح للمستخدم إدخال صور طبية إليه وإجراء عدد من المهام منها: توليد التقارير الطبية، والإجابة عن الأسئلة البصرية الطبية، والتحديد الوصفي للأمراض، واكتشاف موقع المرض، والتعرف على الأمراض، والوصف الطبي المستند.

وأوضح أنه تم تدريب النموذج على صور طبية مختلفة (الأشعة السينية، والأشعة المقطعية، والرنين المغناطيسي)، مبينًا أن التطورات الأخيرة في الذكاء الاصطناعي أسهمت في تطور مجال الرعاية الصحية خاصة في تحسين إجراءات التشخيص إلا أنها في كثير من الأحيان مقيدة بوظائف محدودة لذلك سيعمل نموذج MiniGPT-Med على معالجة هذا الأمر وهو مشتق من نماذج لغوية واسعة النطاق ومصمم خصيصًا للتطبيقات الطبية، ويُظهر تنوعًا ملحوظًا عبر طرق التصوير المختلفة، بما في ذلك الأشعة السينية والأشعة المقطعية والتصوير بالرنين المغناطيسي، مما يعزز فائدته.

ولفت النظر إلى أن نموذج MiniGPT-Med عمل عليه متخصصون في الذكاء الاصطناعي من سدايا ومن كاوست، ويحقق أداءً متطورًا في إنشاء التقارير الطبية أعلى من أفضل نموذج سابق بمعدل 19%، ويعد واجهة عامة لتشخيص الأشعة، مما يعزز كفاءة التشخيص عبر مجموعة واسعة من تطبيقات التصوير الطبي.

وشارك بالعمل على هذا المشروع مجموعة من مهندسات الذكاء الاصطناعي أبرزهن رنيم الناجم وأسماء الخالدي و ليان العبداللطيف و روان اليحيى وهذا يعكس دور العنصر النسائي بالتطور التقني المعتمد على الذكاء الاصطناعي إذ تشكل المهندسات النساء ما يزيد عن نصف مجمل مهندسي الذكاء بالمركز الوطني للذكاء الاصطناعي.

ومن جهته، قال رئيس الفريق البحثي في كاوست البروفيسور محمد الحسيني، إن النموذج قادر على أداء مهام مثل إنشاء التقارير الطبية والإجابة على الأسئلة المرئية (VQA) وتحديد المرض ضمن الصور الطبية، فيما تعمل المعالجة المتكاملة لكل من البيانات السريرية الصورية والنصية على تحسين دقة التشخيص بشكل متفوق في أسس المرض، وإنشاء التقارير الطبية، ومعايير VQA، ما يسهم في تطوير أداء ممارسة الأشعة.

#سدايا و "كاوست" تُطلقان نموذج MiniGPT-Med الذي يساعد الأطباء في تشخيص الأشعة الطبية باستخدام الذكاء الاصطناعي pic.twitter.com/T8Og2ejNtm

— SDAIA (@SDAIA_SA) July 26, 2024

المصدر: صحيفة عاجل

كلمات دلالية: كاوست سدايا الذکاء الاصطناعی التقاریر الطبیة

إقرأ أيضاً:

نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي

تابع أحدث الأخبار عبر تطبيق

يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا. 

استخدامات غير مشروعة لنموذج ChatGPT-4o

يُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.

هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.

نتائج الدراسة: عمليات احتيال "رخيصة" وفعالة

في التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.

استجابة OpenAI والتحديات المستقبلية

وفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.

مقالات مشابهة

  • دولة عربية تطلق أول متحدث رسمي باستخدام الذكاء الاصطناعي
  • “سدايا” تبرز جهودها في دعم رواد الأعمال في مجال البيانات والذكاء الاصطناعي بملتقى بيبان 24
  • مدبولي: الذكاء الاصطناعي هو الحاضر
  • طلب إحاطة لوزير الصحة للعدول عن قرار رفع رسوم التقارير الطبية على المواطنين
  • ما ميزة الرد الذكي من آيفون لإرسال الرسائل باستخدام الذكاء الاصطناعي؟
  • تحوّل مثير.. ميتا تسمح باستخدام ذكائها الاصطناعي لأغراض عسكرية أمريكية
  • باستخدام الذكاء الاصطناعي.. الصحة تستعرض تقنية فحص الأنسجة والخلايا والتشخيص «عن بُعد»
  • تطوير كاتب سيناريو آلي باستخدام الذكاء الاصطناعي
  • طلاب روس يطورن تقنية جديدة لكاتب سيناريو آلي باستخدام الذكاء الاصطناعي
  • نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي