منظمة الصحة العالمية تحذر من مخاطر محتملة للذكاء الاصطناعي في مجال الصحة
تاريخ النشر: 19th, January 2024 GMT
قد يحدث الذكاء الاصطناعي التوليدي ثورة في الرعاية الصحية، على سبيل المثال من خلال تسهيل تطوير الأدوية أو التعجيل بالكشف عن الأمراض، لكن منظمة الصحة العالمية شددت في تقرير لها على ضرورة إيلاء اهتمام أكبر بالمخاطر المحتملة لهذا التطور.
في وثيقة نشرت الخميس، حللت منظمة الصحة العالمية مخاطر وفوائد استخدام نماذج كبيرة متعددة الوسائط تسمى “Large Multi-modal Models” أو اختصارا “LMM”، وهو نوع من تكنولوجيا الذكاء الاصطناعي التوليدي يشهد نموا سريعا، في مجال الصحة.
يمكن للنماذج الكبيرة متعددة الوسائط هذه استخدام أنواع متنوعة من البيانات، بما في ذلك النصوص والصور والفيديو، وإنشاء نتائج لا تقتصر على نوع البيانات التي يتم إدخالها في الخوارزمية.
وقالت منظمة الصحة العالمية إن “من المتوقع أن يتم استخدام وتطبيق النماذج الكبيرة متعددة الوسائط على نطاق واسع في مجال الرعاية الصحية والبحث العلمي والصحة العامة وتطوير الأدوية”.
وحددت المنظمة خمسة مجالات يمكن أن تستخدم فيها هذه التكنولوجيا: الفحص (على سبيل المثال، للرد على الطلبات المكتوبة من المرضى)؛ والبحث العلمي وتطوير الأدوية؛ التعليم الطبي والتمريضي؛ والمهام الإدارية؛ والاستخدام من جانب المرضى، على سبيل المثال لمراجعة الأعراض.
وعلى الرغم من أن هذه التكنولوجيا تتمتع بإمكانات كبيرة، فإن منظمة الصحة العالمية لفتت إلى أنه ثبت أيضا أن هذه النماذج الكبيرة متعددة الوسائط يمكن أن تؤدي إلى نتائج خاطئة، أو غير دقيقة، أو متحيزة، أو غير كاملة، ما قد يفضي بوضوح إلى عواقب سلبية.
وأشارت منظمة الصحة العالمية، إلى أنه “نظرا لتزايد استخدام النماذج الكبيرة متعددة الوسائط في الرعاية الصحية والطب، فإن الأخطاء وسوء الاستخدام، وفي نهاية المطاف، الإضرار بالأفراد أمر لا مفر منه”.
وتقدم الوثيقة أيضا، إرشادات جديدة بشأن أخلاقيات وحوكمة النماذج الكبيرة متعددة الوسائط، إذ أعطت منظمة الصحة العالمية أكثر من 40 توصية للحكومات وشركات التكنولوجيا ومقدمي الرعاية الصحية حول كيفية الاستفادة من هذه التكنولوجيا بأمان تام.
وأكد كبير العلماء في منظمة الصحة العالمية جيريمي فارار أن “تقنيات الذكاء الاصطناعي التوليدي لديها القدرة على تحسين الرعاية الصحية، ولكن فقط إذا عمد أولئك الذين يطورون وينظمون ويستخدمون هذه التقنيات إلى تحديد المخاطر المرتبطة بها وأخذها في الاعتبار بشكل كامل”.
وأضاف “نحن بحاجة إلى معلومات وسياسات شفافة لإدارة تصميم وتطوير واستخدام النماذج الكبيرة متعددة الوسائط لتحقيق نتائج صحية أفضل والتغلب على التفاوتات الصحية المستمرة”.
ودعت منظمة الصحة العالمية إلى وضع قواعد المسؤولية “لضمان تعويض المستخدمين المتضررين من النماذج الكبيرة متعددة الوسائط بشكل مناسب أو حصولهم على ملاذات أخرى” يمكنهم اللجوء إليها.
وأشارت المنظمة أيضا إلى أن درجة امتثال النماذج الكبيرة متعددة الوسائط للقواعد الحالية، لا سيما في ما يتعلق بحماية البيانات، تثير بدورها مخاوف.
إلى ذلك، فإن حقيقة أن النماذج الكبيرة متعددة الوسائط تطورت وتنشر في كثير من الأحيان من جانب عمالقة التكنولوجيا، تثير مخاوف وقد ترسخ هيمنة هذه الشركات، بحسب منظمة الصحة العالمية.
ولذلك توصي المنظمة بتطوير النماذج الكبيرة متعددة الوسائط، ليس فقط من العلماء والمهندسين، ولكن أيضا من المتخصصين في الرعاية الصحية والمرضى.
وحذرت منظمة الصحة العالمية أيضا من تعرض النماذج الكبيرة متعددة الوسائط لمخاطر الأمن السيبراني، ما قد يعرض معلومات المرضى وحتى موثوقية الرعاية الصحية للخطر.
وخلص التقرير، إلى ضرورة أن تفوض الحكومات السلطات التنظيمية للموافقة على استخدام النماذج الكبيرة متعددة الوسائط في الرعاية الصحية، داعيا إلى تنفيذ عمليات التدقيق لتقييم تأثير هذه التكنولوجيا.
(وكالات)
كلمات دلالية الذكاء الإصطناعي الصحة تحذير تقرير مخاطر منظمة الصحة العالمية
المصدر: اليوم 24
كلمات دلالية: الذكاء الإصطناعي الصحة تحذير تقرير مخاطر منظمة الصحة العالمية منظمة الصحة العالمیة فی الرعایة الصحیة هذه التکنولوجیا
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.