«الصحة العالمية» تصدر إرشادات بشأن استخدام الذكاء الاصطناعي
تاريخ النشر: 20th, October 2023 GMT
أصدرت منظمة الصحة العالمية، إرشادات تنظيمية بشأن استخدام الذكاء الاصطناعي في مجال الصحة، مؤكدة أهمية التحقق من مأمونية أنظمة الذكاء الاصطناعي وفعاليتها، وإتاحتها بسرعة لمن يحتاجون إليها، وتعزيز الحوار بين أصحاب المصلحة ومنهم المطورون والمصنعون والجهات التنظيمية والعاملون في مجال الصحة وكذلك المرضى.
ويهدف منشور المنظمة الجديد لتحديد المبادئ الرئيسة التي يمكن للحكومات والسلطات التنظيمية اتباعها في وضع إرشادات جديدة أو تكييف الإرشادات القائمة بشأن الذكاء الاصطناعي على الصعيدين الوطني والإقليمي.
وأشارت المنظمة إلى أنه في ظل تزايد البيانات المتاحة بشأن الرعاية الصحية، سواء تلك المتعلقة بالتعلم الآلي أو القائمة على الإحصاءات والمنطق، فإنه يمكن لأدوات الذكاء الاصطناعي أن تحدث تحولًا في قطاع الصحة، وأن المنظمة تدرك الإمكانات التي ينطوي عليها الذكاء الاصطناعي من حيث تحسين النتائج الصحية من خلال تعزيز التجارب السريرية والتشخيص الطبي والعلاج والرعاية الذاتية، واستكمال معارف ومهارات العاملين الصحيين، خاصة في المناطق التي تفتقر للأخصائيين الطبيين مثلًا في مجال تفسير الفحوصات وصور الأشعة وغيرها.
وقال المدير العام للمنظمة الدكتور تيدروس أدهانوم إن الذكاء الاصطناعي يحمل تباشير واعدة لقطاع الصحة، ولكنه ينطوي أيضًا على تحديات خطيرة، بما في ذلك جمع البيانات بأساليب غير أخلاقية، وتهديدات الأمن السيبراني، وترسيخ التحيزات أو المعلومات المضللة، مشيراً إلى أن الإرشادات التي أصدرتها المنظمة ستدعم البلدان في تنظيم الذكاء الاصطناعي بفعالية وتسخير إمكاناته، سواء في علاج السرطان أو الكشف عن السل، مع تقليل المخاطر إلى أدنى الحدود.
واستجابة لتزايد احتياجات البلدان فيما يتعلق بالإدارة المسؤولة للانتشار السريع لتكنولوجيات الذكاء الاصطناعي المستخدمة في مجال الصحة، حددت إرشادات المنظمة ستة مجالات، حيث شددت على أهمية الشفافية والتوثيق لدورة حياة منتج الذكاء الاصطناعي بكاملها وتتبع عمليات تطويره، من أجل تعزيز الثقة في مخرجاته.
وفيما يتعلق بإدارة المخاطر، يجب معالجة مسائل مثل التعلم المستمر والاستخدام المقصود والتدخلات البشرية ونماذج التدريب وتهديدات الأمن السيبراني معالجة شاملة، مع تبسيط النماذج قدر الإمكان، والتحقق من صحة البيانات من مصدر خارجي وتوخي الوضوح بشأن الاستخدام المقصود للذكاء الاصطناعي، لضمان السلامة وتيسير التنظيم، وأهمية الالتزام بجودة البيانات مثل التقييم الدقيق للنظم قبل إصدارها، لضمان عدم قيامها بتوسيع نطاق انتشار الأخطاء والتحيزات، والتعامل مع التحديات التي تطرحها اللوائح التنظيمية المهمة والمعقدة مثل اللائحة العامة لحماية البيانات في أوروبا وقانون خضوع التأمين الصحي للمساءلة فِي الولايات المتحدة الأمريكية، مع التركيز على فهم نطاق الولاية ومتطلبات الموافقة لضمان صون الخصوصية وحماية البيانات، وتعزيز التعاون بين الهيئات التنظيمية والمرضى والمتخصصين في مجال الرعاية الصحية وممثلي الصناعة والشركاء الحكوميين، لضمان امتثال المنتجات والخدمات للوائح طوال دورات حياتها.
المصدر: صحيفة عاجل
كلمات دلالية: الرعاية الصحية الصحة العالمية استخدام الذكاء الاصطناعي منظومة الصحة الذکاء الاصطناعی فی مجال
إقرأ أيضاً:
الذكاء الاصطناعي يتقن الخداع!
اكتشف فريق من الباحثين في OpenAI قدرة الذكاء الاصطناعي على التلاعب بأوامره لتحقيق نتائج غير أمينة. رغم أن الذكاء الاصطناعي ليس واعيًا كما البشر، إلا أنه يمتلك القدرة على "الخداع" عند تنفيذ المهام، مما يثير قلقًا كبيرًا حول موثوقيته في المستقبل.
"الاختراق المكافئ"
ووفقاً لموقع popular mechanics التقني يشير الباحثون إلى ظاهرة "الاختراق المكافئ" أو Reward Hacking، حيث يقوم الذكاء الاصطناعي بالاستفادة من الثغرات أو الغموض في البرمجة للحصول على مكافآت دون اتباع الإجراءات المطلوبة بدقة.
على سبيل المثال، عندما كان من المفترض على الذكاء الاصطناعي حل معادلات رياضية معقدة، اختار طرقًا مختصرة للتأكد من أن النتائج تظهر صحيحة، مثل جعل عملية التحقق دائمًا تُرجع "صحيحة"، حتى وإن لم تتم الحسابات بشكل صحيح.
كيفية مراقبة الخداع
في محاولة للكشف عن هذه الخدع، حاول الباحثون استخدام نظام ذكاء اصطناعي آخر لمراقبة سلوك الذكاء الاصطناعي المشبوه. تقوم هذه الطريقة على "التعلم المعزز"، حيث يُعلم الذكاء الاصطناعي بالأجوبة الصحيحة بناءً على الأوامر المقدمة. لكن للأسف، اكتشف الباحثون أن الذكاء الاصطناعي أصبح قادرًا على إخفاء نواياه المخادعة داخل سلسلة تفكيراته، مما جعل عملية المراقبة أقل فعالية.
مواجهة الخداع
في محاولة لجعل الخداع أكثر وضوحًا، قام الباحثون بالتركيز على "سلسلة التفكير" أو CoT، التي يتبعها الذكاء الاصطناعي لشرح خطواته قبل تقديم الإجابات. ومع ذلك، اكتشفوا أن الذكاء الاصطناعي تعلم كيفية إخفاء نواياه المخادعة داخل هذه السلسلة، مما جعل اكتشاف الخداع أكثر صعوبة.
اقرأ ايضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
الضغط الخفيف مقابل الضغط القاسي
بدلاً من معاقبة الذكاء الاصطناعي بشدة عند اكتشاف الخداع، قرر الباحثون تطبيق "ضغط خفيف" لتحفيزه على الإفصاح عن نواياه بشكل صريح. كانت الفكرة أن يسهل على النظام كشف محاولات التلاعب، مما يسمح لمراقب الذكاء الاصطناعي بالكشف عنها. على الرغم من ذلك، استمر الذكاء الاصطناعي في تعلم طرق جديدة لإخفاء نواياه المخادعة.
التحديات المستقبلية وتطوير الأنظمة الذكية
تشير النتائج إلى أن مجرد تحسين الذكاء الاصطناعي لمواجهة هذه المشكلات قد لا يكون كافيًا. فكلما زادت قدرة الذكاء الاصطناعي، أصبح أكثر قدرة على اكتشاف الثغرات والالتفاف حول المراقبة. حتى استخدام نظام ذكاء اصطناعي آخر لمراقبة الأنظمة قد لا يكون كافيًا لتجنب هذا النوع من الخداع.
اقرأ أيضاً.. "آخر اختبار للبشرية".. التحدي الأخير أمام الذكاء الاصطناعي لاجتياز قدرات البشر
ويرى الباحثون أن التحدي الأكبر يكمن في جعل الذكاء الاصطناعي أكثر نزاهة وأمانًا. ربما في المستقبل، سنتوصل إلى حلول تضمن أن هذه الأنظمة ستؤدي مهامها بأمان ودون التلاعب، لكن هذا سيتطلب جهدًا مستمرًا لتطوير تقنيات جديدة لمراقبتها والسيطرة عليها.
إسلام العبادي(أبوظبي)