نظمت وزارة الصحة ممثلة بالمديرية العامة لمركز ضمان الجودة اليوم بفندق أنتر سيتي مسقط، مناظرة صحية بعنوان "استخدام الذكاء الاصطناعي والطرائق التقليدية في تشخيص الأمراض"، والتي أقيمت بحضور سعادة الدكتورة فاطمة بنت محمد العجمية ـ الرئيسة التنفيذية للمجلس العماني للاختصاصات الطبية- بحضور الدكتورة قمرة بنت سعيد السريرية -المديرة العامة لمركز ضمان الجودة بوزارة الصحة ـ وعدد من المسؤولين بالوزارة وبالمديرية العامة لمركز ضمان الجودة.

شارك في المناظرة عدد من الأطباء العاملين بوزارة الصحة وبالمدينة الطبية الجامعية، بحضور موظفين من مؤسسات صحية مختلفة، وأقيمت هذه الفعالية تزامنا مع احتفال وزارة الصحة باليوم الوطني السابع، واليوم العالمي السادس لسلامة المرضى لهذا العام الذي يصادف يوم السابع عشر من سبتمبر من كل عام، وقد اختير الموضوع وفقًا لموضوع منظمة الصحة العالمية لسلامة المرضى لعام 2024م، هدفت المناظرة الصحية إلى تحديد مكونات الحجة واستخدامها لتأسيس موقف واضح مبني على الأدلة والبراهين، والتعرف على نقاط القوة والضعف في الحجج بتنظيم فرق مؤيدة ومعارضة للموضوع، وقد فصل في المناظرة بحكم الحضور المستند إلى الأدلة والبراهين.

وأشارت الدكتورة قمرة بنت سعيد السريرية - المديرة العامة لمركز ضمان الجودة بوزارة الصحة في بداية المناظرة- إلى دور المناظرات في تطوير النظام الصحي بتعزيز القدرة على بناء الأفكار وتنظيمها، وتطوير مهارات التفكير العليا ومهارات التفكير النقدي، واكتساب المعارف المختلفة، وتنمية مهارات التحليل والبحث العلمي، وأضافت السريرية أن استخدام الذكاء الاصطناعي والطرائق المألوفة في تشخيص الأمراض يؤدي دورًا حاسمًا في تحسين الرعاية الصحية؛ حيث إن الطرائق المألوفة مثل الفحص السريري توفر أساسًا موثوقًا لتشخيص العديد من الحالات الصحية بناءً على خبرة الأطباء والاختبارات المعروفة، في المقابل يقدم الذكاء الاصطناعي مزايا جديدة مثل تحليل كميات ضخمة من البيانات بسرعة، واكتشاف الأنماط الدقيقة في الصور الطبية، وتوقع تطور الأمراض، مما يسهم في التشخيص المبكر والدقيق لها، وتقليل الأخطاء الطبية، أيضا يحسن كفاءة الرعاية الصحية وجودتها، مما يؤدي إلى نتائج فضلى للمرضى.

بعدها كرمت سعادة الدكتورة فاطمة بنت محمد العجمية ـ الرئيسة التنفيذية للمجلس العماني للاختصاصات الطبية الكادر الطبي المشارك في المناظرة الصحية، وأعضاء اللجنة المنظمة لليوم الوطني السابع واليوم العالمي السادس لسلامة المرضى للعام الحالي 2024.

المصدر: لجريدة عمان

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

وثيقة جديدة للتصدي لعمليات الاحتيال والتضليل في "الذكاء الاصطناعي"

طرحت الهيئة السعودية للبيانات والذكاء الاصطناعي، وثيقة مبادئ التزييف العميق، عبر منصة ”استطلاع“ بهدف وضع أدلة استرشادية واضحة للمطورين وصناع المحتوى والمستخدمين لتفادي أو معالجة الآثار المترتبة من استخدام تقنيات التزييف العميق والتخفيف من مخاطرها.
كما تتضمن توصيات ومبادئ أخلاقيات الذكاء الاصطناعي وممارسات حماية البيانات الشخصية.مخاطر أساسية
أخبار متعلقة "سدايا" تطلق أول إطار مختص بمعايير الذكاء الاصطناعي في العالمانطلاق القمة العالمية للذكاء الاصطناعي بمشاركة 450 متحدثًا من 100 دولةاليوم الأول.. تفاصيل مذكرات التفاهم الموقعة في قمة الذكاء الاصطناعيصنّفت الوثيقة المخاطر الأساسية المرتبطة بتقنيات التزييف العميق الخبيثة إلى 3 فئات، تشمل العمليات الاحتيالية، التي تتمثل في تقنيات التزييف العميق لتقليد الأفراد الموثوق بهم بشكلٍ مقنع من أجل الحصول على معلومات حساسة أو خداع الضحايا، ومن خلال تكرار الأصوات وتعبيرات الوجه والسلوكيات.
وتتضمن أيضًا الاحتيال على الشركات المتعددة الجنسيات، أو التلاعب غير المصرح به استخدام تقنية التزييف العميق لإنشاء محتوى صريح أو مساومة للأفراد دون إذنهم، وغالباً ما يكون ذلك لأغراض متنوعة، مثل: المضايقة، أو الابتزاز، أو الإضرار بالسمعة، أو انتهاك الخصوصية، كفضيحة التزييف العميق للمشاهير.التضليل والدعاية
تشمل المخاطر الأساسية أيضًا التضليل والدعاية عن طريق نشر تقنيات التزييف العميق معلومات كاذبة، وتتلاعب بالتصور العام، وتؤثر على النتائج السياسية من خلال تصوير شخصيات سياسية تدلي ببيانات كاذبة أو تنخرط في سلوك غير أخلاقي، ويمكن استخدام هذا التكتيك لتقويض انتشار المعارضين، والتأثير على الرأي العام، وزعزعة استقرار المجتمعات، مما يؤدي إلى انتشار المعلومات الخاطئة، مثل حادثة التزييف العميق لزعيم سياسي.
أكدت الوثيقة أنه للتخفيف من المخاطر المرتبطة بالتزييف العميق، يجب على الأفراد والمؤسسات تنفيذ أفضل الممارسات والتي منها الحد من التعرض للبيانات الشخصية عبر الإنترنت، وتعزيز الثقافة حول مخاطر التزييف العميق، والتعرف على خصائص التزييف العميق، وتنفيذ عمليات تحقق قوية بالنسبة للمؤسسات لا سيما العاملة في مجال الإعلام والاتصالات.أخلاقيات الذكاء الاصطناعي
ألزمت الوثيقة، المطورين بأخلاقيات الذكاء الاصطناعي ويتم تشجيعهم على ضمان توافق تقنيات التزييف العميق مع المعايير الأخلاقية الموضوعة، حماية البيانات الشخصية، ومنع سوء الاستخدام.
وأكدت على امتثالهم للقوانين واحترام الأخلاق الاجتماعية والالتزام بالقيم الأساسية أمر ضروري لا يمكن التفريط فيه، ويجب أن تسهم التقنية في تسهيل التحقق من صحة المحتوى، ومنع إساءة استخدام الوسائط الاصطناعية، وتعزيز الممارسات المسؤولة والجديرة بالثقة.
وأوجبت الالتزام بالبروتوكولات الصارمة لجمع البيانات، واستخدام الحد الأدنى من البيانات الضرورية، وتطبيق إخفاء الهوية والأسماء المستعارة لتقليل مخاطر إعادة تحديد الهوية.الحفاظ على الخصوصية
اشترطت دمج تقنيات الحفاظ على الخصوصية في معالجة البيانات، وتقليل الاحتفاظ بالبيانات، وإنشاء دورات مراجعة آلية للتقييم المنتظم وحذف البيانات غير الضرورية، وتحقيق مبدأ الشفافية والوضوح، وتوثيق كل مكون من مكونات نموذج الذكاء الاصطناعي بما في ذلك مصادر البيانات وخطوات المعالجة المسبقة والبنية الخوارزمية وعملية اتخاذ القرار، وضمان أن هذه الوثائق قابلة للقراءة آلياً.
وأكدت الوثيقة على المطورين، تطوير وتطبيق تقنيات العلامات المائية الرقمية غير المتطفلة وضمان مقاومتها للهجمات الشائعة مثل إعادة الضغط، والقص، وتغيير المظهر، والحفاظ على الشفافية من خلال نشر تقارير منتظمة حول استخدام تقنيات التزييف العميق وتأثيرها، بما في ذلك التدابير المتخذة لمنع سوء الاستخدام.تطبيقات مفيدة
وشددت على توجيه تقنيات التزييف العميق نحو التطبيقات المفيدة اجتماعياً وبيئياً مثل التعليم، والترفيه، والرعاية الصحية، مع تجنب إساءة استخدام هذه التقنيات أو تطبيقها بشكل غير أخلاقي.
واشترطت على صناع المحتوى ​​​​​​استخدام تقنية التزييف العميق بشكل مسؤول من خلال الالتزام بالمعايير الأخلاقية وحماية البيانات الشخصية ومنع سوء الاستخدام.
ونصت الوثيقة على أهمية الامتثال للقوانين واحترام الأخلاق الاجتماعية والمواءمة مع القيم الأساسية أمراً ضرورياً، نظرًا للتأثير المجتمعي الكبير للتزييف العميق، من الضروري توجيه صناعة المحتوى نحو الاستخدامات الإيجابية والبنَّاءة، بهدف الحفاظ على ثقة الجمهور، ومنع سوء الاستخدام، ومعالجة المخاطر، مثل العمليات الاحتيالية، والتلاعب غير المصرح به، والتضليل، والدعاية.فحص صحة المحتوى
وأوضحت الوثيقة أن يمكن تحديد التزييف العميق بشكلٍ فعَّال من خلال نهج يتكون من ثلاث خطوات لفحص صحة المحتوى، من خلال تقييم الرسالة من حيث المصدر والسياق، والهدف من المحتوى، وتحليل العناصر السمعية والبصرية كتناقضات الإضاءات وتغير لون الجلد، أو الأنماط الوامضة، ومصادقة المحتوى باستخدام أدوات الكشف من الذكاء الاصطناعي لتحليل المحتوى وإعطاء مؤشرات حول التلاعب.
وحثت الوثيقة أفراد المجتمع على الإبلاغ عن الحادث فعندما يتأثر شخص ما بالتزييف العميق، يمكن اتخاذ خطوات محددة لمعالجة الموقف وحماية سمعته، منها التعرف على أنواع الاستخدام الخبيث، وإبلاغ المنصة عن الحادث، ووإبلاغ السلطات المختصة، وطلب مشورة النظام، وإشراك الطب الشرعي الرقمي، وتوثيق الأدلة.

مقالات مشابهة

  • وثيقة جديدة للتصدي لعمليات الاحتيال والتضليل في "الذكاء الاصطناعي"
  • أستاذة إعلام: استخدام الذكاء الاصطناعي في الانتخابات الأمريكية أمر طبيعي
  • أستاذة إعلام: استخدام الذكاء الاصطناعي في الإنتخابات الأمريكية أمر طبيعي (فيديو)
  • خبيرة: استخدام الذكاء الاصطناعي في الانتخابات الأمريكية أمر طبيعي
  • الذكاء الاصطناعي يكافح السرطان
  • أوبن إيه آي ترفع حدود استخدام نموذج الذكاء الاصطناعي o1
  • مايكروسوفت وG42 تكشفان عن مبادرتين جديدتين لتعزيز استخدام الذكاء الاصطناعي
  • «الصحة» تبحث إمكانية استخدام الذكاء الاصطناعي والروبوت في الجراحات الدقيقة
  • إيتيدا تنظم "يوم اختبار البرمجيات" وتناقش أحدث توجهات استخدام الذكاء الاصطناعي