هل من مبرّر لشيطنة الذكاء الإصطناعي؟
تاريخ النشر: 11th, August 2023 GMT
أثارت تصريحات رئيس الجمهورية قيس سعيّد حول خطر الذكاء الإصطناعي أمس الخميس، خلال كلمة ألقاها بمناسبة الإحتفال بيوم العلم، جدلا وموجة من الإنتقادات بعد أن تحدّث الرئيس عن اغتيال الفكر البشري واستناده إلى تصريحات لأمين عام منظّمة الأمم المتحدة انطونيو غوتيريش قال فيها إنّ الاستخدامات الضارة لهذه التقنية يمكن ان تتسبب في مستويات عالية من الدمار، ووصفه الذكاء الإصطناعي بالخطر الداهم المهدد ليس للعلم فقط بل للانسانية جمعاء.
تصريحات رئيس الجمهورية يجد لها البعض ما يبرّرها، حيث أبدت عدّة شخصيات عالمية تخوفات من خروج الذكاء الإصطناعي عن السيطرة في ظلّ التطورات السريعة التي يشهدها وفي غياب تشريعات لتقنين استخدامه للحد من مخاطره المحتملة.
الصحفي المختص في التكنلوجيات الحديثة محمد علي السويسي قال في مداخلة هاتفية خلال برنامج ''كورنيش" الجمعة 11 أوت 2023، إنّ المخاوف تُطرح مع ما يشهده التطوّر السريع والنجاح الكبير للذكاء الإصطناعي مؤخرا خاصة في مرحلة ما بعد كوفيد وما شهده العالم من ركود خلال سنوات الوباء، رغم أنّ الذكاء الإصطناعي ليس وليد اليوم بل يعود إلى خمسينات القرن الماضي.
وبحسب السويسي فإنّ الخطر يكمن أساسا في كيفية استخدام الإنسان للذكاء الإصطناعي قبل أن يصل لمرحلة الإستقلال والعمل دون تدخّل بشري.
وتتمثل هذه المخاطر في الاستعانة بهذه التقنية في الهجمات السيبرنية وفبركة الأخبار والتقاري والتي تجد صدى لها في وسائل التواصل الإجتماعي.
وتحدّث السويسي عن الإمكانيات الكبيرة المتاحة في مجال الذكاء الإصطناعي خاصة في قطاعات التعليم والطبّ وأيضا في الإستخدامات الإدارية، لافتا إلى الإمكانيات الواسعة التي قد تتيحها هذه التقنية في تونس.
وشدّد على أهمية الإطار القانوني والأخلاقي في استخدامات الذكاء الإصطناعي.
استمع إلى مداخلته في برنامج ميدي شو:
المصدر: موزاييك أف.أم
كلمات دلالية: الذکاء الإصطناعی
إقرأ أيضاً:
دراسة: الكثير من الأطباء يستخدمون الذكاء الاصطناعي في الرعاية الطبية
تابع أحدث الأخبار عبر تطبيق
تشهد الرعاية الصحية تحولًا جذريًا مع تزايد الاعتماد على الذكاء الاصطناعي التوليدي؛ حيث أفادت دراسة شملت 1000 طبيب في الولايات المتحدة أن 20% منهم يستخدمون أدوات الذكاء الاصطناعي في ممارساتهم السريرية، وتشمل الاستخدامات الشائعة إنشاء الوثائق الطبية، دعم اتخاذ القرارات السريرية، وتوفير معلومات دقيقة للمرضى، مثل تقارير الخروج وخطط العلاج.
وتبرز “البوابة نيوز” تفاصيل الدراسة التي نشرت في sciencealert:
إمكانات الذكاء الاصطناعي التوليدي:
يبدو أن الذكاء الاصطناعي يقدم حلولًا مبتكرة للعديد من التحديات في مجال الصحة، فقد ساعد في تحليل الصور الطبية وتشخيص الأمراض بدقة، فضلًا عن توفير الوقت والجهد للأطباء من خلال أتمتة العمليات الروتينية، ومع ذلك فإن الاعتماد عليه يثير تساؤلات جوهرية حول سلامة المرضى وكيفية استخدام هذه التقنية بفعالية ودون مخاطر.
التحديات المرتبطة باستخدام الذكاء الاصطناعي:
رغم إمكانياته الكبيرة، إلا أن الذكاء الاصطناعي التوليدي يواجه تحديات كبيرة، أبرزها:
1. عدم التخصص:
بخلاف الأدوات التقليدية المصممة لأداء مهام محددة، يعتمد الذكاء الاصطناعي التوليدي على نماذج أساسية متعددة الاستخدامات، ما يجعله غير مهيأ تمامًا لاستخدامه في تطبيقات طبية محددة.
2. ظاهرة “الهلوسة”:
تتجلى هذه الظاهرة في إنتاج مخرجات غير دقيقة أو غير منطقية بناءً على المدخلات. على سبيل المثال، قد تُضاف معلومات لم يذكرها المريض أو الطبيب إلى الملاحظات الطبية، ما قد يؤدي إلى أخطاء خطيرة في التشخيص أو العلاج.
3. السلامة والسياق:
سلامة المرضى تعتمد على تكامل الذكاء الاصطناعي مع الأنظمة الصحية الحالية، بما في ذلك القوانين والثقافات التنظيمية. ومع التطور المستمر للتقنيات، يصبح من الصعب التنبؤ بسلوك الأدوات الجديدة وكيفية تأثيرها في المرضى، خاصةً الفئات الضعيفة أو الأقل قدرة على التعامل مع التكنولوجيا.
أهمية التنظيم والتطوير المشترك:
قبل التوسع في استخدام الذكاء الاصطناعي التوليدي في الرعاية الطبية، يجب:
• ضمان السلامة: من خلال دراسة كيفية تأثير التكنولوجيا على المرضى في مختلف السياقات الصحية.
• إشراك المستخدمين والمجتمعات: لضمان أن الأدوات مصممة لتلبية احتياجات متنوعة دون التسبب في تمييز أو أضرار غير مقصودة.
• التكيف مع التطورات: من خلال تحديث اللوائح والتنظيمات باستمرار لتواكب تطورات التقنية.
مستقبل الذكاء الاصطناعي في الصحة:
مع تزايد الابتكار، يُتوقع أن يُحدث الذكاء الاصطناعي نقلة نوعية في الرعاية الصحية، مما يتيح تشخيصًا أسرع وأكثر دقة، ويعزز من كفاءة النظام الصحي، لكن نجاح هذه الثورة يتطلب التزامًا بالسلامة، والتعاون بين المطورين، والمنظمين، والممارسين لضمان استخدام آمن ومستدام لهذه التقنيات في المستقبل.