فشل جديد للذكاء الاصطناعي.. قصة تشات جي بي تي في المجال الطبي
تاريخ النشر: 10th, December 2023 GMT
كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة «تشات جي بي تي» (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75% من الأسئلة المتعلقة باستخدام العقاقير الطبية، مع تأكيد الباحثين على تسبب بعض الإجابات في ضرر للمرضى إذا تم اتباعها.
. تفاصيل
وبحسب شبكة «سي إن بي سي» الأميركية، فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على «تشات جي بي تي» ليجدوا أن 10 من إجاباته فقط يمكن عدّها «مُرضِية».
أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة.
وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة في جامعة لونغ آيلاند، والتي قادت فريق الدراسة: «يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية».
وأعطت غروسمان وفريقها مثالاً لفشل هذه الأداة في إعطاء إجابات دقيقة في هذا الشأن، حيث أشاروا إلى سؤال تم توجيهه لـ«تشات جي بي تي» حول إمكانية تناول دواء باكسلوفيد المضاد لفيروسات كورونا بالتزامن مع تناول دواء فيراباميل لخفض ضغط الدم، لتجيب الأداة بأنه «لم يتم الإبلاغ عن أي تفاعلات ضارة قد تنتج من تناول هذا المزيج من الأدوية معاً».
وقالت غروسمان: «في الواقع، هذه الأدوية لديها القدرة على التفاعل مع بعضها بعضاً، والاستخدام المشترك قد يؤدي إلى انخفاض مفرط في ضغط الدم».
وأضافت: «من دون معرفة هذا التفاعل، قد يعاني المريض آثاراً جانبية غير مرغوب فيها ويمكن الوقاية منها».
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي تشات جي بي تي تشات جی بی تی
إقرأ أيضاً:
من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
تُبشّر تقنيات الذكاء الاصطناعي المساعد بآفاقٍ واعدة لإحداث نقلة نوعية في الرعاية الصحية، من خلال مساعدة الأطباء في تشخيص المرضى وإدارتهم وعلاجهم. ومع ذلك، فإنّ التوجه الحالي لتطبيق الذكاء الاصطناعي المساعد قد يُفاقم التحديات المتعلقة بمنع الأخطاء وإرهاق الأطباء، بحسب موجز جديد أعده باحثون في جامعتي جون هوبكنز وتكساس.
ويُوضّح الموجز أنّ هناك توقعات متزايدة من الأطباء بالاعتماد على الذكاء الاصطناعي للحدّ من الأخطاء الطبية.
ومع ذلك، لم تُوضَع بعد قوانين ولوائح مناسبة لدعم الأطباء في اتخاذ قراراتهم المُوجّهة بالذكاء الاصطناعي، على الرغم من التبني المُكثّف لهذه التقنيات في مؤسسات الرعاية الصحية.
المسؤولية الطبيةووفق "مديكال إكسبريس"، يتوقع الباحثون أن المسؤولية الطبية ستعتمد على من يعتبره المجتمع مُخطئاً عند فشل التقنية أو ارتكابها خطأً، ما يُخضع الأطباء لتوقعاتٍ غير واقعية بمعرفة متى يجب تجاوز الذكاء الاصطناعي أو الثقة به.
ويُحذّر الباحثون من أنّ مثل هذا التوقع قد يزيد من خطر الإرهاق، وحتى الأخطاء بين الأطباء.
تفسير التقنياتوقالت شيفالي باتيل، الأستاذة المشاركة من جامعة تكساس: "كان الهدف من الذكاء الاصطناعي تخفيف العبء، ولكنه بدلاً من ذلك يُلقي بالمسؤولية على عاتق الأطباء، مُجبراً إياهم على تفسير تقنيات لا يستطيع حتى مُبتكروها شرحها بالكامل".
وأضافت: "هذا التوقع غير الواقعي يُولّد تردداً ويُشكّل تهديداً مباشراً لرعاية المرضى".
ويقترح الموجز الجديد استراتيجياتٍ لمؤسسات الرعاية الصحية لدعم الأطباء من خلال تحويل التركيز من الأداء الفردي إلى الدعم والتعلم التنظيمي، ما قد يُخفف الضغط على الأطباء ويُعزز نهجاً أكثر تعاوناً لدمج الذكاء الاصطناعي.
وقال كريستوفر مايرز، الباحث المشارك: "إن توقع أن يفهم الأطباء الذكاء الاصطناعي ويطبقونه بشكل مثالي عند اتخاذ القرارات السريرية يُشبه توقع أن يُصمّم الطيارون طائراتهم الخاصة أيضاً أثناء تحليقهم بها".
وأضاف: "لضمان تمكين الذكاء الاصطناعي للأطباء بدلاً من إرهاقهم، يتعين على منظمات الرعاية الصحية تطوير أنظمة دعم تساعد الأطباء على تحديد متى وكيف يستخدمون الذكاء الاصطناعي حتى لا يضطروا إلى التشكيك في الأدوات التي يستخدمونها لاتخاذ القرارات الرئيسية".