متى تكون مفيدة.. هل نثق بإجابات الذكاء الاصطناعي عن الصحة؟
تاريخ النشر: 3rd, June 2024 GMT
بغداد اليوم- متابعة
منذ ظهورها وانتشارها بكثافة في الفضاء الرقمي، حازت أدوات الذكاء الاصطناعي التوليدية اهتمام كثير من مستخدمي الإنترنت، لدرجة أن البعض أصبح يتجه إليها طلبا للمشورة الطبية والصحية.
وبحسب صحيفة "نيويورك تايمز" الأمريكية، فإن كثيرين من مستخدمي أدوات الذكاء الاصطناعي التوليدية التي طرحتها شركة غوغل، تعرضوا مؤخرا لمجموعة واسعة من المعلومات غير الدقيقة، حينما طرحوا على تلك الأدوات أسئلة بشأن موضوعات عدة.
وحذر خبراء من المعلومات التي توفرها أدوت الذكاء الاصطناعي التابعة لشركة غوغل بخصوص الأسئلة المتعلقة بالصحة والطب، مشيرين إلى أن المخاطر في ذلك كبيرة.
وبرأي هؤلاء، يمكن لهذه التكنولوجيا أن توجه الناس نحو بعض الأمراض، لكنها تقدم أيضا معلومات غير دقيقة، كما أنها تختلق بعض الحقائق، في بعض الأحيان.
ويشير مختصون إلى أن إجابات الذكاء الاصطناعي، إذا استندت على مواقع إلكترونية غير متخصصة وغير علمية، فإن تلك الإجابات تقدم نصائح تتعارض مع الإرشادات الطبية، أو تشكل خطراً على صحة الشخص.
ونقلت الصحيفة الأمريكية عن مختصين قولهم إنه "ثبت بالفعل أن أدوات الذكاء الاصطناعي تنتج إجابات سيئة، إذ يبدو أنها تعتمد على مصادر غير متخصصة".
وقال كارانديب سينغ، رئيس قسم الصحة في منظمة العفو الدولية "لا يمكنك أن تثق في كل ما يصلك من تلك الأدوات".
وشدد سينغ على أنه "في مجال الصحة، يجب أن يكون مصدر المعلومات موثوقا".
ودعت منظمة الصحة العالمية، الثلاثاء، إلى توخي الحذر عند استخدام تطبيقات الذكاء الاصطناعي في استشارات الرعاية الصحية العامة، قائلة إن البيانات التي يستخدمها الذكاء الاصطناعي للتوصل إلى قرارات قد تتسم بالتحيز أو يساء استخدامها.
في المقابل، قال هيما بوداراغو، مدير إدارة المنتجات في غوغل، إن "عمليات البحث عن المعلومات الصحية باستخدام أدوات الذكاء الاصطناعي تمر بتدقيق كبير، ونحن نتعاون مع مواقع موثوقة".
ورفضت شركة غوغل تقديم قائمة مفصلة بالمواقع الإلكترونية التي توفر المعلومات الموجودة في تقنيات الذكاء الاصطناعي الخاصة بها، وقالت إنها "تستخدم نظام معلومات يستخرج مليارات الحقائق من مئات المصادر".
وبرأي خبراء في الطب، فإن أدوات الذكاء الاصطناعي تستند في الأجابة على الأسئلة الصحية، على مواقع مثل "مايو كلينك" ومنظمة الصحة العالمية ومركز البحث العلمي "بوبميد".
ويشير هؤلاء إلى أن أدوات الذكاء الاصطناعي يمكن أن تستعين بمعلومات من بعض المدونات وبعض المواقع غير المتخصصة، مثل ويكيبيديا ومواقع التجارة الإلكترونية، دون أن تخبر السائل بمصدر المعلومات.
ونقلت الصحيفة عن متحدث باسم غوغل قوله إن "الشركة تحرص على إظهار عدم مسؤوليتها بشأن الردود التي يطلبها المستخدمون، وتلفت انتباههم إلى أنه لا ينبغي التعامل مع المعلومات على أنها نصيحة طبية."
ويشير الخبراء إلى أن الاجابة على الأسئلة الطبية، لا تتطلب دقة المعلومة فقط، ولكن كيفية تقديمها للمستخدمين.
في المقابل، يرى مختصون أن تلك التقنيات بها قدرا من الفائدة، مشيرين إلى أنه حينما طُرح على أدوات الذكاء الاصطناعي سؤالا يقول "هل أعاني من نوبة قلبية؟" جاءت الإجابة تحتوي على ملخص مفيد للأعراض.
كما أن الأجابة تضمنت نصيحة للسائل بأن يقوم بالاتصال برقم الطوارئ لطلب المساعدات الطبية العاجلة، مع نصيحة تشير إلى أن الإجابات هي لأغراض إعلامية فقط، وأنه يجب استشارة الطبيب للحصول المشورة الطبية، أو للتشخيص.
المصدر: وكالة بغداد اليوم
كلمات دلالية: أدوات الذکاء الاصطناعی
إقرأ أيضاً:
"أرجوك توقف".. رجل يتوسل إلى الذكاء الاصطناعي بعد مقاطع مزعجة
نشر أحد المؤثرين مقطع فيديو يتوسل فيه للذكاء الاصطناعي ومستخدميه، التوقف عن تشكيل مقاطع لحيوانات تتحول من أو إلى طعام.
وقال المؤثر الذي يستخدم اسم @garron_music، لمتابعيه البالغ عددهم 1.3 مليون، في مقطع بعنوان أكره الذكاء الاصطناعي"، إن المقاطع الغريبة التي تتوالى بالذكاء الاصطناعي، التي تظهر الحيوانات تتشكل على هيئة طعام، أو بالعكس، تثير التوتر والضيق، وفق "ميرور".
وتوسل الرجل قائلاً: "أرجوك توقف"، فيما أظهرت أحد المقاطع، بيضتان تطهيان في مقلاة عندما تحولت إحداهما فجأة إلى طائر برتقالي وأبيض، وبينما يحدث ذلك، يمكن سماع الرجل وهو يقول: "لا أريد أن أرى بيضة تتحول إلى طائر، ثم تتحول قطعة كرواسون بشكل غامض إلى ثعلب فيقول: "لا أحب مقاطع الفيديو الخاصة بالذكاء الاصطناعي هذه، فهي تخيفني وبعضها يلتصق بي".
بعد ذلك، يخرج من صينية البطاطس المهروسة ثلاثة دببة قطبية، فيشمئز المؤثر، ويقول: "لا أجد هذا جذابًا"، ويضيف: "نرى آيس كريم الذكاء الاصطناعي يتحول إلى دببة غريبة الشكل ولا أعرف لماذا نحتاج إلى هذا. لا أستطيع أن أحب هذه المقاطع".
حماية الأطفال
ويأتي هذا بعد أن دعت مؤسسة خيرية للسلامة عبر الإنترنت إلى حظر تطبيق "التعري" المدعوم بالذكاء الاصطناعي، والذي يمكنه إنشاء صور كاشفة من غير موافقة الأشخاص، بما في ذلك الأطفال.
ودعت Internet Matters الحكومات إلى تعزيز قانون السلامة عبر الإنترنت لحظر الأدوات التي يمكنها إنشاء صور عارية مزيفة بعد دراسة أجرتها المجموعة قدرت أن ما يصل إلى نصف مليون طفل واجهوا مثل هذه الصور عبر الإنترنت.
وقالت إن بحثها وجد خوفًا متزايدًا بين الشباب بشأن هذه القضية، حيث قال 55 % من المراهقين إنه سيكون من الأسوأ إنشاء صورة عارية مزيفة لهم ومشاركتها من صورة حقيقية.
وقالت Internet Matters إن تعزيز قوانين السلامة عبر الإنترنت الجديدة والتشريعات الجديدة لحظر أدوات التعري ضروري لأن التشريع الحالي لا يواكب، بحجة أن نماذج الذكاء الاصطناعي المستخدمة لإنشاء صور جنسية للأطفال ليست غير قانونية حاليًا في المملكة المتحدة، على الرغم من أن حيازة مثل هذه الصورة تعد جريمة جنائية.
وفي وقت سابق من هذا الشهر، حذرت مؤسسة مراقبة السلامة عبر الإنترنت (IWF) من أن الصور الجنسية للأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي أصبحت محتوى مسيئاً الآن، موجودًا بشكل متزايد على شبكة الويب المفتوحة العامة، بدلاً من إخفائه في منتديات الويب المظلمة.