قبل 5 سنوات، إذا أخبرك أشد الناس تفاؤلًا بتطور الذكاء الاصطناعي، بأنه سيحل محل مهن عدة، بينها الطبيب، كنت ستعتبره دربًا من الخيال، قبل أن يحول أحد تطبيقات الذكاء الاصطناعي هذا الخيال إلى حقيقة على أرض الواقع، وفقًا لدراسة حديثة أكدت أن الذكاء الاصطناعي يشخص بعض الأمراض بدقة شديدة.

الذكاء الاصطناعي يهدد الأطباء 

الأمر لم يتعلق فقط بالتشخيص، لكن بثقة مستخدمي تلك البرامج، والاستعاضة بها عن الذهاب إلى الطبيب، فبحسب الدارسة التي نشرتها مجلة «فوربس»، أجريت على 2000 شخص بالغ في أمريكا، يعانون من مشكلات وأزمات صحية، فإن تطبيق «شات جي بي تي» قام بتشخيص أمراضهم بدقة شديدة.

وبحسب الدراسة، التي تؤكد قدرة التطبيق على تشخيص الأمراض، فإنه يساعد بالفعل على تشخيص الأمراض من خلال طرح عدد من الأسئلة حول أعراضه وتاريخه الطبي، ويقوم بعد ذلك بتحليل المعلومات المقدمة من المريض، وتقديم قائمة بالأمراض المحتملة.

الدراسة لم تتغافل دور الطبيب في تشخيص الأمراض والتدخل من أجل منح العلاج الأنسب، إذ أكدت أن تطبيق شات جي بي تي، يمكن أن يكون أداة مساعدة للأطباء في تشخيص جميع الحالات المرضية، لكنها ترى أنه يمكن استخدامه في المناطق التي لا يتوفر بها أطباء أو مستشفيات وخدمات طبية. 

توصية وتحذير للمرضى

توصي الدراسة باستخدام التطبيق جنبًا إلى جنب مع التشخيص من قبل الطبيب، لزيادة دقة التشخيص، حال توافر سبل الذهاب إلى الطبيب وعدم تجاهل تلك الخطوة خاصة في مرحلة الحصول على العلاج المناسب.

ورغم الدراسة التي تؤكد أهمية التطبيق، إلا أن شركة «أوبن إيه آي»، المطورة لـ«شات جي بي تي»، شددت على ضرورة عدم الاعتماد على التطبيق بشكل كبير في التشخيص الطبي، خاصة أن الأداة لم توفر معلومات طبية دقيقة بنسبة 100%، إذ أكد المتحدث على ضرورة عدم اعتماد الأداة كبديلاً للمشورة الطبية المتخصصة.

المصدر: الوطن

كلمات دلالية: أمريكا الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب

تابع أحدث الأخبار عبر تطبيق

في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.

ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
 

نقاط البحث الأساسية:

• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.

• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
 

الفرضية الأساسية للدراسة:

افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:

1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.

2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.

اختبار النماذج اللغوية الكبيرة:

• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.

• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.

• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.

نتائج البحث:

1. عدم الفهم الحقيقي للسياق

النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.

2. إجابات مضللة

أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.

3. الوهم الذكي

النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.

أمثلة توضيحية من البحث:

سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.

الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.

دلالات البحث:

• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.

• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.

التحديات المستقبلية:

• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.

• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.

• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.

مقالات مشابهة

  • دراسة: “ChatGPT” يتفوق على الأطباء في التشخيص
  • بيل غيتس يلقي محاضرة عن الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد في الحفاظ على الحشرات
  • الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
  • الذكاء الاصطناعي يهدد شركات الأزياء
  • رئيس الوزراء: مصر بالتصنيف «أ» دوليا في تطبيقات الذكاء الاصطناعي
  • تحذير.. غسل الشعر في صالونات التجميل يهدد بالسكتة الدماغية
  • كيف يواجه الذكاء الاصطناعي أزمة نقص الكوادر في الأمن السيبراني؟
  • دراسة: الذكاء الاصطناعي يكتب الشعر أفضل من البشر
  • كيف يهدد أسلوب الحياة المعاصر صحتنا؟