ما آثار أدوات الذكاء الاصطناعي على مستخدميها؟.. دراسة تحذر من الكسل والغباء
تاريخ النشر: 23rd, February 2025 GMT
أظهرت دراسة حديثة أن الاعتماد المستمر على أدوات الذكاء الاصطناعي قد يساهم في تقليص القدرات العقلية لدى مستخدميها، مما يعزز الخمول العقلي ويقلل من قدرة الأفراد على التفكير النقدي.
وشملت الدراسة التي أجرتها شركة "مايكروسوفت"، مطورة "كوبايلوت أيه.آي" وهي أنظمة الذكاء الاصطناعي، أكثر من 300 شخص يعملون في وظائف معرفية، وأكدت أن هؤلاء المستخدمين يميلون إلى اختيار الطريق الأسهل، مما يؤدي إلى انخفاض الجهد العقلي لديهم.
وأوضحت الدراسة التي ستعرض في "مؤتمر جمعية آلات الحوسبة" في مدينة يوكوهاما اليابانية الشهر المقبل، أن استخدام الذكاء الاصطناعي بشكل غير صحيح يمكن أن يؤدي إلى تدهور في القدرات المعرفية التي يحتاج المستخدمون إلى الحفاظ عليها.
وبينت الدراسة أنه بينما يتجه البعض إلى الاستعانة بأدوات الذكاء الاصطناعي في مهام بسيطة، فإنهم يتخلون عن المهام الأكثر تعقيدا مثل وضع الاستراتيجيات وحل المشكلات.
وأضاف فريق الدراسة المشترك من مايكروسوفت وجامعة كارنيجي ميلون، أن الذكاء الاصطناعي التوليدي، مثل "تشات جي.بي.تي" قد حول التفكير النقدي إلى مجرد التحقق من المعلومات، ما يجعل المستخدمين يركزون على دمج الإجابات وإدارة المهام بدلا من تطوير أفكار جديدة أو التفكير العميق.
وفي دراسة منفصلة، لفت باحثون من جامعة ستانفورد إلى أن استخدام الذكاء الاصطناعي بشكل متكرر يمكن أن يضر بجودة العمل لدى الموظفين ذوي الخبرة.
وأظهرت الدراسة أن الموظفين الأكثر خبرة، رغم إنجازهم لعدد أكبر من المهام، شهدوا تراجعا في جودة أعمالهم، بينما أظهر الموظفون الأقل خبرة إنتاجية أعلى وسرعة أكبر عند الاستعانة بالأدوات الذكية.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا دراسة الذكاء الاصطناعي دراسة تكنولوجيا الذكاء الاصطناعي المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی
إقرأ أيضاً:
من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
تُبشّر تقنيات الذكاء الاصطناعي المساعد بآفاقٍ واعدة لإحداث نقلة نوعية في الرعاية الصحية، من خلال مساعدة الأطباء في تشخيص المرضى وإدارتهم وعلاجهم. ومع ذلك، فإنّ التوجه الحالي لتطبيق الذكاء الاصطناعي المساعد قد يُفاقم التحديات المتعلقة بمنع الأخطاء وإرهاق الأطباء، بحسب موجز جديد أعده باحثون في جامعتي جون هوبكنز وتكساس.
ويُوضّح الموجز أنّ هناك توقعات متزايدة من الأطباء بالاعتماد على الذكاء الاصطناعي للحدّ من الأخطاء الطبية.
ومع ذلك، لم تُوضَع بعد قوانين ولوائح مناسبة لدعم الأطباء في اتخاذ قراراتهم المُوجّهة بالذكاء الاصطناعي، على الرغم من التبني المُكثّف لهذه التقنيات في مؤسسات الرعاية الصحية.
المسؤولية الطبيةووفق "مديكال إكسبريس"، يتوقع الباحثون أن المسؤولية الطبية ستعتمد على من يعتبره المجتمع مُخطئاً عند فشل التقنية أو ارتكابها خطأً، ما يُخضع الأطباء لتوقعاتٍ غير واقعية بمعرفة متى يجب تجاوز الذكاء الاصطناعي أو الثقة به.
ويُحذّر الباحثون من أنّ مثل هذا التوقع قد يزيد من خطر الإرهاق، وحتى الأخطاء بين الأطباء.
تفسير التقنياتوقالت شيفالي باتيل، الأستاذة المشاركة من جامعة تكساس: "كان الهدف من الذكاء الاصطناعي تخفيف العبء، ولكنه بدلاً من ذلك يُلقي بالمسؤولية على عاتق الأطباء، مُجبراً إياهم على تفسير تقنيات لا يستطيع حتى مُبتكروها شرحها بالكامل".
وأضافت: "هذا التوقع غير الواقعي يُولّد تردداً ويُشكّل تهديداً مباشراً لرعاية المرضى".
ويقترح الموجز الجديد استراتيجياتٍ لمؤسسات الرعاية الصحية لدعم الأطباء من خلال تحويل التركيز من الأداء الفردي إلى الدعم والتعلم التنظيمي، ما قد يُخفف الضغط على الأطباء ويُعزز نهجاً أكثر تعاوناً لدمج الذكاء الاصطناعي.
وقال كريستوفر مايرز، الباحث المشارك: "إن توقع أن يفهم الأطباء الذكاء الاصطناعي ويطبقونه بشكل مثالي عند اتخاذ القرارات السريرية يُشبه توقع أن يُصمّم الطيارون طائراتهم الخاصة أيضاً أثناء تحليقهم بها".
وأضاف: "لضمان تمكين الذكاء الاصطناعي للأطباء بدلاً من إرهاقهم، يتعين على منظمات الرعاية الصحية تطوير أنظمة دعم تساعد الأطباء على تحديد متى وكيف يستخدمون الذكاء الاصطناعي حتى لا يضطروا إلى التشكيك في الأدوات التي يستخدمونها لاتخاذ القرارات الرئيسية".