هل يستطيع الذكاء الاصطناعي التفكير مثلنا؟.. دراسة تكشف المفارقات!
تاريخ النشر: 2nd, April 2025 GMT
مع التقدم السريع في الذكاء الاصطناعي، أصبح من الواضح أن هذه الأنظمة قادرة على تنفيذ مهام معقدة مثل تحليل البيانات، وإنتاج النصوص، وتقديم استشارات قانونية. ومع ذلك، هل يمكن للذكاء الاصطناعي أن يفكر مثل البشر؟.. فنحن نعلم أن الذكاء الاصطناعي لا يستطيع التفكير بنفس طريقة الإنسان، لكن بحثاً جديداً كشف كيف يمكن لهذا الاختلاف أن يؤثر على عملية اتخاذ القرار لدى الذكاء الاصطناعي، مما يؤدي إلى عواقب واقعية قد لا يكون البشر مستعدين لها.
اقرأ أيضاً.. الذكاء الاصطناعي يحوّل الأفكار إلى كلام في الوقت الحقيقي
دراسة حديثة نُشرت في مجلة "Transactions on Machine Learning Research" كشفت أن هناك فجوة جوهرية في كيفية استدلال البشر مقارنة بالنماذج اللغوية الكبيرة (LLMs) مثل GPT-4. والاستدلال هو عملية استخراج جواب أو نتيجة بناء على معلومات معروفة مسبقاً وقد تكون صحيحة أو خاطئة.
فالبشر قادرون على التجريد والاستنتاج التناظري، بينما يعتمد الذكاء الاصطناعي بشكل أساسي على مطابقة الأنماط التي تعلمها، مما يؤدي إلى ضعف في قدرته على التكيف مع المواقف الجديدة.وفقاً لموقع "livescience".
بحثت الدراسة في مدى قدرة نماذج اللغة الكبيرة (LLMs) على تكوين تشبيهات. وتم اختبار قدرة النماذج اللغوية الكبيرة مثل GPT-4 على حل مشكلات التناظر في سلاسل الحروف.وجد الباحثون أنه في كل من تشبيهات سلسلة الأحرف البسيطة ومسائل المصفوفات الرقمية - كانت المهمة إكمال مصفوفة بتحديد الرقم المفقود - كان أداء البشر جيدًا، لكن أداء الذكاء الاصطناعي انخفض بشكل حاد.
لماذا يحدث هذا؟
تشير هذه النتائج إلى أن GPT-4 قد يعتمد بشكل كبير على أنماط محددة في بيانات تدريبه، مما يجعله أقل مرونة في التعامل مع مشكلات تتطلب استدلالاً تناظرياً عاماً. بالمقابل، يظهر البشر قدرة أفضل على تعميم الأنماط وتطبيقها في سياقات جديدة، حتى مع تغييرات في بنية المشكلة أو عند استخدام رموز غير مألوفة.
ما التداعيات؟
تُبرز هذه الفجوة أهمية تطوير نماذج ذكاء اصطناعي تتمتع بقدرات استدلال أكثر مرونة، خاصةً في التطبيقات التي تتطلب فهماً عميقًا وتكيفاً مع سياقات متنوعة. كما تؤكد الدراسة على ضرورة تقييم أداء هذه النماذج ليس فقط بناءً على دقتها، بل أيضاً على مدى قدرتها على التكيف مع تغييرات في المشكلات المطروحة.
لماذا يهمنا أن الذكاء الاصطناعي لا يفكر مثل البشر؟
أوضحت مارثا لويس، الأستاذة المساعدة في الذكاء الاصطناعي العصبي الرمزي بجامعة أمستردام، أن البشر لديهم قدرة فطرية على التجريد من الأنماط المحددة إلى قواعد أكثر عمومية، بينما يفتقر الذكاء الاصطناعي لهذه المهارة.
فالذكاء الاصطناعي بارع في مطابقة الأنماط التي رآها سابقاً لكنه لا يستطيع تعميمها بشكل فعال. على سبيل المثال، إذا درّبنا نموذجاً على عدد هائل من الأمثلة، فسيتمكن من التعرف على الأنماط المتكررة، لكنه لن يتمكن بالضرورة من اكتشاف القاعدة الأساسية وراء هذه الأنماط.
الكمية لا تعني الفهم
تعمل معظم تطبيقات الذكاء الاصطناعي على زيادة كمية البيانات لتصبح أكثر دقة، ولكن كما قالت لويس:
"الأمر لا يتعلق بكمية البيانات، بل بكيفية استخدامها".
لماذا علينا الاهتمام؟
إذا استمر الاعتماد على الذكاء الاصطناعي دون تحسين قدراته في التفكير المجرد، فقد يؤدي ذلك إلى مشكلات في: اتخاذ القرارات: قد يتعامل الذكاء الاصطناعي مع الحالات الجديدة بالطريقة نفسها التي تعامل بها مع حالات سابقة، من دون فهم التغيرات الجوهرية.
الأخلاقيات والتحيز: الذكاء الاصطناعي قد يكرر الأنماط الموجودة في البيانات من دون تحليل أعمق لسياقها وأخلاقياتها.
التطبيقات المتقدمة: مثل الرعاية الصحية، والقانون، والتعليم، حيث يلعب التجريد والاستدلال البشري دورًا أساسيًا.
ما الحل؟
نحتاج إلى تطوير نماذج ذكاء اصطناعي أكثر قدرة على التجريد والاستدلال، بحيث لا تكتفي بمقارنة الأنماط، بل تفهم المفاهيم الكامنة خلفها.
هل يمكن الوثوق بالذكاء الاصطناعي في القرارات القانونية؟
مع تزايد الاعتماد على الذكاء الاصطناعي في الأبحاث القانونية، وتحليل السوابق القضائية، وحتى التوصيات في الأحكام، تبرز مشكلة كبيرة بشأن قدرة الذكاء الاصطناعي المحدودة على إجراء المقارنات والاستدلال التناظري.
فعند التعامل مع القضايا القانونية، يعتمد القضاة والمحامون على مقارنة الحالات الجديدة بالسوابق القضائية. لكن بما أن الذكاء الاصطناعي يعتمد على مطابقة الأنماط بدلاً من فهم المبادئ القانونية الأساسية، فقد يفشل في التمييز بين الفروق الدقيقة في القضايا وتطبيق السوابق القانونية بشكل صحيح على حالات جديدة
وتقديم توصيات عادلة ومتسقة.
مثلاً: تخيل أن هناك سابقة قضائية لحالة تتعلق بالاحتيال الإلكتروني، ولكن القضية الجديدة تتضمن تقنيات جديدة لم تكن موجودة وقت صدور السابقة. البشر يمكنهم التفكير بشكل مرن لتطبيق القاعدة العامة، لكن الذكاء الاصطناعي قد يعجز عن الربط بين الحالتين بسبب الاختلافات الظاهرية.
اقرأ أيضاً..الذكاء الاصطناعي يتقن الخداع!
الدراسة أكدت أن تقييم الذكاء الاصطناعي لا يجب أن يقتصر على الدقة فقط، بل يجب أن يشمل قدرته على التكيف والاستدلال العميق. أي أننا بحاجة إلى نماذج أكثر ذكاءً واستقلالية في التفكير، وليس مجرد أدوات لحفظ البيانات واسترجاعها..بحيث لا يمكننا الاعتماد بالكامل على الذكاء الاصطناعي في القرارات القانونية دون تطويره ليكون أكثر قدرة على تحليل القواعد وتطبيقها بمرونة. حتى ذلك الحين، يجب أن يكون دوره داعماً وليس حاسماً.
لمياء الصديق (أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: التكنولوجيا المتقدمة الذكاء الاصطناعي الذكاء الذکاء الاصطناعی
إقرأ أيضاً:
كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟
اعتاد الصحفي بن بلاك نشر قصة كاذبة في الأول من أبريل/نيسان من كل عام على موقعه الإخباري المحلي "كومبران لايف" (Cwmbran Life)، ولكنه صُدم عندما اكتشف أن الذكاء الاصطناعي الخاص بغوغل يعتبر الأكاذيب التي كتبها حقيقة ويظهرها في مقدمة نتائج البحث، وفقا لتقرير نشره موقع "بي بي سي".
وبحسب التقرير فإن بلاك البالغ من العمر 48 عاما بدأ بنشر قصصه الزائفة منذ عام 2018، وفي عام 2020 نشر قصة تزعم أن بلدة كومبران في ويلز سُجلت في موسوعة غينيس للأرقام القياسية لامتلاكها أكبر عدد من الدوارات المرورية لكل كيلومتر مربع.
ورغم أنه عدل صياغة المقال في نفس اليوم ولكن عندما بحث عنه في الأول من أبريل/نيسان، صُدم وشعر بالقلق عندما رأى أن معلوماته الكاذبة تستخدمها أداة الذكاء الاصطناعي من غوغل وتقدمها للمستخدمين على أنها حقيقة.
يُذكر أن بلاك قرر كتابة قصص كاذبة في يوم 1 أبريل/نيسان من كل عام بهدف المرح والتسلية، وقال إن زوجته كانت تساعده في إيجاد الأفكار، وفي عام 2020 استلهم فكرة قصته من كون كومبران بلدة جديدة حيث يكون ربط المنازل بالدوارات من أسهل طرق البناء والتنظيم.
وقال بلاك: "اختلقت عددا من الدوارات لكل كيلومتر مربع، ثم أضفت اقتباسا مزيفا من أحد السكان وبعدها ضغطت على زر نشر، ولقد لاقت القصة استحسانا كبيرا وضحك الناس عليها".
إعلانوبعد ظهر ذلك اليوم أوضح بلاك أن القصة كانت عبارة عن "كذبة نيسان" وليست خبرا حقيقيا، ولكن في اليوم التالي شعر بالانزعاج عندما اكتشف أن موقعا إخباريا وطنيا نشر قصته دون إذنه، ورغم محاولاته في إزالة القصة فإنها لا تزال منشورة على الإنترنت.
وقال بلاك: "لقد نسيت أمر هذه القصة التي مر عليها 5 سنوات، ولكن عندما كنت أبحث عن القصص السابقة في يوم كذبة نيسان من هذا العام، تفاجأت بأن أداة غوغل للذكاء الاصطناعي وموقعا إلكترونيا لتعلم القيادة يستخدمان قصتي المزيفة ويظهران أن كومبران لديها أكبر عدد للدوارات المرورية في العالم".
وأضاف "إنه لمن المخيف حقا أن يقوم شخص ما في أسكتلندا بالبحث عن الطرق في ويلز باستخدام غوغل ويجد قصة غير حقيقية" (..) "إنها ليست قصة خطيرة ولكن الخطير حقا هو كيف يمكن للأخبار الكاذبة أن تنتشر بسهولة حتى لو كانت من مصدر إخباري موثوق، ورغم أنني غيرتها في نفس اليوم فإنها لا تزال تظهر على الإنترنت -فالإنترنت يفعل ما يحلو له- إنه أمر جنوني".
ويرى بلاك أن الذكاء الاصطناعي أصبح يشكل تهديدا للناشرين المستقلين، حيث تستخدم العديد من الأدوات محتواهم الأصلي دون إذن وتعيد تقديمه بأشكال مختلفة ليستفيد منها المستخدمون، وهذا قد يؤثر سلبا على زيارات مواقعهم.
وأشار إلى أن المواقع الإخبارية الكبرى أبرمت صفقات وتعاونت مع شركات الذكاء الاصطناعي، وهو أمر غير متاح له كناشر مستقل.
ورغم أن بلاك لم ينشر قصة كاذبة هذا العام بسبب انشغاله، فإن هذه التجربة أثرت عليه وجعلته يقرر عدم نشر أي قصص كاذبة مرة أخرى.