مع التقدم السريع في الذكاء الاصطناعي، أصبح من الواضح أن هذه الأنظمة قادرة على تنفيذ مهام معقدة مثل تحليل البيانات، وإنتاج النصوص، وتقديم استشارات قانونية. ومع ذلك، هل يمكن للذكاء الاصطناعي أن يفكر مثل البشر؟.. فنحن نعلم أن الذكاء الاصطناعي لا يستطيع التفكير بنفس طريقة الإنسان، لكن بحثاً جديداً كشف كيف يمكن لهذا الاختلاف أن يؤثر على عملية اتخاذ القرار لدى الذكاء الاصطناعي، مما يؤدي إلى عواقب واقعية قد لا يكون البشر مستعدين لها.

اقرأ أيضاً.. الذكاء الاصطناعي يحوّل الأفكار إلى كلام في الوقت الحقيقي
 دراسة حديثة نُشرت في مجلة "Transactions on Machine Learning Research"  كشفت أن هناك فجوة جوهرية في كيفية استدلال البشر مقارنة بالنماذج اللغوية الكبيرة (LLMs) مثل GPT-4. والاستدلال هو عملية استخراج جواب أو نتيجة بناء على معلومات معروفة مسبقاً وقد تكون صحيحة أو خاطئة.
 فالبشر قادرون على التجريد والاستنتاج التناظري، بينما يعتمد الذكاء الاصطناعي بشكل أساسي على مطابقة الأنماط التي تعلمها، مما يؤدي إلى ضعف في قدرته على التكيف مع المواقف الجديدة.وفقاً لموقع "livescience".

بحثت الدراسة في مدى قدرة نماذج اللغة الكبيرة (LLMs) على تكوين تشبيهات. وتم اختبار قدرة النماذج اللغوية الكبيرة مثل GPT-4 على حل مشكلات التناظر في سلاسل الحروف.وجد الباحثون أنه في كل من تشبيهات سلسلة الأحرف البسيطة ومسائل المصفوفات الرقمية - كانت المهمة إكمال مصفوفة بتحديد الرقم المفقود - كان أداء البشر جيدًا، لكن أداء الذكاء الاصطناعي انخفض بشكل حاد.
لماذا يحدث هذا؟
تشير هذه النتائج إلى أن GPT-4 قد يعتمد بشكل كبير على أنماط محددة في بيانات تدريبه، مما يجعله أقل مرونة في التعامل مع مشكلات تتطلب استدلالاً تناظرياً عاماً. بالمقابل، يظهر البشر قدرة أفضل على تعميم الأنماط وتطبيقها في سياقات جديدة، حتى مع تغييرات في بنية المشكلة أو عند استخدام رموز غير مألوفة.
ما التداعيات؟
تُبرز هذه الفجوة أهمية تطوير نماذج ذكاء اصطناعي تتمتع بقدرات استدلال أكثر مرونة، خاصةً في التطبيقات التي تتطلب فهماً عميقًا وتكيفاً مع سياقات متنوعة. كما تؤكد الدراسة على ضرورة تقييم أداء هذه النماذج ليس فقط بناءً على دقتها، بل أيضاً على مدى قدرتها على التكيف مع تغييرات في المشكلات المطروحة.
لماذا يهمنا أن الذكاء الاصطناعي لا يفكر مثل البشر؟
أوضحت مارثا لويس، الأستاذة المساعدة في الذكاء الاصطناعي العصبي الرمزي بجامعة أمستردام، أن البشر لديهم قدرة فطرية على التجريد من الأنماط المحددة إلى قواعد أكثر عمومية، بينما يفتقر الذكاء الاصطناعي لهذه المهارة.

فالذكاء الاصطناعي بارع في مطابقة الأنماط التي رآها سابقاً لكنه لا يستطيع تعميمها بشكل فعال. على سبيل المثال، إذا درّبنا نموذجاً على عدد هائل من الأمثلة، فسيتمكن من التعرف على الأنماط المتكررة، لكنه لن يتمكن بالضرورة من اكتشاف القاعدة الأساسية وراء هذه الأنماط.
الكمية لا تعني الفهم
تعمل معظم تطبيقات الذكاء الاصطناعي على زيادة كمية البيانات لتصبح أكثر دقة، ولكن كما قالت لويس:
"الأمر لا يتعلق بكمية البيانات، بل بكيفية استخدامها".

أخبار ذات صلة مايكروسوفت".. قصة نجاح من الحوسبة إلى الذكاء الاصطناعي والسحابة شاهد.. روبوتات تمشي بثبات وتفتح آفاق التعاون بين والذكاء الاصطناعي والبشر

 لماذا علينا الاهتمام؟
إذا استمر الاعتماد على الذكاء الاصطناعي دون تحسين قدراته في التفكير المجرد، فقد يؤدي ذلك إلى مشكلات في: اتخاذ القرارات: قد يتعامل الذكاء الاصطناعي مع الحالات الجديدة بالطريقة  نفسها التي تعامل بها مع حالات سابقة، من دون فهم التغيرات الجوهرية.
الأخلاقيات والتحيز: الذكاء الاصطناعي قد يكرر الأنماط الموجودة في البيانات من دون تحليل أعمق لسياقها وأخلاقياتها.
 التطبيقات المتقدمة: مثل الرعاية الصحية، والقانون، والتعليم، حيث يلعب التجريد والاستدلال البشري دورًا أساسيًا.
ما الحل؟
نحتاج إلى تطوير نماذج ذكاء اصطناعي أكثر قدرة على التجريد والاستدلال، بحيث لا تكتفي بمقارنة الأنماط، بل تفهم المفاهيم الكامنة خلفها.
هل يمكن الوثوق بالذكاء الاصطناعي في القرارات القانونية؟
مع تزايد الاعتماد على الذكاء الاصطناعي في الأبحاث القانونية، وتحليل السوابق القضائية، وحتى التوصيات في الأحكام، تبرز مشكلة كبيرة بشأن قدرة الذكاء الاصطناعي المحدودة على إجراء المقارنات والاستدلال التناظري.
فعند التعامل مع القضايا القانونية، يعتمد القضاة والمحامون على مقارنة الحالات الجديدة بالسوابق القضائية. لكن بما أن الذكاء الاصطناعي يعتمد على مطابقة الأنماط بدلاً من فهم المبادئ القانونية الأساسية، فقد يفشل في التمييز بين الفروق الدقيقة في القضايا وتطبيق السوابق القانونية بشكل صحيح على حالات جديدة
وتقديم توصيات عادلة ومتسقة.

مثلاً: تخيل أن هناك سابقة قضائية لحالة تتعلق بالاحتيال الإلكتروني، ولكن القضية الجديدة تتضمن تقنيات جديدة لم تكن موجودة وقت صدور السابقة. البشر يمكنهم التفكير بشكل مرن لتطبيق القاعدة العامة، لكن الذكاء الاصطناعي قد يعجز عن الربط بين الحالتين بسبب الاختلافات الظاهرية.
اقرأ أيضاً..الذكاء الاصطناعي يتقن الخداع!
الدراسة أكدت أن تقييم الذكاء الاصطناعي لا يجب أن يقتصر على الدقة فقط، بل يجب أن يشمل قدرته على التكيف والاستدلال العميق. أي أننا بحاجة إلى نماذج أكثر ذكاءً واستقلالية في التفكير، وليس مجرد أدوات لحفظ البيانات واسترجاعها..بحيث لا يمكننا الاعتماد بالكامل على الذكاء الاصطناعي في القرارات القانونية دون تطويره ليكون أكثر قدرة على تحليل القواعد وتطبيقها بمرونة. حتى ذلك الحين، يجب أن يكون دوره داعماً وليس حاسماً.
لمياء الصديق (أبوظبي)


 

المصدر: صحيفة الاتحاد

كلمات دلالية: التكنولوجيا المتقدمة الذكاء الاصطناعي الذكاء الذکاء الاصطناعی

إقرأ أيضاً:

دراسة عالمية تكشف خطرا حقيقيا للأطعمة فائقة المعالجة

ربطت دراسة حديثة بين أكثر من 124 ألف حالة وفاة مبكرة يمكن الوقاية منها في الولايات المتحدة على مدار عامين، وبين الآثار الصحية الضارة الناجمة عن استهلاك الأطعمة فائقة المعالجة.

وقاد الدراسة باحثون برازيليون، وحللوا بيانات استهلاك الأطعمة فائقة المعالجة من عدة دول، بما في ذلك الولايات المتحدة والمملكة المتحدة وأستراليا والبرازيل وكندا وكولومبيا وتشيلي والمكسيك.

ولحساب التأثير، طور المؤلفون تقييما مقارنا للمخاطر، فحصوا فيه العلاقة بين نسبة الأطعمة فائقة المعالجة في النظام الغذائي ومعدل الوفيات لجميع الأسباب في كل دولة.

وباستخدام نموذج إحصائي، قدروا نسبة الوفيات المبكرة القابلة للوقاية المرتبطة باستهلاك هذه الأطعمة.

واستندت نتائجهم إلى بيانات مستخلصة من دراسات دولية متعددة ومن تقرير "العبء العالمي للأمراض" لعام 2021، وفقا لما ذكره المؤلف الرئيسي "إدواردو إيه. إف. نيلسون"، الباحث في مجال التغذية بجامعة ساو باولو.

وأظهرت النتائج أن نسبة الوفيات المبكرة المرتبطة بالأطعمة فائقة المعالجة تراوحت بين نحو 4% في الدول ذات الاستهلاك المنخفض، إلى ما يقرب من 14% في الدول ذات الاستهلاك المرتفع مثل الولايات المتحدة وبريطانيا.

وفي الولايات المتحدة وحدها، ارتبط ما يقرب من 125 ألف حالة وفاة مبكرة خلال عامي 2017 و2018 باستهلاك الأطعمة فائقة المعالجة. وفي البرازيل، تجاوز عدد الوفيات المرتبطة بها 25 ألف حالة خلال نفس الفترة.

كما قدرت الدراسة، التي نُشرت في مجلة "أميركان جورنال برفينتاتيف مديسين"، أن بريطانيا سجلت أكثر من 17 ألف حالة وفاة مرتبطة بالأطعمة المعالجة بين عامي 2018 و2019، بينما سجلت المكسيك نحو 17 ألف حالة في عام 2016. كما سجلت كندا أكثر من 7700 حالة وفاة من هذا النوع في 2016، وأستراليا 3277 حالة، وكولومبيا 2813 حالة في 2015، وتشيلي 1874 حالة في 2010.

ووجد الباحثون أن كل زيادة بنسبة 10% في استهلاك الأطعمة المعالجة مثل الخبز والكعك والوجبات الجاهزة، ترفع خطر الوفاة قبل سن 75 عاما بنسبة 3%.

وأشار نيلسون، الذي يعمل أيضا مع مؤسسة أوزوالدو كروز في البرازيل، إلى أن المخاطر الصحية لا تعود فقط إلى المحتوى العالي من الدهون والملح والسكر في هذه الأطعمة، بل أيضا إلى الإضافات مثل المحليات والنكهات الاصطناعية.

كما لاحظ الباحثون أن معدلات الوفاة كانت أعلى في الدول التي يعتمد فيها السكان على نسبة أكبر من مدخولهم اليومي للطاقة من الأطعمة فائقة المعالجة.

وتضيف هذه النتائج إلى الأدلة المتزايدة التي تربط استهلاك الأطعمة فائقة المعالجة بزيادة خطر الإصابة بأمراض معينة مثل السرطان وأمراض القلب، بالإضافة إلى ارتفاع خطر الوفاة المبكرة بشكل عام.

ومع ذلك، تجدر الإشارة إلى أن الدراسة وجدت علاقة ارتباطية فقط، وليس علاقة سببية مؤكدة، بين استهلاك هذه الأطعمة والوفاة المبكرة.

مقالات مشابهة

  • خبراء يحذِّرون: الذكاء الاصطناعي يجعل البشر أغبياء
  • وزارة الدفاع تكشف استخدام تكتيكات جديدة اصابت ترومان بشكل مباشر
  • دراسة تكشف: كل قضمة من الأطعمة فائقة المعالجة تزيد من خطر الوفاة المبكرة
  • دراسة حديثة تكشف خطراً حقيقياً للأطعمة فائقة المعالجة
  • دراسة تكشف: الأطعمة المعالجة بشكل مفرط قد تزيد من خطر الوفاة المبكرة
  • دراسة عالمية تكشف خطرا حقيقيا للأطعمة فائقة المعالجة
  • ‫دراسة تكشف طريقة تزيد فرص الشفاء من داء السكري
  • “عراب الذكاء الاصطناعي” يثير القلق برؤيته حول سيطرة التكنولوجيا على البشرية
  • نيويورك تايمز: إسرائيل استخدمت الذكاء الاصطناعي بشكل واسع في حرب غزة
  • اللغويات وتجربة دراسة اللهجات في سلطنة عمان قصة عمرها أكثر ٤ عقود