كشفت دراسة جديدة أجراها باحثون في جامعة كاليفورنيا، سان دييغو أن أحدث نماذج الذكاء الاصطناعي، GPT‑4.5 من OpenAI وLlama‑3.1‑405B من Meta، تمكّنا من اجتياز اختبار تورينغ ثلاثي الأطراف تحت ظروف معينة، وهو ما يعيد طرح الأسئلة حول مدى اقتراب الذكاء الاصطناعي من التفكير البشري.

ووفقاً لنتائج الدراسة، أخطأ المحققون في تمييز الآلة عن الإنسان خلال جلسات محادثة استمرت لمدة 5 دقائق، حيث تم اعتبار GPT‑4.

5 في 73% من الحالات هو "الإنسان"، مقارنة بالشخص البشري الحقيقي، وفق "إنترستينغ إنجينيرينغ".

هذا الإنجاز تم بفضل استخدام مُوجِّه استراتيجي يُعرف باسم "PERSONA"، يُزوّد النموذج بشخصية افتراضية مليئة بالتفاصيل اليومية والعاطفية، ما يجعل تفاعله أكثر واقعية.

أما نموذج Llama‑3.1‑405B، فنجح هو الآخر في خداع المحققين بنسبة 56% عند توجيهه لشخصية معينة، في حين حقق النموذج المرجعي GPT‑4o نسبة لا تتجاوز 21% باستخدام تعليمات بسيطة فقط.

ووفقاً للباحث الرئيسي كاميرون جونز، حقق  GPT‑4.5، باستخدام مُوجِّه "PERSONA" الاستراتيجي، نسبة نجاح بلغت 73% ، مما يعني أنه في جلسات الدردشة التي استمرت خمس دقائق، تم التعرف على نظام الذكاء الاصطناعي على أنه الإنسان أكثر من الإنسان نفسه.

وبحسب كاميرون جونز، فإن الأداء المذهل للنماذج اللغوية لا يعود فقط إلى تطورها التقني، بل إلى مدى قدرة النموذج على تبني "هوية" كاملة، تُضفي على المحادثة طابعاً بشرياً مقنعاً، يشمل الحديث عن العلاقات والمشاعر واليوميات.

وعند إزالة هذه "الشخصيات الافتراضية"، تراجع أداء GPT‑4.5 إلى 36%، مما يؤكد أن التخصيص عامل حاسم في قدرة الذكاء الاصطناعي على تجاوز الاختبار.

هل اختبار تورينغ لا يزال معياراً فعّالًا؟

يهدف اختبار تورينغ، الذي وضعه العالم البريطاني آلان تورينغ عام 1950، لقياس قدرة الآلة على "التفكير" عبر محاكاة المحادثة مع البشر.

فإذا فشل الشخص في التمييز بين الإنسان والآلة خلال المحادثة النصية، فإن الآلة تعتبر قد نجحت في "لعبة المحاكاة".

لكن مع تطور التكنولوجيا، بات هذا المعيار محل شك، إذ يرى نقّاد أن الاختبار بات يقيس قدرتنا على تصديق المحاكاة أكثر من كونه مقياساً دقيقاً للوعي أو الذكاء الحقيقي.

 محاكاة أم ذكاء؟

ورغم الإنجاز التقني اللافت، يبقى السؤال الأهم مطروحاً: هل هذه النماذج "تفكر" حقاً؟، أم أنها فقط تحاكي السلوك البشري ببراعة، بفضل قواعد بيانات ضخمة ونماذج مطابقة أنماط معقدة؟

الدراسة تُظهر أن الذكاء الاصطناعي بات يقترب من اجتياز واحد من أقدم تحديات الفكر البشري، لكنها في الوقت ذاته تُسلّط الضوء على حدود هذا الإنجاز، وتعيد طرح الأسئلة الفلسفية الكبرى حول طبيعة "الذكاء" و"الوعي".

وسيبرز السؤال، هل تُقنعنا روبوتات الدردشة البليغة بسهولة بالغة، أم أن نماذج الذكاء الاصطناعي قد تجاوزت بالفعل عتبةً مُميزة من التفكير الحسابي؟.

خلاصة

بينما يُواصل الذكاء الاصطناعي تقدمه بخطى متسارعة، يبدو أن اجتياز اختبار تورينغ لم يعد مجرد إنجاز تقني، بل أصبح مرآة تعكس قدرتنا كبشر على التفاعل مع آلة تتحدث لغتنا، بل وتُجيد خداعنا أحياناً.

المصدر: موقع 24

كلمات دلالية: حرب ترامب التجارية وقف الأب عام المجتمع اتفاق غزة إيران وإسرائيل غزة وإسرائيل الإمارات الحرب الأوكرانية تكنولوجيا الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟

كشف تقرير نشرته صحيفة "نيويورك تايمز"، عن مدى توغل التكنولوجيا المتقدمة، وخاصة الذكاء الاصطناعي، في العمليات العسكرية الإسرائيلية خلال حربها المستمرة على قطاع غزة.

وأوضح التقرير الذي ترجمته "عربي21"، أن الاحتلال الإسرائيلي اعتمد بشكل متزايد على أدوات وتقنيات الذكاء الاصطناعي لتحقيق تفوق نوعي في ميدان المعركة، وهو ما أدى في بعض الأحيان إلى نتائج قاتلة طالت المدنيين.

وأشار التقرير إلى أن أبرز مثال على هذا الاستخدام جاء في أواخر عام 2023، عندما حاولت القوات الإسرائيلية اغتيال إبراهيم البياري، أحد القادة البارزين في حركة حماس. ونظراً لصعوبة تحديد مكانه الفعلي، نظراً لاحتمال اختبائه في شبكة الأنفاق المنتشرة تحت غزة، لجأ جيش الاحتلال الإسرائيلي إلى تقنية تحليل صوتي مدعومة بالذكاء الاصطناعي، كانت قد طُورت قبل نحو عقد من الزمن لكنها لم تُستخدم في ساحات القتال من قبل.

وبحسب مصادر أمريكية وإسرائيلية مطلعة تحدثت للصحيفة، فقد تولى مهندسون في الوحدة 8200، المكافئة الإسرائيلية لوكالة الأمن القومي الأمريكية، تطوير الأداة ودمجها بتقنيات ذكاء اصطناعي متقدمة.

وتم تحليل مكالمات البياري، واعتمادا على تلك البيانات الصوتية، قامت قوات الاحتلال الإسرائيلي بشن غارة جوية في 31 تشرين الأول/أكتوبر 2023 استهدفت الموقع المشتبه به. غير أن الغارة، التي فشلت في قتل البياري، أسفرت عن استشهاد 125 مدنيا، بحسب منظمة "إيروورز" المعنية بتوثيق ضحايا الحروب.

ويمثل هذا الهجوم، وفق التقرير، نموذجاً مصغراً لطريقة استخدام إسرائيل لتقنيات الذكاء الاصطناعي في حربها ضد غزة، حيث دمجت هذه التقنيات بمجالات متعددة تشمل التعرف على الوجوه، وتحليل البيانات النصية، وتحديد الأهداف العسكرية المحتملة. وقد أشارت مصادر الصحيفة إلى أن عمليات تطوير هذه الأدوات جرت عبر تعاون وثيق بين ضباط الوحدة 8200 وعدد من جنود الاحتياط العاملين في شركات تكنولوجية كبرى مثل غوغل، مايكروسوفت، وميتا.


وتحدث التقرير عن إنشاء ما يعرف بـ"الاستوديو"، وهو مركز ابتكار تابع للوحدة 8200، يهدف إلى تسريع إنتاج وتطبيق أدوات الذكاء الاصطناعي في العمليات العسكرية. وبيّن أن نشر هذه الترسانة التكنولوجية أدى أحياناً إلى نتائج كارثية، منها أخطاء في تحديد الهوية، واعتقالات عشوائية، بل ووقوع ضحايا مدنيين، وهو ما أثار تساؤلات أخلاقية لدى مسؤولين عسكريين إسرائيليين وأمريكيين على حد سواء.

وفي هذا السياق، قالت هاداس لوربر، المديرة السابقة لمجلس الأمن القومي الإسرائيلي ورئيسة معهد الأبحاث التطبيقية في الذكاء الاصطناعي، إن "وتيرة الابتكار تسارعت تحت وطأة الحاجة الملحة للرد على التهديدات"، مشيرة إلى أن هذه الابتكارات التقنية منحت الجيش الإسرائيلي "مزايا استراتيجية"، لكنها "أثارت أيضاً قضايا أخلاقية جوهرية تتطلب وجود ضوابط صارمة".

ورغم امتناع جيش الاحتلال الإسرائيلي عن التعليق المباشر على هذه التقنيات لأسباب تتعلق بالسرية، إلا أن مصادر التقرير كشفت أن الجيش أطلق تحقيقاً داخلياً في الغارة التي استهدفت البياري. أما شركات التكنولوجيا التي ذُكر أن موظفيها شاركوا في هذه الجهود ضمن صفوف جنود الاحتياط، فقد رفض معظمها التعليق، بينما قالت شركة غوغل إن مشاركة موظفيها "لا علاقة لها بمهامهم داخل الشركة".

ويذكر التقرير أن الاحتلال الإسرائيلي دأب على استغلال الحروب، خاصة في غزة ولبنان، كمنصات لاختبار وتطوير قدراتها التكنولوجية، مثل الطائرات بدون طيار، وأدوات اختراق الهواتف، ونظام الدفاع الصاروخي "القبة الحديدية". 

ومنذ  7 تشرين الأول/ أكتوبر، فتح الاحتلال المجال أمام استخدام واسع النطاق لتقنيات الذكاء الاصطناعي بالتعاون مع الوحدات العسكرية المختصة.


كما طوّر جيش الاحتلال الإسرائيلي نموذجاً لغوياً كبيراً باللغة العربية، أنشئ لتشغيل روبوت محادثة قادر على تحليل الرسائل النصية، ومنشورات وسائل التواصل الاجتماعي، وغير ذلك من البيانات. وتم تغذيته بكم هائل من البيانات التي جمعت خلال سنوات من المراقبة الإلكترونية، مما مكنه من تمييز اللهجات المختلفة وتحليل ردود الفعل العامة، كما حدث بعد اغتيال حسن نصر الله في أيلول/سبتمبر الماضي، وفق ما أفاد به ضباط إسرائيليون للصحيفة.

إلا أن النموذج لم يكن خالياً من العيوب، إذ فشل أحياناً في تفسير بعض المصطلحات العامية، أو أخطأ في فهم المحتوى البصري، ما تطلب تدخل ضباط مخضرمين لتصحيح هذه الأخطاء. وعلى الأرض، زودت إسرائيل نقاط التفتيش المؤقتة في غزة بكاميرات مدعومة بتقنيات التعرف على الوجه، لكنها أخفقت أحياناً في التعرف على الأشخاص بدقة، ما تسبب في اعتقال مدنيين عن طريق الخطأ.

ومن بين الأدوات التي أثارت جدلاً أيضاً، خوارزمية "لافندر"، وهي أداة تعلم آلي صممت لتحديد المقاتلين منخفضي الرتب في حماس، لكنها كانت غير دقيقة، ومع ذلك استخدمت لتحديد أهداف في بداية الحرب.

ويخلص التقرير إلى أن هذه التجارب التقنية، رغم ما توفره من قدرات عسكرية متقدمة، قد تؤدي إلى تسريع وتيرة العنف وسقوط ضحايا من المدنيين، في وقت لم تُحسم فيه بعد الأسئلة الأخلاقية الكبرى المرتبطة باستخدام الذكاء الاصطناعي في ميادين الحروب.

مقالات مشابهة

  • "إكسترا نيوز" تبرز مخاطر الذكاء الاصطناعي على الأطفال
  • الرئيس الصيني: الذكاء الاصطناعي سيغير أسلوب الحياة البشرية بشكل جذري
  • كريم أبو زيد لـ الفجر الفني: "أنا إنت.. إنت مش أنا" مش مجرد كوميديا.. بنحاكي مخاوف الإنسان من الذكاء الاصطناعي
  • كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟
  • المشاريع المشاركة في هاكاثون الذكاء الاصطناعي تقدم حلولاً لقطاعات استراتيجية
  • لطافتك تكلف الذكاء الاصطناعي الملايين!
  • جهاز ذكي يساعد المكفوفين على التنقل باستخدام الذكاء الاصطناعي
  • خبراء يناقشون سؤال: الكتابة في عصر الذكاء الاصطناعي.. إلى أين؟
  • كيف تعمل من المنزل باستخدام الذكاء الاصطناعي؟
  • يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟