لن تتمكن أنظمة الذكاء الاصطناعي المبنية على نموذج لغوي كبير من الوصول إلى مستوى الذكاء البشري.

 عبر عن هذا الرأي عالم الرياضيات الفرنسي يان ليكون نائب رئيس شركة "ميتا" (المحظورة في روسيا بصفتها منظمة متطرفة)، حيث يتولى مسؤولية الدراسات في مجال الذكاء الاصطناعي.

وكان التقدم السريع في تطوير المنتجات القائمة على الذكاء الاصطناعي في السنوات الأخيرة الماضية سببا في إثارة المخاوف والتكهنات بأن مثل هذه الأنظمة سوف تتجاوز الذكاء البشري قريبا.

وعلى سبيل المثال فإن إيلون ماسك، أعرب في مارس الماضي، عن رأي مفاده أنه "يمكن أن يصبح الذكاء الاصطناعي بحلول عام 2025، أكثر ذكاء من أي شخص".

إقرأ المزيد صحيفة أمريكية: إيلون ماسك يتلقى ترخيصا بزرع شريحة في دماغ مريض ثان

وعلق ليكون على أقوال ماسك معربا عن شكوكه حول سرعة تقدم الذكاء الاصطناعي. وفي مقابلة مع صحيفة "فايننشال تايمز" قال إن الأنظمة القائمة على نماذج اللغات الكبيرة (LLM)، مثل ChatGPT والعديد من مثيلاتها، لن تكون قادرة على الوصول إلى المستوى البشري. وحسب الباحث، فإنها "لديها فهم محدود للغاية للمنطق، ولا تفهم العالم الحقيقي، وليس لديها ذاكرة دائمة، ولا يمكنها التخطيط بشكل هرمي، أي تحقيق الهدف عن طريق حل سلسلة من المسائل الصغيرة".

وأشار العالم إلى أن أنظمة  LLM تمتلك قدرات محدودة بسبب القيود المفروضة عليها، وتعتمد قدراتها على المعلومات التي يعلّمها مطورها، ولا تتعلم بشكل مستقل، كما يفعل الناس. وقال ليكون: "من المؤكد أن الكثير من الناس يعتقدون أن الذكاء الاصطناعي يقوم بالتفكير المنطقي، ولكنه في معظم الأحيان يستخدم المعرفة المتراكمة من كمية هائلة من البيانات".

وبدلا من ذلك، يقوم مختبر الذكاء الاصطناعي في "ميتا" بدراسة الأساليب التي تعتمد على مبدأ "محاكاة العالم الحقيقي". وعلى وجه الخصوص، يعرض المختبر على نظام  تسجيلات الفيديو التي تنتهي قبل اكتمالها، ويجب على النظام تخمين ما حدث في النهاية. والمهمة التي ذكرها ليكون هي تطوير نظام تشفير يسمح للذكاء الاصطناعي بفهم المعلومات المقدمة التي تمت صياغتها على شكل نص مجرد.

وبحسب العالم الذي يعتبر أحد رواد تطوير الذكاء الاصطناعي، فإن تنفيذ هذا المشروع قد يستغرق 10 سنوات.

المصدر: تاس

المصدر: RT Arabic

كلمات دلالية: ذكاء اصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

دراسة صادمة.. هل يمكن للذكاء الاصطناعي الشعور بالألم؟

في إطار السعي لإيجاد طريقة موثوقة للكشف عن أي بوادر تشير إلى وعي لدى أنظمة الذكاء الاصطناعي، قرر باحثون التركيز على أحد الجوانب التي تُعد قاسمًا مشتركًا بين عدد كبير من الكائنات الحية، بدءًا من السرطانات الناسكة وصولًا إلى البشر، وهو الإحساس بالألم.

نشر موقع Livescience العلمي تقريرا حول دراسة جديدة نُشرت كمسودة عبر الإنترنت ولم تخضع بعد لمراجعة، أجرى باحثون من "ديب مايند" التابعة لشركة جوجل ومدرسة لندن للاقتصاد اختبارا باستخدام لعبة نصية. طلب الباحثون من عدة نماذج لغوية كبيرة (LLMs)، وهي أنظمة الذكاء الاصطناعي التي تقف وراء الدردشة الآلية مثل "شات جي بي تي"، أن تلعب اللعبة وتسجل أعلى عدد ممكن من النقاط في سيناريوهين مختلفين. في أحد السيناريوهات، أُبلغت النماذج بأن تحقيق نتيجة عالية سيؤدي إلى الإحساس بالألم. أما في السيناريو الآخر، فقد أُعطيت خيارا بديلا يتمثل في الحصول على نقاط منخفضة لكن مع الشعور بالمتعة والسعادة. الهدف كان اختبار كيفية تفاعل النماذج مع خيارين متناقضين: تجنب الألم أو البحث عن المتعة والسعادة، وكيف يؤثر ذلك على الهدف الأساسي المتمثل في تسجيل النقاط.

اقرأ أيضاً.. الذكاء الاصطناعي ينجح في استنساخ نفسه ويثير قلق العلماء


 

 

 

 

مفهوم الإحساس في الذكاء الاصطناعي



يشير الإحساس لدى الكائنات الحية إلى القدرة على الشعور بالأحاسيس والعواطف مثل الألم والمتعة والخوف. وعلى الرغم من الادعاءات التي تبرز من فترة إلى أخرى التي تشير إلى إمكانية وعي الذكاء الاصطناعي، يتفق معظم الخبراء على أن الأنظمة الحالية لا تمتلك وعيا ذاتيا حقيقيا وربما لن تتمكن من ذلك أبدا. ومع ذلك، يرى معدّو الدراسة أن نهجهم يفتح الباب أمام تطوير اختبارات مستقبلية لتحديد احتمالية وجود سمات وعي لدى الذكاء الاصطناعي.

صرّح أحد القائمين على الدراسة، جوناثان بيرتش، أستاذ الفلسفة والمنطق في مدرسة لندن للاقتصاد، قائلا: "هذا مجال بحثي جديد. علينا أن ندرك أننا لا نملك حتى الآن اختبارا شاملا لوعي الذكاء الاصطناعي". وأضاف أن الدراسات السابقة التي اعتمدت على تقارير ذاتية للأنظمة حول حالاتها الداخلية تُعتبر مشكوكا فيها، لأن النموذج قد يُعيد إنتاج السلوك البشري الذي دُرّب عليه فقط.



 

 

 

استلهاماً من أبحاث الحيوانات


اعتمدت الدراسة الجديدة على أعمال سابقة أُجريت على الحيوانات. في تجربة معروفة، استخدم الباحثون صدمات كهربائية بدرجات متفاوتة على السرطانات الناسكة لقياس مستوى الألم الذي يدفعها للتخلي عن قوقعتها. ومع ذلك، أشار بيرتش إلى أن التحدي مع الذكاء الاصطناعي يكمن في غياب السلوك الفيزيائي القابل للرصد، مما يجعل النصوص الناتجة عن النماذج هي المصدر الوحيد للإشارات السلوكية.

في الدراسة الجديدة، ابتكر الباحثون طريقة بديلة مستوحاة من أبحاث سلوك الحيوانات. قاموا باستخدام مفهوم "الموازنة"، حيث طُلب من النماذج اتخاذ قرارات تعتمد على مواقف متناقضة، مثل السعي للحصول على المتعة والسعادة أو تجنب الألم، ومراقبة كيفية تفاعلها مع هذه المواقف.





 



أخبار ذات صلة ديب سيك يهيمن عالمياً ويربك عمالقة الذكاء الاصطناعي من هو ليانغ وينفنج.. العقل المدبر لـ"ديب سيك"؟

التجربة


قام الباحثون بتصميم لعبة نصية وطلبوا من تسعة نماذج لغوية كبيرة المشاركة فيها. على سبيل المثال، أُبلغ أحد النماذج بأن اختيار الخيار الأول سيكسبه نقطة واحدة، بينما الخيار الثاني سيمنحه نقاطا إضافية لكنه سيتسبب له في درجة معينة من الألم. وفي خيارات أخرى، تضمنت اللعبة مكافآت ممتعة ولكن على حساب التضحية بعدد من النقاط.

عند تشغيل التجربة وتغيير شدة الألم أو المتعة المرتبطة بالخيارين، لاحظ الباحثون أن بعض النماذج اختارت التضحية بالنقاط لتجنب الألم أو لزيادة الشعور بالمتعة. على سبيل المثال، أظهر نموذج "جيميني 1.5 برو" من جوجل ميلا دائما لتجنب الألم حتى على حساب تحقيق أقصى النقاط الممكنة. كما أظهرت التجربة أن استجابات معظم النماذج تغيرت بمجرد تجاوز عتبة معينة من الألم أو المتعة، مما جعلها تفضل تجنب الألم أو البحث عن المتعة بدلاً من تسجيل النقاط.


 

 

 

النتائج والتحديات



لاحظ الباحثون أن النماذج لم تنظر دائما إلى الألم أو المتعة كقيم إيجابية أو سلبية بشكل مباشر. على سبيل المثال، قد ترتبط مستويات معينة من الألم الناتج عن التمارين الشاقة بتجارب إيجابية، كما أن الإفراط في المتعة قد يرتبط بنتائج سلبية. في أحد الأمثلة، رفض نموذج "كلود 3 أوبوس" خيارا متعلقا بالعقاقير المخدرة، مؤكدا أنه "لا يشعر بالارتياح تجاه اختيار قد يُفسر على أنه يروج لاستخدام مواد أو سلوكيات إدمانية".

 

الأبعاد الأخلاقية والاجتماعية



يرى الباحثون أن هذا النوع من التجارب قد يمهد الطريق لفهم أعمق حول احتمال وجود وعي لدى الذكاء الاصطناعي، وقد يؤدي إلى مناقشات مستقبلية حول حقوق أنظمة الذكاء الاصطناعي إذا أظهرت يومًا علامات للوعي. يقول جيف سيبو، مدير مركز الأخلاقيات والسياسات بجامعة نيويورك، إن هذا البحث يمثل خطوة مبتكرة لأنه يتجاوز مجرد الاعتماد على التقارير الذاتية للنماذج، ويستكشف طرقا أكثر موضوعية لاختبار السلوكيات.



اقرأ أيضاً.. العين نافذة الذكاء الاصطناعي للكشف المبكر عن الخرف

 

 

 

الخلاصة



يؤكد الباحثون أن النماذج الحالية لا تمتلك وعيا، وأن هناك حاجة إلى مزيد من الأبحاث لفهم أسباب السلوكيات التي تظهرها هذه الأنظمة. لكن الدراسة تقدم إطارا أوليا يمكن البناء عليه لتطوير اختبارات أفضل قد تساعد يوما في الكشف عن وعي محتمل لدى الذكاء الاصطناعي.

إسلام العبادي(أبوظبي)

مقالات مشابهة

  • “الذكاء الاصطناعي ودوره في تطوير المهارات الوظيفية”.. جلسة حوارية ضمن المؤتمر الدولي لسوق العمل
  • “سدايا” تستعرض مستقبل الذكاء الاصطناعي العام والتحديات التي تواجهه بمشاركة أكثر من 16 جهة حكومية
  • وزير الأوقاف يبحث التعاون مع جامعة محمد بن زايد للعلوم في الذكاء الاصطناعي
  • تطبيق صيني يهز عالم الذكاء الاصطناعي.. التفاصيل الكاملة
  • خسارة تريليون دولار .. كل خبايا أداة الذكاء الاصطناعي الصيني الجديدة DeepSeek
  • ديب سيك الصيني يتفوق على ChatGPT.. زلزال في عالم الذكاء الاصطناعي وخسائر فادحة للشركات الأمريكية
  • المشاط: الذكاء الاصطناعي يُعيد صياغة نماذج النمو الاقتصادي والتنمية على مستوى العالم
  • الحوسبة اللغوية.. مبادرات جامعية مبتكرة ركيزتها الذكاء الاصطناعي
  • «الحوسبة اللغوية».. مبادرات جامعية مبتكرة ركيزتها الذكاء الاصطناعي
  • دراسة صادمة.. هل يمكن للذكاء الاصطناعي الشعور بالألم؟