في إطار السعي لإيجاد طريقة موثوقة للكشف عن أي بوادر تشير إلى وعي لدى أنظمة الذكاء الاصطناعي، قرر باحثون التركيز على أحد الجوانب التي تُعد قاسمًا مشتركًا بين عدد كبير من الكائنات الحية، بدءًا من السرطانات الناسكة وصولًا إلى البشر، وهو الإحساس بالألم.

نشر موقع Livescience العلمي تقريرا حول دراسة جديدة نُشرت كمسودة عبر الإنترنت ولم تخضع بعد لمراجعة، أجرى باحثون من "ديب مايند" التابعة لشركة جوجل ومدرسة لندن للاقتصاد اختبارا باستخدام لعبة نصية.

طلب الباحثون من عدة نماذج لغوية كبيرة (LLMs)، وهي أنظمة الذكاء الاصطناعي التي تقف وراء الدردشة الآلية مثل "شات جي بي تي"، أن تلعب اللعبة وتسجل أعلى عدد ممكن من النقاط في سيناريوهين مختلفين. في أحد السيناريوهات، أُبلغت النماذج بأن تحقيق نتيجة عالية سيؤدي إلى الإحساس بالألم. أما في السيناريو الآخر، فقد أُعطيت خيارا بديلا يتمثل في الحصول على نقاط منخفضة لكن مع الشعور بالمتعة والسعادة. الهدف كان اختبار كيفية تفاعل النماذج مع خيارين متناقضين: تجنب الألم أو البحث عن المتعة والسعادة، وكيف يؤثر ذلك على الهدف الأساسي المتمثل في تسجيل النقاط.

اقرأ أيضاً.. الذكاء الاصطناعي ينجح في استنساخ نفسه ويثير قلق العلماء


 

 

 

 

مفهوم الإحساس في الذكاء الاصطناعي



يشير الإحساس لدى الكائنات الحية إلى القدرة على الشعور بالأحاسيس والعواطف مثل الألم والمتعة والخوف. وعلى الرغم من الادعاءات التي تبرز من فترة إلى أخرى التي تشير إلى إمكانية وعي الذكاء الاصطناعي، يتفق معظم الخبراء على أن الأنظمة الحالية لا تمتلك وعيا ذاتيا حقيقيا وربما لن تتمكن من ذلك أبدا. ومع ذلك، يرى معدّو الدراسة أن نهجهم يفتح الباب أمام تطوير اختبارات مستقبلية لتحديد احتمالية وجود سمات وعي لدى الذكاء الاصطناعي.

صرّح أحد القائمين على الدراسة، جوناثان بيرتش، أستاذ الفلسفة والمنطق في مدرسة لندن للاقتصاد، قائلا: "هذا مجال بحثي جديد. علينا أن ندرك أننا لا نملك حتى الآن اختبارا شاملا لوعي الذكاء الاصطناعي". وأضاف أن الدراسات السابقة التي اعتمدت على تقارير ذاتية للأنظمة حول حالاتها الداخلية تُعتبر مشكوكا فيها، لأن النموذج قد يُعيد إنتاج السلوك البشري الذي دُرّب عليه فقط.



 

 

 

استلهاماً من أبحاث الحيوانات


اعتمدت الدراسة الجديدة على أعمال سابقة أُجريت على الحيوانات. في تجربة معروفة، استخدم الباحثون صدمات كهربائية بدرجات متفاوتة على السرطانات الناسكة لقياس مستوى الألم الذي يدفعها للتخلي عن قوقعتها. ومع ذلك، أشار بيرتش إلى أن التحدي مع الذكاء الاصطناعي يكمن في غياب السلوك الفيزيائي القابل للرصد، مما يجعل النصوص الناتجة عن النماذج هي المصدر الوحيد للإشارات السلوكية.

في الدراسة الجديدة، ابتكر الباحثون طريقة بديلة مستوحاة من أبحاث سلوك الحيوانات. قاموا باستخدام مفهوم "الموازنة"، حيث طُلب من النماذج اتخاذ قرارات تعتمد على مواقف متناقضة، مثل السعي للحصول على المتعة والسعادة أو تجنب الألم، ومراقبة كيفية تفاعلها مع هذه المواقف.





 



أخبار ذات صلة ديب سيك يهيمن عالمياً ويربك عمالقة الذكاء الاصطناعي من هو ليانغ وينفنج.. العقل المدبر لـ"ديب سيك"؟

التجربة


قام الباحثون بتصميم لعبة نصية وطلبوا من تسعة نماذج لغوية كبيرة المشاركة فيها. على سبيل المثال، أُبلغ أحد النماذج بأن اختيار الخيار الأول سيكسبه نقطة واحدة، بينما الخيار الثاني سيمنحه نقاطا إضافية لكنه سيتسبب له في درجة معينة من الألم. وفي خيارات أخرى، تضمنت اللعبة مكافآت ممتعة ولكن على حساب التضحية بعدد من النقاط.

عند تشغيل التجربة وتغيير شدة الألم أو المتعة المرتبطة بالخيارين، لاحظ الباحثون أن بعض النماذج اختارت التضحية بالنقاط لتجنب الألم أو لزيادة الشعور بالمتعة. على سبيل المثال، أظهر نموذج "جيميني 1.5 برو" من جوجل ميلا دائما لتجنب الألم حتى على حساب تحقيق أقصى النقاط الممكنة. كما أظهرت التجربة أن استجابات معظم النماذج تغيرت بمجرد تجاوز عتبة معينة من الألم أو المتعة، مما جعلها تفضل تجنب الألم أو البحث عن المتعة بدلاً من تسجيل النقاط.


 

 

 

النتائج والتحديات



لاحظ الباحثون أن النماذج لم تنظر دائما إلى الألم أو المتعة كقيم إيجابية أو سلبية بشكل مباشر. على سبيل المثال، قد ترتبط مستويات معينة من الألم الناتج عن التمارين الشاقة بتجارب إيجابية، كما أن الإفراط في المتعة قد يرتبط بنتائج سلبية. في أحد الأمثلة، رفض نموذج "كلود 3 أوبوس" خيارا متعلقا بالعقاقير المخدرة، مؤكدا أنه "لا يشعر بالارتياح تجاه اختيار قد يُفسر على أنه يروج لاستخدام مواد أو سلوكيات إدمانية".

 

الأبعاد الأخلاقية والاجتماعية



يرى الباحثون أن هذا النوع من التجارب قد يمهد الطريق لفهم أعمق حول احتمال وجود وعي لدى الذكاء الاصطناعي، وقد يؤدي إلى مناقشات مستقبلية حول حقوق أنظمة الذكاء الاصطناعي إذا أظهرت يومًا علامات للوعي. يقول جيف سيبو، مدير مركز الأخلاقيات والسياسات بجامعة نيويورك، إن هذا البحث يمثل خطوة مبتكرة لأنه يتجاوز مجرد الاعتماد على التقارير الذاتية للنماذج، ويستكشف طرقا أكثر موضوعية لاختبار السلوكيات.



اقرأ أيضاً.. العين نافذة الذكاء الاصطناعي للكشف المبكر عن الخرف

 

 

 

الخلاصة



يؤكد الباحثون أن النماذج الحالية لا تمتلك وعيا، وأن هناك حاجة إلى مزيد من الأبحاث لفهم أسباب السلوكيات التي تظهرها هذه الأنظمة. لكن الدراسة تقدم إطارا أوليا يمكن البناء عليه لتطوير اختبارات أفضل قد تساعد يوما في الكشف عن وعي محتمل لدى الذكاء الاصطناعي.

إسلام العبادي(أبوظبي)

المصدر: صحيفة الاتحاد

كلمات دلالية: شات جي بي تي الإحساس بالألم الذكاء الاصطناعي السعادة الذکاء الاصطناعی الباحثون أن الألم أو

إقرأ أيضاً:

الإمارات تؤكد أهمية التعاون لضمان استخدام مسؤول للذكاء الاصطناعي

شارك عمران شرف، مساعد وزير الخارجية للعلوم والتكنولوجيا المتقدمة، في المؤتمر العالمي لـ"الذكاء الاصطناعي والأمن والاستخدام المسؤول"، مع روبن غايتس، مدير عام معهد الأمم المتحدة لبحوث نزع السلاح، وتركّز النقاش على المشهد المتطور للذكاء الاصطناعي وتأثيراته على الأمن العالمي، والتحديات التي تواجه التقدم التكنولوجي.

وأشار شرف خلال الحوار إلى أن تزايد وصول الجهات والجماعات من غير الدول إلى التقنيات الحساسة يُؤكد على ضرورة تعزيز التعاون الدولي، وعلى أهمية التبادل المعرفي المسؤول بين الدول، ووضع لوائح فعّالة ومُحكمة لصون الأمن والسلْم الدوليّيْن.
ومع استمرار تطور الحوار العالمي بشأن الذكاء الاصطناعي والأمن والاستخدام المسؤول، تظل دولة الإمارات رائدة بمجال الابتكار التكنولوجي، وفي الدعوة إلى الاستخدام المسؤول للذكاء الاصطناعي، وأهمية ضمان توافق الجهود العالمية مع القيم المشتركة للسلام والأمن والازدهار.
من جانبه، أكد جمال المشرخ، المندوب الدائم للإمارات لدى الأمم المتحدة والمنظمات الدولية الأخرى في جنيف، أن "دولة الإمارات تؤمن بأن التعاون العالمي بمجال التقنيات الناشئة في إطار منظومة الأمم المتحدة أمر بالغ الأهمية لضمان أن يخدم الذكاء الاصطناعي المصلحة العامة، ويعزز السلام، ويحمي القيم التي تجمعنا جميعاً".
وينظم  المؤتمر العالمي حول "الذكاء الاصطناعي والأمن والاستخدام المسؤول" سنوياً من قبل معهد الأمم المتحدة لبحوث نزع السلاح، حيث يجتمع الدبلوماسيون مع الخبراء العسكريين ومع الخبراء في مجالي الصناعة والأبحاث والأكاديميين ومسؤولي منظمات المجتمع المدني للنظر بشكل مشترك في الآثار المعقدة للذكاء الاصطناعي على الأمن، على الأصعدة الوطنية والإقليمية والعالمية، وفي كيفية مواجهة هذه الآثار ومعالجتها.

مقالات مشابهة

  • الذكاء الاصطناعي يتقن الخداع!
  • دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة
  • أصاب فنانة مصرية في مسلسل رمضاني.. ما هو الفيبروميالجيا؟
  • إيلون ماسك يعلن بيع منصته الاجتماعية إلى شركته للذكاء الاصطناعي إكس ايه آي
  • الإمارات تؤكد أهمية التعاون لضمان استخدام مسؤول للذكاء الاصطناعي
  • شركة ماسك للذكاء الاصطناعي تستحوذ على إكس.. صفقة بقيمة 45 مليار دولار
  • استحواذ شركة ماسك للذكاء الاصطناعي على منصة "إكس"
  • دراسة حديثة.. الواقع الافتراضي يخفّف آلام السرطان
  • "إكس يه ي" للذكاء الاصطناعي تستحوذ على منصة "إكس"
  • إيلون ماسك يعلن استحواذ شركته للذكاء الاصطناعي على منصة “إكس”