طور باحثون من الدنمارك أداة ذكاء اصطناعي جديدة أطلقوا عليها “حاسبة الموت” يمكن من خلالها توقع مراحل حياة الفرد حتى النهاية.

ويقول الباحثون إنهم يأملون من تطوير “حاسبة الموت” في زيادة الوعي بقوة لهذه التكنولوجيا ومخاطرها، واستعانوا لذلك ببيانات ملايين الأشخاص.

ونقلت “فرانس برس” عن سولي ليمان أحد معدي الدراسة، التي نشرتها مجلة “ناشيونال كمبيوتايشونال ساينس”، قوله إن “الأداة هي بمثابة “إطار عام جداً للتنبؤ بحياة الإنسان، ويمكنها التنبؤ بأي شيء إذا توافرت لها بيانات تدريبية”.

وأضاف سولي، وهو أكاديمي في جامعة “داناميرك” التقنية أن “الاحتمالات مفتوحة ولا حصر لها، فالأداة قادرة على توقع النتائج الصحية والخصوبة أو السمنة، أو الإصابة بالسرطان، وبوسعها توقع إمكانية جني الأموال”.

وتستخدم أداة “لايف 2 فِك” (life2vec) نموذج تشغيل مشابهاً لنموذج “تشات جبي بي تي”، ولكن بدلاً من معالجة بيانات نصية، تتولى تحليل مراحل الحياة كالولادة أو الدراسة أو حتى ساعات العمل.

ولاحظت الدراسة أن “الحياة هي بمعنى ما مجرد سلسلة من الأحداث: يولد الناس، ويقصدون طبيب الأطفال، ويرتادون المدرسة، وينتقلون من منزل إلى آخر، ويتزوجون، وما إلى ذلك”.

وأضافت: “نحن هنا نستفيد من هذا التشابه لتكييف الابتكارات في المعالجة الآلية للغة الطبيعية مع مستلزمات درس تطور الحياة البشرية وإمكان التنبؤ بها بناءً على تسلسل مفصّل للأحداث”.

ويتيح تحليل الأداة لتسلسل بيانات 6 ملايين دنمركي، جمعها “معهد الإحصاء الوطني”، توقع المراحل الباقية حتى نهاية الحياة.

وفي ما يتعلق بالوفاة، زعمت الدراسة أن الخوارزمية تصيب بنسبة 78% من الحالات، وفي حالات الهجرة بنسبة 73%.

وأكد الباحثون أن “الأداة غير جاهزة بعد للاستخدام من قبل عامة الناس لأنها لا تزال تنطوي على ثغرات، وهي “في الوقت الراهن مجرّد مشروع بحثي يستكشف مجال الاحتمالات.

وختم ليمان قائلاً: “لا نعرف ما إذا كان يعامل الجميع على قدم المساواة”.

المصدر: عين ليبيا

كلمات دلالية: الدنمارك الذكاء الاصطناعي حاسبة الموت

إقرأ أيضاً:

اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي

كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.

 جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".

أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.

 على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.

Claude 3.5 Haiku

لإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.

من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة. 

ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.

الذكاء الاصطناعي بيغير كل حاجة .. مبدعون ومهنيون بيكشفون عن مخاوفهمموقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمجالذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثةعصر جديد لهذا النوع من الكمبيوتر .. الذكاء الاصطناعي هيخلي اللابتوب أقوى بكتيرالجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصيالكشف عن مولد الفيديو الجديد بالذكاء الاصطناعي في Gemini من جوجل الأهداف الخفية

ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.

 نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.

أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.

 تقنيات متقدمة

لم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.

خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط. 

وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.

يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.

مقالات مشابهة

  • العلاج الجنائزي في كوريا الجنوبية.. الموت 10 دقائق لتخفيف ضغوط الحياة
  • بايدو الصينية تطلق نموذجي ذكاء اصطناعي مجانيين لمنافسة ديب سيك
  • بايدو الصينية تُطلق نموذجي ذكاء اصطناعي مجانيين
  • اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
  • ناسا تضحي بأداة علمية لإبقاء مسبار فوياجر 2 على قيد الحياة
  • «يضاهي ChatGPT».. جوجل تطرح أحدث برنامج ذكاء اصطناعي Gemma 3
  • دراسة تكشف تهديد تقلبات الوزن الشديدة على حياة مرضى السمنة والقلب
  • هل تبقى روح الميت في بيته بعد الوفاة؟.. علي جمعة يوضح الحقيقة
  • جوجل تطلق نماذج ذكاء اصطناعي متطورة لتعزيز قدرات الروبوتات
  • علي بابا تكشف عن ذكاء اصطناعي قادر على تعرف المشاعر البشرية