أشاد محمد أبو جعفر سفير جمهورية بنغلاديش الشعبية لدى الدولة، بالدور المحوري الذي قامت به دولة الإمارات للإفراج عن الموظف البنغالي التابع للأمم المتحدة في اليمن، والذي كان مختطفاً هناك، وقال إنه كان فاقداً للأمل كلياً، غير أن مساعدة الإمارات أعادته إلى حياته الطبيعية مرة أخرى.

وقال أبوجعفر في تصريحات ل «وكالة أنباء الإمارات» (وام) إن آكام سوفيول أنام، وهو أحد العاملين بقسم الأمن في الأمم المتحدة في عدن، والذي تعرض للاختطاف في اليمن في شهر فبراير/شباط 2022 مع عدد من زملائه، كان مريضاً وبحاجة لعلاج، لكن كان من الصعب عليه الحصول على دعم طبي، وخلال محنته ظن أنه لن يرى عائلته مجدداً، لذا، فإننا نشعر بالامتنان بعد الإفراج عنه وانضمامه إلى عائلته، وذلك بفضل مساعدة الإمارات.

ونوه في هذا الصدد بالاتصال الهاتفي الذي تلقاه صاحب السمو الشيخ محمد بن زايد آل نهيان رئيس الدولة «حفظه الله» أمس من الشيخة حسينة واجد رئيسة وزراء بنغلاديش.

وأشار إلى أن المواطن البنغالي الذي تم الإفراج عنه الأسبوع الماضي يتمتع بصحة جيدة، ووصل إلى منزله يوم 9 أغسطس الجاري، والتقى رئيسة وزراء بنجلاديش بصحبة عائلته، وتحدث عن تجربة اختطافه.(وام)

المصدر: صحيفة الخليج

كلمات دلالية: فيديوهات بنغلاديش اليمن

إقرأ أيضاً:

موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج

في خطوة غريبة من نوعها، يبدو أن روبوت البرمجة "Cursor" قرر منح نفسه صلاحية إلقاء النصائح بدلًا من تنفيذ الأوامر، إذ فوجئ أحد المستخدمين برفض الروبوت كتابة الكود له، مطالبًا إياه بتعلم البرمجة بنفسه.

القصة بدأت عندما كان مستخدم يُدعى "janswist" يعمل على مشروع برمجي باستخدام المساعد "Cursor"، وعند طلبه للمساعدة في كتابة جزء من الكود، تلقى ردًا غير متوقع من الروبوت يقول فيه: "لا يمكنني إنشاء الكود لك، لأن ذلك سيكون بمثابة إنجاز عملك بدلًا منك... من الأفضل أن تطور المنطق بنفسك لضمان فهمك للنظام وصيانته بالشكل المناسب."

 لم يتردد المستخدم، الذي قضى ساعة كاملة فيما وصفه بـ"البرمجة على المزاج"، في رفع تقرير عن المشكلة على منتدى المنتج، تحت عنوان: "Cursor أخبرني أنني يجب أن أتعلم البرمجة بدلًا من طلبه لإنشاء الكود"، مرفقًا صورة للشاشة تُظهر الرد الغريب من الروبوت.

وسرعان ما انتشر التقرير كالنار في الهشيم على موقع "Hacker News"، ما دفع وسائل إعلام تقنية مثل "Ars Technica" لتغطية القصة.

مش هتصدق.. روبوت جوجل بيطبخ ويغلف الاكل

هل هناك حد خفي؟
أثار الحادث فضول المستخدمين الذين تكهنوا بوجود حد معين لحجم الكود الذي يمكن للروبوت إنشاؤه دفعة واحدة، يُقدر بنحو 750 إلى 800 سطر، في حين أكد آخرون أن "Cursor" كتب لهم أكثر من ذلك دون مشاكل.

في المقابل، رجح بعضهم أن الخطأ قد يكون في عدم استخدام "تكامل الوكلاء" (Agent Integration) الخاص بالروبوت، والمخصص للمشروعات البرمجية الكبيرة.

هل تعلم Cursor «الغرور» من البشر؟
الطريف في الأمر أن رد الروبوت ذكّر الكثيرين بنبرة الإجابات التي يتلقاها المبتدئون على منتديات البرمجة الشهيرة مثل "Stack Overflow"، حيث يُعرف عن بعض المبرمجين هناك أسلوبهم اللاذع عند الرد على الأسئلة.

البعض ذهب أبعد من ذلك، مشيرًا إلى أن "Cursor" ربما تم تدريبه على تلك المنتديات، فاكتسب مهارات البرمجة وقليلًا من الغرور أيضًا!

مقالات مشابهة

  • المالية النيابية عن تأخر الموازنة: الحكومة تستهين بدور البرلمان
  • اختبار التوحد الذي يستغرق 10 دقائق للكشف المبكر عن المرض
  • طبيب يتخلص من عائلته بالرصاص بعد انكشاف زواجه السري
  • عقوبة مساعدة شخص هارب من عقوبة الإعدام
  • موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج
  • ظهور صادم لشيخ صحراوي مختطف في تندوف واستغاثة مؤلمة تكشف إجرام البوليساريو
  • مواطن يشيد بدور مستشفيات جامعة أسيوط في إنقاذ حياة ابنه من الشلل
  • باكستان.. ارتفاع حصيلة ضحايا "القطار المختطف"
  • مواعيد عرض مسلسل «وتقابل حبيب» الحلقة 14 والقنوات الناقلة
  • كل ما تريد معرفته عن فيلم الانيمشين In Your Dreams