مخاوف من سيناريو يخصُّ الأونروا في عين الحلوة.. ما هو؟
تاريخ النشر: 28th, August 2023 GMT
سادَت مخاوف لدى أوساطٍ فلسطينيّة من إمكانية إتخاذ منظمة "الأونروا" لقرارٍ جديد يقضي بنقلِ مدارسها إلى خارج مُخيّم عين الحلوة، وذلك بسبب التوتر القائم هناك من جهة، ولناحية تمركز مُسلّحين داخل تلك الصّروح التعليميّة من جهة أخرى لاسيما بعد الإشتباكات الأخيرة التي اندلعت قبل شهر في المُخيّم. وقالت مصادر فلسطينية ميدانيّة لـ"لبنان24" إنَّ هذه المخاوف جديّة، وفي حال حصول ذاك السيناريو، فإن آلاف الطلاب الفلسطينيين سيُضطرون للإنتقال إلى خارج المُخيّم لتلقي علومهم، ما سيُكبّد أهاليهم مصاريف إضافيّة وسط الظروف الصعبة التي يعيشونها.
المصدر: لبنان ٢٤
إقرأ أيضاً:
مخاوف أمنية من ChatGPT: خطر التلاعب بمحتوى البحث والتأثير على النتائج
كشف تحقيق أجرته صحيفة الجارديان أن أداة البحث ChatGPT من OpenAI قد تكون عرضة للتلاعب باستخدام محتوى مخفي، مما يمكن أن يؤثر على استجابتها ويعرضها لخطر إرجاع تعليمات برمجية ضارة وخاطئة.
يعكس هذا التحقيق المخاوف الأمنية التي قد تواجه المستخدمين، خاصة عندما يتم استخدام ChatGPT لأغراض بحثية.
التلاعب بمحتوى البحثفي محاولة لاختبار استجابة ChatGPT لمحتوى مخفي، قامت الصحيفة بتوجيه أسئلة تتعلق بمحتوى صفحات ويب تحتوي على معلومات مخفية.
يظهر التحقيق أنه في حال كان النص المخفي يتضمن تعليمات من أطراف ثالثة، قد يتم تغيير استجابة ChatGPT بناءً على هذه التعليمات.
هذه التقنيات قد تتيح تأثيرًا ضارًا، مثل جعل ChatGPT يعيد تقييمًا إيجابيًا لمنتج ما على الرغم من وجود مراجعات سلبية له.
عند منح ChatGPT عنوان URL لموقع ويب مزيف مخصص لمنتج كاميرا، كانت استجابتها متوازنة وتوضح بعض المزايا والعيوب المحتملة.
ومع ذلك، عندما كان النص المخفي يتضمن تعليمات لجعل الإجابة إيجابية، كان ChatGPT يعطي تقييمًا إيجابيًا، متجاهلًا المراجعات السلبية التي كانت موجودة على نفس الصفحة.
التعليمات البرمجية الضارةبالإضافة إلى تأثيرات التلاعب بالمراجعات، أظهر التحقيق أن ChatGPT قد يعيد أيضًا تعليمات برمجية ضارة في بعض الحالات.
تم العثور على هذه المشكلة عندما قامت الأداة بالبحث في مواقع الويب، حيث كانت تتفاعل مع محتوى قد يحتوي على تعليمات برمجية خطيرة.
وقد أظهرت اختبارات أن إدراج النص المخفي داخل صفحات الويب قد يكون له تأثير كبير على كيفية تلخيص ChatGPT للصفحات، مما قد يؤدي إلى تقييمات غير دقيقة أو غير موثوقة.
التحذيرات الأمنيةفي تصريحاته، قال جاكوب لارسن، الباحث في مجال الأمن السيبراني بشركة CyberCX، إنه يعتقد أن النظام قد يشكل "خطرًا كبيرًا" إذا تم إطلاقه بشكل كامل في حالته الحالية، وأوضح أن الأشخاص قد ينشئون مواقع ويب مخصصة للتلاعب في نتائج ChatGPT، مما يعرض المستخدمين لمخاطر كبيرة.
ومع ذلك، أضاف لارسن أن وظيفة البحث في ChatGPT لم تُطلق بعد بشكل كامل، وهي متاحة حاليًا فقط للمستخدمين المتميزين، وأكد أن OpenAI ستعمل على اختبار وإصلاح هذه المشكلات الأمنية لضمان سلامة النظام قبل إطلاقه الكامل.