تخترق الحماية .. اكتشاف نماذج ذكاء اصطناعي خبيثة على «Hugging Face» |تفاصيل
تاريخ النشر: 9th, February 2025 GMT
اكتشف باحثون في مجال الأمن السيبراني نماذج خبيثة للذكاء الاصطناعي على منصة Hugging Face تستخدم تقنية جديدة تعتمد على ملفات Pickle "المكسورة" لتجاوز أدوات الكشف عن البرمجيات الضارة.
تفاصيل الهجوم: كيف تم استغلال Pickle؟وكشف الباحث الأمني كارلو زانكي من شركة ReversingLabs أن الملفات الضارة كانت مخبأة داخل أرشيفات PyTorch، حيث تم وضع شيفرة خبيثة في بداية الملفات، مما يسمح بتنفيذ هجوم عبر "Shell عكسي" يتصل بعنوان IP محدد مسبقًا.
أُطلق على هذه الطريقة اسم "nullifAI"، وهي تستغل نقاط الضعف في آليات الأمان المستخدمة لاكتشاف النماذج الضارة. وقد تم تحميل النماذج على المستودعات التالية في Hugging Face:
glockr1/ballr7who-r-u0000/0000000000000000000000000000000000000لماذا يمثل Pickle خطرًا أمنيًا؟يعد تنسيق Pickle خيارًا شائعًا لتوزيع نماذج الذكاء الاصطناعي، لكنه يحمل مخاطر أمنية كبيرة، حيث يتيح تنفيذ أوامر عشوائية بمجرد تحميله وإلغاء تسلسله (Deserialization).
في هذه الحالة، استخدم المهاجمون تنسيق 7z بدلاً من ZIP لضغط النماذج، مما سمح لهم بتجاوز أداة Picklescan، وهي أداة مخصصة لاكتشاف الملفات المشبوهة على Hugging Face.
ثغرة في آليات الكشف.. وكيف تم استغلالها؟أوضح الباحثون أن هذه الملفات مصممة بحيث يتم تنفيذ الشيفرة الخبيثة قبل تعطل عملية إلغاء التسلسل، مما يمنع أدوات الفحص من اكتشافها.
وقال زانكي:"تتم معالجة أكواد Pickle بالتسلسل، مما يسمح بتنفيذ الأوامر الضارة قبل اكتشاف المشكلة. في هذه الحالة، لم تستطع أدوات الفحص في Hugging Face تصنيف النموذج على أنه غير آمن."
ما الإجراءات التي تم اتخاذها؟قامت Hugging Face بتحديث أداة Picklescan لسد هذه الثغرة ومنع تنفيذ الشيفرات الضارة باستخدام نفس الأسلوب.
تواصل شركات الأمن السيبراني مراقبة مستودعات الذكاء الاصطناعي بحثًا عن نماذج مشبوهة قد تستخدم تقنيات مماثلة في المستقبل.
ماذا يعني هذا للمطورين والمستخدمين؟يُحذر الخبراء من مخاطر تحميل نماذج الذكاء الاصطناعي من مصادر غير موثوقة، وينصحون باستخدام بيئات تشغيل معزولة (Sandboxing) عند اختبار النماذج الجديدة.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي ذكاء الاصطناعي المزيد
إقرأ أيضاً:
أوبن أيه آي تقيد الوصول إلى نماذج الذكاء الاصطناعي المستقبلية
أبوظبي (وكالات)
مع تسارع تطور الذكاء الاصطناعي وازدياد قدرات نماذج "أوبن أيه آي" بدأت الشركة في اتخاذ خطوات أكثر صرامة لحماية منتجاتها وضمان استخدامها بشكل آمن وأخلاقي. أحدث هذه الخطوات هو إطلاق نظام "المنظمة الموثّقة" (Verified Organization)، والذي سيتطلب من المؤسسات إتمام عملية تحقق من الهوية للوصول إلى بعض النماذج المستقبلية المتقدمة.
وقد تطلب شركة "أوبن أيه آي" قريبًا من المؤسسات إتمام عملية تحقق من الهوية للوصول إلى بعض نماذج الذكاء الاصطناعي المستقبلية. بحسب ما ذكر موقع تك كرانش المتخصص في موضوعات التكنولوجيا.
ما هي عملية التحقق الجديدة؟
بحسب صفحة دعم نشرتها "أوبن أيه آي" مؤخرًا، فإن عملية التحقق تهدف إلى تمكين المطورين من الوصول إلى أقوى النماذج والإمكانات على منصة "أوبن أيه آي.
وتتطلب تقديم هوية حكومية رسمية من دولة مدعومة من واجهة "أوبن أيه آي".
ويمكن استخدام الهوية للتحقق من مؤسسة واحدة فقط كل 90 يومًا، وليس كل المؤسسات ستكون مؤهلة لإجراء التحقق، بحسب ما أوضحت الشركة.
اقرأ أيضاً.."أوبن أيه آي": منشئ الصور الجديد أصبح متاحاً لجميع المستخدمين
لماذا هذه الخطوة الآن؟
أضافت "أوبن أيه آي"، أنها تأخذ مسؤوليتها بجدية لضمان أن الذكاء الاصطناعي يكون متاحًا على نطاق واسع ويُستخدم بطريقة آمنة. ولكن هناك قلة من المطورين يستخدمون واجهات "أوبن أيه آي" بطريقة تنتهك سياسات الاستخدام. ولهذا أضافت عملية التحقق لتقليل الاستخدام غير الآمن للذكاء الاصطناعي، مع الاستمرار في إتاحة النماذج المتقدمة للمجتمع الأوسع من المطورين".
عملية التحقق الجديدة قد تكون خطوة لتعزيز الأمان حول منتجات "أوبن أيه آي"، خصوصًا مع تطورها المتزايد وقدراتها المتقدمة، ولمنع الاستخدامات الخبيثة لنماذجها من قبل جهات مخالفة. وحماية المستخدمين من سوء استخدام تقنيات الذكاء الاصطناعي.
ونشرت الشركة عدة تقارير عن جهودها في اكتشاف ومنع الاستخدامات الخبيثة لنماذجها.