الذكاء الاصطناعي ثورة تقنية أم تهديد أمني؟.. خبير أمن المعلومات يوضح
تاريخ النشر: 10th, January 2025 GMT
تحدث الدكتور أحمد بانافع، خبير أمن المعلومات، حول ما كشفته السلطات الأمريكية حول أن برنامج الذكاء الاصطناعي «شات جي بي تي» تم استخدامه في حادثة تفجير السيارة في رأس السنة، أمام برج ترامب في ولاية نيفادا الأمريكية قائلًا: «إن الذكاء الاصطناعي أداة ذات حدين ومثل ما هناك أشخاص يستخدمونه في الأشياء الجيدة، فإن المجرمين يستخدموه للحصول على المعلومات».
وأضاف «بانافع» خلال مداخلة ببرنامج «صباح جديد» المذاع على شاشة قناة القاهرة الإخبارية، أن هناك مسؤولية تقع على عاتق الشركات المطورة لتقنيات الذكاء الاصطناعي لمنع حوادث جديدة، ولكنها مسؤولية أخلاقية وليست قانونية، موضحًا أن إدارة بايدن أصدرت طلب رئاسي بمراقبة تقنيات الذكاء الاصطناعي بشكل تطوعي.
وأشار خبير أمن المعلومات إلى أنه من المستحيل أن تراقب الشركات منتجاتها وتحد منها لأن هذا يقلل من أرباحهم، لافتًا إلى أنه عدد من الولايات الأمريكية حاولت تقيض تقنيات الذكاء الاصطناعي من خلال تحميل الشركات المطورة عن العواقب السيئة لاستخدام الذكاء الاصطناعي لكن الولايات المشار إليها فشلت في إصدار قرارات بذلك، ومع ذلك فمن الممكن أن تكون حادث نيفادا محركًا لمحاولات لتقيض الذكاء الاصطناعي.
اقرأ أيضاً«بايت دانس» تطور نموذج ذكاء اصطناعي يحول الصور الثابتة إلى مقاطع واقعية
تشغيل برامج وتنفيذ المهمات.. «مايكروسوفت» تطور نموذج ذكاء اصطناعي جديد
الشاعري وحماقي يتعاقدان مع شركة ذكاء اصطناعي لاستخدام صوتيهما بعد الوفاة
المصدر: الأسبوع
كلمات دلالية: أداة اﺳﺘﺜﻤﺎرﻳﺔ السلطات الأمريكية برج ترامب برنامج الذكاء الاصطناعي خطر الذكاء الاصطناعي شات جي بي تي مخاطر الذكاء الإصطناعي ولاية نيفادا الأمريكية الذکاء الاصطناعی
إقرأ أيضاً:
تخترق الحماية .. اكتشاف نماذج ذكاء اصطناعي خبيثة على «Hugging Face» |تفاصيل
اكتشف باحثون في مجال الأمن السيبراني نماذج خبيثة للذكاء الاصطناعي على منصة Hugging Face تستخدم تقنية جديدة تعتمد على ملفات Pickle "المكسورة" لتجاوز أدوات الكشف عن البرمجيات الضارة.
تفاصيل الهجوم: كيف تم استغلال Pickle؟وكشف الباحث الأمني كارلو زانكي من شركة ReversingLabs أن الملفات الضارة كانت مخبأة داخل أرشيفات PyTorch، حيث تم وضع شيفرة خبيثة في بداية الملفات، مما يسمح بتنفيذ هجوم عبر "Shell عكسي" يتصل بعنوان IP محدد مسبقًا.
أُطلق على هذه الطريقة اسم "nullifAI"، وهي تستغل نقاط الضعف في آليات الأمان المستخدمة لاكتشاف النماذج الضارة. وقد تم تحميل النماذج على المستودعات التالية في Hugging Face:
glockr1/ballr7who-r-u0000/0000000000000000000000000000000000000لماذا يمثل Pickle خطرًا أمنيًا؟يعد تنسيق Pickle خيارًا شائعًا لتوزيع نماذج الذكاء الاصطناعي، لكنه يحمل مخاطر أمنية كبيرة، حيث يتيح تنفيذ أوامر عشوائية بمجرد تحميله وإلغاء تسلسله (Deserialization).
في هذه الحالة، استخدم المهاجمون تنسيق 7z بدلاً من ZIP لضغط النماذج، مما سمح لهم بتجاوز أداة Picklescan، وهي أداة مخصصة لاكتشاف الملفات المشبوهة على Hugging Face.
ثغرة في آليات الكشف.. وكيف تم استغلالها؟أوضح الباحثون أن هذه الملفات مصممة بحيث يتم تنفيذ الشيفرة الخبيثة قبل تعطل عملية إلغاء التسلسل، مما يمنع أدوات الفحص من اكتشافها.
وقال زانكي:"تتم معالجة أكواد Pickle بالتسلسل، مما يسمح بتنفيذ الأوامر الضارة قبل اكتشاف المشكلة. في هذه الحالة، لم تستطع أدوات الفحص في Hugging Face تصنيف النموذج على أنه غير آمن."
ما الإجراءات التي تم اتخاذها؟قامت Hugging Face بتحديث أداة Picklescan لسد هذه الثغرة ومنع تنفيذ الشيفرات الضارة باستخدام نفس الأسلوب.
تواصل شركات الأمن السيبراني مراقبة مستودعات الذكاء الاصطناعي بحثًا عن نماذج مشبوهة قد تستخدم تقنيات مماثلة في المستقبل.
ماذا يعني هذا للمطورين والمستخدمين؟يُحذر الخبراء من مخاطر تحميل نماذج الذكاء الاصطناعي من مصادر غير موثوقة، وينصحون باستخدام بيئات تشغيل معزولة (Sandboxing) عند اختبار النماذج الجديدة.