أعلنت شركة مايكروسوفت أنها ستدفع للمستخدمين جوائز كبيرة، إذا تمكنوا من التفوق على منتجات الذكاء الاصطناعي الخاصة بها أو وجدوا فيها أي ثغرة.

 وسيتم منح المستخدمين القادرين على كشف أي ثغرات أمنية مبلغاً يتراوح بين 2000 إلى 15000 دولار بناءً على مدى أهمية الخطأ.

وفي خطوة جريئة، كشفت شركة مايكروسوفت عن مبادرة رائدة لتعزيز أمن منتجات الذكاء الاصطناعي الخاصة بـ بينغ، مما يشكل تحدياً للمبدعين في مجال التكنولوجيا للكشف عن نقاط الضعف المحتملة في إطار عمل الذكاء الاصطناعي.

وفي تحديث مدونة جديد، قدمت الشركة العملاقة برنامجاً جديداً يسمى "مكافأة الأخطاء" يلتزم بمكافأة الباحثين الأمنيين بمكافآت تتراوح من 2000 دولار إلى 15000 دولار لتحديد "نقاط الضعف" في مجموعة بينغ للذكاء الاصطناعي.

وتدور نقاط الضعف هذه في المقام الأول حول مطالبات تقنع الذكاء الاصطناعي لتوليد استجابات تبتعد عن الحواجز الأخلاقية التي تهدف إلى حظر المحتوى المتعصب أو المثير للمشاكل.

وللمشاركة في هذا البرنامج، يجب على مستخدمي بينغ تنبيه مايكروسوفت إلى الثغرات الأمنية التي لم يتم الكشف عنها مسبقاً، وفقاً للمعايير المحددة للشركة، والمصنفة إما على أنها "مهمة" أو "حرجة" للأمان. ويجب أن يكون الباحثون أيضاً قادرين على تكرار نقاط الضعف هذه من خلال عروض الفيديو أو الوثائق المكتوبة.

وتعتمد مبالغ المكافآت على مدى خطورة وجودة المشكلات التي تم الإبلاغ عنها، حيث تحصل نقاط الضعف الأكثر خطورة المصحوبة بوثائق شاملة على أعلى المكافآت. ويمثل هذا فرصة مثيرة للاهتمام لعشاق الذكاء الاصطناعي لتحويل خبراتهم إلى مرابح مادية.

وبغض النظر عن توقيت هذه المبادرة، فمن المثير للاهتمام أن مايكروسوفت اختارت الاستعانة بمصادر خارجية لأبحاث الثغرات الأمنية. ومع ذلك، وبالنظر إلى الحجم الهائل لصفقاتها التجارية، فإن الحد الأقصى للمكافأة البالغة 15000 دولار يعتبر ضئيلاً بالمقارنة مع هذه الصفقات.

وتؤكد هذه المبادرة على تفاني مايكروسوفت في تعزيز الأمن والسلامة الأخلاقية لمنتجات الذكاء الاصطناعي الخاصة بها، وتوضح التزامها بالاستجابات الاستباقية في مجال الذكاء الاصطناعي، بحسب موقع فيرست بوست.

المصدر: موقع 24

كلمات دلالية: التغير المناخي محاكمة ترامب أحداث السودان سلطان النيادي مانشستر سيتي غزة وإسرائيل الحرب الأوكرانية عام الاستدامة الذكاء الاصطناعي مايكروسوفت الذکاء الاصطناعی نقاط الضعف

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • الذكاء الاصطناعي يفك لغزاً علمياً استعصى على العلماء لعقد كامل
  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
  • الذكاء الاصطناعي والدخول إلى خصوصيات البشر
  • الجديد وصل .. جوجل تتحدى آبل في مجال الذكاء الاصطناعي الشخصي
  • الصين تدخل الذكاء الاصطناعي إلى مناهج الابتدائية