مع وجود مخاوف بشأن الذكاء الاصطناعي المنتج بشكل دائم، أعلنت جوجل عن توسيع برنامج مكافآت الثغرات الأمنية (VRP) الذي يركز على الهجمات الخاصة بالذكاء الاصطناعي وفرص الخبث. على هذا النحو، أصدرت الشركة إرشادات محدثة توضح بالتفصيل الاكتشافات المؤهلة للحصول على المكافآت وتلك التي تقع خارج النطاق. على سبيل المثال، اكتشاف استخراج بيانات التدريب الذي يسرب معلومات خاصة وحساسة يقع ضمن النطاق، ولكن إذا أظهر فقط بيانات عامة وغير حساسة، فلن يكون مؤهلاً للحصول على مكافأة.

في العام الماضي، منحت جوجل الباحثين الأمنيين 12 مليون دولار لاكتشاف الأخطاء.

أوضحت جوجل أن الذكاء الاصطناعي يطرح مشكلات أمنية مختلفة عن التكنولوجيا الأخرى - مثل التلاعب بالنماذج والتحيز غير العادل - مما يتطلب إرشادات جديدة لتعكس ذلك. وقالت الشركة في بيان: "نعتقد أن توسيع VRP سيحفز البحث حول سلامة وأمن الذكاء الاصطناعي، ويسلط الضوء على المشكلات المحتملة التي ستجعل الذكاء الاصطناعي أكثر أمانًا للجميع في النهاية". "نحن نقوم أيضًا بتوسيع عملنا الأمني مفتوح المصدر لجعل المعلومات حول أمان سلسلة التوريد الخاصة بالذكاء الاصطناعي قابلة للاكتشاف والتحقق منها عالميًا."

اجتمعت شركات الذكاء الاصطناعي، بما في ذلك جوجل، في البيت الأبيض في وقت سابق من هذا العام، ملتزمة بمزيد من الاكتشاف والوعي بنقاط الضعف في الذكاء الاصطناعي. ويأتي توسع VRP الخاص بالشركة أيضًا قبل صدور أمر تنفيذي "كاسح" من الرئيس بايدن المقرر صدوره يوم الاثنين 30 أكتوبر، والذي من شأنه إنشاء تقييمات ومتطلبات صارمة لنماذج الذكاء الاصطناعي قبل أي استخدام من قبل الوكالات الحكومية.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

جوجل تزيل الحظر عن استخدام ذكائها الاصطناعي في تطوير الأسلحة

 حذفت شركة جوجل من جانبها تعهدها بعدم القيام بتطوير تقنية الذكاء الاصطناعي لبعض أنظمة المراقبة و للأسلحة أو وذلك من موقعها الإلكتروني، 

ويشمل التعديل القيان بإزالة قسم بعنوان "التطبيقات التي لن نسعى إليها" وذلك من صفحة مبادئ الذكاء الاصطناعي، والذي كان لا يزال موجودًا حتى الأسبوع الماضي.

على الجانب الآخر  وفقا لموقع digitaltrends عند طلب تعليق رسمي، قد أحالت الشركة موقع "تك كرانش" إلى منشور جديد حول تقنية الذكاء الاصطناعي المسؤول، لتؤكد فيه على أهمية التعاون بين الشركات والحكومات وذلك لضمان تطوير تقنية الذكاء الأصطناعي وحماية الأفراد وتعزيز الأمن القومي.

وفي السياق نفسه شددت المبادئ المحدثة على القيام بتقليل النتائج غير المقصودة وتجنب التحيز غير العادل، وذلك مع الالتزام بالعديد من المبادئ الدولية وذلك لحقوق الإنسان.

وقد تأتي هذه التعديلات في ظل تصاعد الجدل حول تورط شركة جوجل" في تزويد بعض القوات العسكرية بخدمات سحابية، ما أثار العديد من الأحتجاجات الداخلية من قبل بعض موظفيها.

ورغم تأكيد شركة جوجل أن تقنياتها لا تُستخدم لإيذاء البشر، إلا أن رئيس الذكاء الاصطناعي في البنتاجون قد كشف مؤخرًا أن بعض نماذج الذكاء الاصطناعي الخاصة بالشركة قد تساهم في القيام بعض العمليات للجيش الأميركي، مما قد يطرح العديد من التساؤلات الجدية حول مستقبل التزامات شركة جوجل الأخلاقية.

من جانبها  تتجه شركة جوجل نحو دور أكثر نشاطًا وذلك في تطوير تقنيات الذكاء الاصطناعي للعديد من الأغراض العسكرية والأمنية، وهو ما قد يثير العديد من المخاوف المتزايدة وذلك بشأن أخلاقيات تقنيات الذكاء الاصطناعي، وتأثيرها في العديد من الحريات والخصوصية.

مقالات مشابهة

  • 125 ممارسًا يختتمون برنامج تمكين القطاع الصحي في الذكاء الاصطناعي
  • أخبار التكنولوجيا| واتساب يحذر من هجوم إلكتروني عالمي ببرامج تجسس.. فايرفوكس يتيح الوصول إلى روبوتات الذكاء الاصطناعي
  • 125 ممارسًا صحيًا يختتمون برنامج تمكين الذكاء الاصطناعي في القطاع الصحي
  • لأول مرة.. برنامج خبيث يقرأ لقطات الشاشة يخترق أمان آيفون
  • إلغاء تعهدات جوجل بشأن استخدام الذكاء الاصطناعي في الأسلحة والمراقبة
  • مشروع «أسترا» من جوجل: إعادة تعريف البحث الإلكتروني باستخدام الذكاء الاصطناعي
  • مشروع «أسترا» من جوجل: إعادة تعريف البحث الإلكتروني باستخدام الذكاء الاصطناعي
  • أستراليا تحظر برنامج الذكاء الاصطناعي ديب سيك
  • أستراليا تحظر برنامج الذكاء الاصطناعي الصيني “ديب سيك” وتؤكد أنه خطر أمني يهدد الحكومة
  • جوجل تزيل الحظر عن استخدام ذكائها الاصطناعي في تطوير الأسلحة