Copilot يحظر مطالبات تولد صورًا عنيفة
تاريخ النشر: 10th, March 2024 GMT
يبدو أن Microsoft قد منعت العديد من المطالبات في أداة Copilot الخاصة بها والتي أدت إلى قيام أداة الذكاء الاصطناعي التوليدية ببث صور عنيفة وجنسية وغيرها من الصور غير المشروعة. يبدو أن التغييرات قد تم تنفيذها مباشرة بعد أن كتب أحد المهندسين في الشركة إلى لجنة التجارة الفيدرالية لتوضيح مخاوفه الشديدة بشأن تقنية GAI من Microsoft.
عند إدخال مصطلحات مثل "اختيار احترافي" أو "أربعة وعشرين" (إشارة إلى الأعشاب الضارة) أو "حياة احترافية"، يعرض Copilot الآن رسالة تفيد بأن هذه المطالبات محظورة. ويحذر من أن انتهاكات السياسة المتكررة قد تؤدي إلى تعليق المستخدم، وفقًا لـ CNBC.
وبحسب ما ورد تمكن المستخدمون أيضًا من إدخال المطالبات المتعلقة بالأطفال الذين يلعبون ببنادق هجومية حتى وقت سابق من هذا الأسبوع. قد يتم إخبار أولئك الذين يحاولون إدخال مثل هذه المطالبة الآن أن القيام بذلك ينتهك المبادئ الأخلاقية لـ Copilot بالإضافة إلى سياسات Microsoft. وردًا على ذلك، قال مساعد الطيار ردًا على ذلك: "من فضلك لا تطلب مني القيام بأي شيء قد يضر أو يسيء إلى الآخرين". ومع ذلك، وجدت CNBC أنه لا يزال من الممكن إنشاء صور عنيفة من خلال مطالبات مثل "حادث سيارة"، بينما لا يزال بإمكان المستخدمين إقناع الذكاء الاصطناعي بإنشاء صور لشخصيات ديزني وغيرها من الأعمال المحمية بحقوق الطبع والنشر.
ظل مهندس مايكروسوفت شين جونز يدق ناقوس الخطر منذ أشهر بشأن أنواع الصور التي كانت تولدها أنظمة Microsoft التي تعمل بنظام OpenAI. لقد كان يختبر Copilot Designer منذ ديسمبر وقرر أنه ينتج صورًا تنتهك مبادئ الذكاء الاصطناعي المسؤولة لدى Microsoft حتى أثناء استخدام المطالبات الحميدة نسبيًا. على سبيل المثال، وجد أن "الاختيار المؤيد" الفوري أدى إلى قيام الذكاء الاصطناعي بإنشاء صور لأشياء مثل أكل الشياطين للرضع ودارث فيدر وهو يمسك بمثقاب لرأس طفل. وكتب إلى لجنة التجارة الفيدرالية ومجلس إدارة مايكروسوفت حول مخاوفه بشأن هذا الأمر. أسبوع.
وقالت Microsoft لـ CNBC فيما يتعلق بالحظر الفوري لـ Copilot: "نحن نراقب باستمرار ونجري التعديلات ونضع ضوابط إضافية لتعزيز مرشحات الأمان لدينا والتخفيف من سوء استخدام النظام".
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
تحذيرات من تصاعد خطر الذكاء الاصطناعي في هجمات التصيد الاحتيالي
تابع أحدث الأخبار عبر تطبيق
حذّرت شركة كاسبرسكي من استخدام الذكاء الاصطناعي في تطوير وتخصيص هجمات التصيد الاحتيالي، مشيرة إلى تزايد تعقيد هذه الهجمات وصعوبة كشفها حتى من قبل موظفين ذوي خبرة عالية في الأمن السيبراني.
وكشفت دراسة أجرتها كاسبرسكي في منطقة الشرق الأوسط وتركيا وأفريقيا عن زيادة بنسبة 48% في الهجمات السيبرانية على المؤسسات خلال العام الماضي، حيث شكلت هجمات التصيد الاحتيالي التهديد الأوسع، إذ واجهها 51% من المشاركين في الدراسة.
ويتوقع 53% من المشاركين تزايدًا في تلك الهجمات مع استمرار المجرمين السيبرانيين في استغلال تقنيات الذكاء الاصطناعي.
الذكاء الاصطناعي يعزز تخصيص الهجماتبينما كانت هجمات التصيد سابقًا عامة وتُرسل بشكل عشوائي، بات بالإمكان الآن استخدام أدوات الذكاء الاصطناعي لاستهداف الأفراد برسائل دقيقة مخصصة تتوافق مع وظائفهم واهتماماتهم، اعتمادًا على معلومات منشورة عبر الإنترنت. ويُظهر ذلك كيف يمكن بسهولة انتحال صفة مسؤول تنفيذي لإقناع الموظفين باتخاذ إجراءات ضارة.
خطر التزييف العميق يتصاعدوأشارت كاسبرسكي إلى أن تقنيات التزييف العميق أصبحت أداة فعالة في يد المهاجمين لإنتاج محتوى صوتي ومرئي مقنع لانتحال شخصيات، ما يؤدي إلى حالات مثل تحويل ملايين الدولارات بناءً على مقاطع فيديو وهمية.
تستخدم هجمات التصيد المدعومة بالذكاء الاصطناعي خوارزميات لتجاوز أنظمة الحماية التقليدية وتحاكي أسلوب البريد الإلكتروني الشرعي، مما يتيح لها تفادي اكتشاف برامج الحماية.
الخبرة وحدها لا تكفيورغم الخبرة، يظل الموظفون عرضة لهذه الهجمات المتطورة نتيجة لقدرتها على استغلال العوامل النفسية، مثل الاستعجال والخوف والثقة في السلطة، مما يقلل من فرص التحقق المسبق.
استراتيجية دفاعية متعددة المستوياتأوصت كاسبرسكي باعتماد استراتيجية شاملة للتصدي لهذه الهجمات، تتضمن تدريب الموظفين على التهديدات الحديثة عبر منصات مثل Kaspersky Automated Security Awareness Platform،
واستخدام أدوات الحماية المتقدمة مثل Kaspersky Next وKaspersky Security for Mail Server، بالإضافة إلى تطبيق نموذج أمان انعدام الثقة الذي يضمن الحد من الوصول للأنظمة الحساسة.