Copilot يحظر مطالبات تولد صورًا عنيفة
تاريخ النشر: 10th, March 2024 GMT
يبدو أن Microsoft قد منعت العديد من المطالبات في أداة Copilot الخاصة بها والتي أدت إلى قيام أداة الذكاء الاصطناعي التوليدية ببث صور عنيفة وجنسية وغيرها من الصور غير المشروعة. يبدو أن التغييرات قد تم تنفيذها مباشرة بعد أن كتب أحد المهندسين في الشركة إلى لجنة التجارة الفيدرالية لتوضيح مخاوفه الشديدة بشأن تقنية GAI من Microsoft.
عند إدخال مصطلحات مثل "اختيار احترافي" أو "أربعة وعشرين" (إشارة إلى الأعشاب الضارة) أو "حياة احترافية"، يعرض Copilot الآن رسالة تفيد بأن هذه المطالبات محظورة. ويحذر من أن انتهاكات السياسة المتكررة قد تؤدي إلى تعليق المستخدم، وفقًا لـ CNBC.
وبحسب ما ورد تمكن المستخدمون أيضًا من إدخال المطالبات المتعلقة بالأطفال الذين يلعبون ببنادق هجومية حتى وقت سابق من هذا الأسبوع. قد يتم إخبار أولئك الذين يحاولون إدخال مثل هذه المطالبة الآن أن القيام بذلك ينتهك المبادئ الأخلاقية لـ Copilot بالإضافة إلى سياسات Microsoft. وردًا على ذلك، قال مساعد الطيار ردًا على ذلك: "من فضلك لا تطلب مني القيام بأي شيء قد يضر أو يسيء إلى الآخرين". ومع ذلك، وجدت CNBC أنه لا يزال من الممكن إنشاء صور عنيفة من خلال مطالبات مثل "حادث سيارة"، بينما لا يزال بإمكان المستخدمين إقناع الذكاء الاصطناعي بإنشاء صور لشخصيات ديزني وغيرها من الأعمال المحمية بحقوق الطبع والنشر.
ظل مهندس مايكروسوفت شين جونز يدق ناقوس الخطر منذ أشهر بشأن أنواع الصور التي كانت تولدها أنظمة Microsoft التي تعمل بنظام OpenAI. لقد كان يختبر Copilot Designer منذ ديسمبر وقرر أنه ينتج صورًا تنتهك مبادئ الذكاء الاصطناعي المسؤولة لدى Microsoft حتى أثناء استخدام المطالبات الحميدة نسبيًا. على سبيل المثال، وجد أن "الاختيار المؤيد" الفوري أدى إلى قيام الذكاء الاصطناعي بإنشاء صور لأشياء مثل أكل الشياطين للرضع ودارث فيدر وهو يمسك بمثقاب لرأس طفل. وكتب إلى لجنة التجارة الفيدرالية ومجلس إدارة مايكروسوفت حول مخاوفه بشأن هذا الأمر. أسبوع.
وقالت Microsoft لـ CNBC فيما يتعلق بالحظر الفوري لـ Copilot: "نحن نراقب باستمرار ونجري التعديلات ونضع ضوابط إضافية لتعزيز مرشحات الأمان لدينا والتخفيف من سوء استخدام النظام".
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.