أسلوب جديد يُستخدم للتحكم بروبوتات المحادثة البحثية المدعومة بالذكاء الاصطناعي
تاريخ النشر: 13th, August 2024 GMT
كشفت دراسة جديدة أجرتها كاسبرسكي عن اتجاه متزايد نحو «حقن الأوامر غير المباشر»، وهو أسلوب يُستخدم للتلاعب بمخرجات النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وروبوتات المحادثة البحثية المدعومة بالذكاء الاصطناعي، ورغم عدم العثور على أمثلة لأفعال مدمرة خطيرة بواسطة روبوتات المحادثة، إلا أن احتمال إساءة استخدامها لا يزال قائماً.
تُعد النماذج اللغوية الكبيرة أدوات قوية لاستخدامات مختلفة، بدايةً من تحليل المستندات، مروراً بتعين الموظفين، وانتهاءً بالبحث عن التهديدات. ومع ذلك، اكتشف باحثو كاسبرسكي ثغرة أمنية يمكن لمصادر التهديد الخبيثة استغلالها لتضمين تعليمات مخفية داخل المواقع الإلكترونية والمستندات عبر الإنترنت. وبعد ذلك، يمكن أن تلتقط الأنظمة القائمة على النماذج اللغوية الكبيرة هذه التعليمات، مما قد يؤثر على نتائج البحث أو استجابات روبوتات المحادثة.
حددت الدراسة عدة استخدامات لحقن الأوامر غير المباشر:
عمليات الحقن المتعلقة بالموارد البشرية: يقوم الباحثون عن الوظائف بتضمين أوامر مخصصة في سيرهم الذاتية للتلاعب بخوارزميات التوظيف وضمان الحصول على مخرجات أو أولويات مواتية بواسطة أنظمة الذكاء الاصطناعي. وتُطبق أساليب مثل استخدام الخطوط الصغيرة أو مطابقة لون النص مع الخلفية لإخفاء الهجوم عن المراجعين البشريين.عمليات الحقن الإعلانية: يقوم المعلنون بحقن الأوامر في صفحات الهبوط للتأثير على روبوتات المحادثة البحثية لتوليد مراجعات إيجابية للمنتجات.عمليات الحقن الاحتجاجية: يعبر الأفراد المعارضون للاستخدام واسع النطاق للنماذج اللغوية الكبيرة عن معارضتهم عبر تضمين دعوات احتجاجية في مواقعهم الإلكترونية وملفاتهم الشخصية على وسائل التواصل الاجتماعي، من خلال أوامر فكاهية، أو جادة، أو عدوانية.عمليات الحقن كإهانة: على وسائل التواصل الاجتماعي، يوظف المستخدمون حقن الأوامر كشكل من أشكال الإهانة أو لتعطيل روبوتات البريد العشوائي، وغالباً ما يكون ذلك من خلال طلبات لتوليد قصائد، أو فن لغة ASCII، أو آراء حول مواضيع سياسية.ورغم عدم توصل الدراسة لأي دليل على الاستخدام الخبيث لتحقيق مكاسب مالية، إلا أنها تسلط الضوء على المخاطر المستقبلية المحتملة. وعلى سبيل المثال، يمكن للمهاجمين التلاعب بالنماذج اللغوية الكبيرة لنشر معلومات مضللة أو استخراج بيانات حساسة.
علق فلاديسلاف توشكانوف، مدير مجموعة تطوير الأبحاث في فريق أبحاث تكنولوجيا تعلم الآلة لدى كاسبرسكي: «يُعد حقن الأوامر غير المباشر بمثابة ثغرة أمنية جديدة تسلط الضوء على الحاجة لاتخاذ تدابير أمنية قوية في عصر الذكاء الاصطناعي. ومن خلال فهم هذه المخاطر وتطبيق الضمانات المناسبة، يمكننا ضمان استخدام النماذج اللغوية الكبيرة بأمان ومسؤولية.»
لحماية أنظمتك الحالية والمستقبلية القائمة على النماذج اللغوية الكبيرة (LLMs)، ضع في اعتبارك النصائح التالية:
افهم نقاط الضعف المحتملة في أنظمتك القائمة على النماذج اللغوية الكبيرة، وقيّم المخاطر المرتبطة بهجمات حقن الأوامر.كن على دراية بالمخاطر المهددة للسمعة، حيث يمكن التلاعب بروبوتات التسويق لإصدار تصريحات متطرفة، مما قد يؤدي لأضرار محتملة على السمعة.تصالح مع واقع محدودية الحماية، إذ لا يمكن تحقيق الحماية الكاملة ضد حقن الأوامر، وخاصةً مع الهجمات الأكثر تعقيداً مثل الحقن متعدد الوسائط.استخدم أدوات تعديل الإدخال والإخراج لتصفية مدخلات ومخرجات النماذج اللغوية الكبيرة، ولو أنها لا توفر أماناً كاملاً.تعرف على المخاطر التي تنشأ عن معالجة المحتوى غير الموثوق أو غير المؤكد في أنظمة النماذج اللغوية الكبيرة.قيّد قدرات اتخاذ القرار لأنظمة الذكاء الاصطناعي لمنع اتخاذ إجراءات غير مقصودة.تأكد من أن جميع أجهزة الحواسيب والخوادم التي تشغل الأنظمة القائمة على النماذج اللغوية الكبيرة محمية بأدوات وممارسات أمنية حديثة.المصدر: بوابة الوفد
كلمات دلالية: روبوتات المحادثة
إقرأ أيضاً:
فعالية “أذكى KSU” تستقطب 10 آلاف شخص لاستكشاف التحول التعليمي بالذكاء الاصطناعي
أقيمت اليوم فعالية أذكى KSU التي تعد أكبر فعالية مفتوحة على مستوى جامعات المملكة، نظمتها جامعة الملك سعود، والهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا”، للنهوض بالجامعة بالذكاء الاصطناعي، وسط تفاعل جماهيري كبير ناهز عشرة آلاف شخص اكتظت بهم مدرجات وساحات أرينا بالجامعة في الرياض.
وشهدت الفعالية تفاعلًا استثنائيًا مع العروض المقدمة باستخدام الذكاء الاصطناعي بأساليب علمية حديثة أسهمت في خلق أجواء مفعمة بالحماس والتفاعل بين الحاضرين من مختلف الأعمار الشابة الذين تنافسوا على المسابقات والتحديات الطلابية مع الذكاء الاصطناعي، بشكل عزز من قدراتهم الذهنية والمعرفية حول الذكاء الاصطناعي كهدف إستراتيجي من تنظيم هذه الفعالية.
كما شهدت الفعالية إقامة العديد من الأنشطة، التي وجدت إقبالًا منقطع النظير من الحضور، لاسيما تلك المشروعات، التي قدمها مجموعة من شباب الوطن، مستعينين فيها بالذكاء الاصطناعي، وجرى تكريم الفائزين منهم بجوائز تقديرية، فيما اسهمت تجاربهم في توسيع مداركهم وتنمية ثقافتهم في تقنيات الذكاء الاصطناعي، ووجدت دعمًا من خبراء الذكاء الاصطناعي في جامعة الملك سعود و “سدايا”.
أخبار قد تهمك جامعة الملك سعود و”سدايا” تطلقان أكبر فعالية جامعية في الذكاء الاصطناعي بالمملكة 14 فبراير 2025 - 3:28 صباحًا جامعة الملك سعود وصندوق البيئة يوقعان عقد “جائزة التميز البحثي في تنمية البيئة” 13 فبراير 2025 - 11:24 مساءًوتضمنت فعالية أذكى KSU برنامجًا مكثفًا حافلًا بالأنشطة والتطبيقات الحية، التي استهدفت تنمية المهارات الفكرية والذهنية للمشاركين، إلى جانب استعراض أحدث التجارب العالمية في الذكاء الاصطناعي، بمشاركة نخبة من الخبراء والمؤثرين، علاوة على تقديم تحدي Rocket League، التقني، واستعراض أحدث التقنيات المستخدمة في معامل جامعة الملك سعود.
وخاض المشاركون في المسابقات التي قدمت تجربة استثنائية عبر هاكاثون التحول، الذي ركّز على تطوير حلول تقنية مبتكرة تعزز تطبيقات الذكاء الاصطناعي في مختلف الاستخدامات، في مقابل إيجاد بيئة تفاعلية غنية من خلال منطقة AI PARK ، التي جمعت بين الأنشطة الترفيهية والتجارب العملية، في أجواء حيوية زادتها عربات الطعام تميزًا.
كما شهدت الفعالية إطلاق حزمة من المشاريع العلمية من ضمنها الزمالات البحثية في مجال الذكاء الاصطناعي والعديد من الشراكات، التي تعزز من استخدامات الذكاء الاصطناعي وتدعم وتؤسس لتأهيل وبناء قدرات جيل واعد، قادر على مواكبة مستقبل التقنية والمشاركة الفاعلة في مسيرة التحول الرقمي، ومتمكن من تقنيات الذكاء الاصطناعي.
حضر حفل انطلاق الفعالية صاحبة السمو الملكي الأميرة الدكتورة مها بنت مشاري بن عبدالعزيز نائب رئيس جامعة الفيصل للتطوير والعلاقات الخارجية، ومعالي وزير التعليم الأستاذ يوسف بن عبدالله البنيان، ومعالي رئيس الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” الدكتور عبدالله بن شرف الغامدي، ومعالي الرئيس التنفيذي لمستشفى الملك فيصل التخصصي ومركز الأبحاث الدكتور ماجد بن إبراهيم الفياض، وعدد من أصحاب المعالي وأعضاء هيئة التدريس بجامعة الملك سعود وطلاب وطالبات الجامعة، وعدد من المهتمين بالتقنية من خارج المملكة.