كشفت دراسة جديدة أجرتها كاسبرسكي عن اتجاه متزايد نحو «حقن الأوامر غير المباشر»، وهو أسلوب يُستخدم للتلاعب بمخرجات النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وروبوتات المحادثة البحثية المدعومة بالذكاء الاصطناعي، ورغم عدم العثور على أمثلة لأفعال مدمرة خطيرة بواسطة روبوتات المحادثة، إلا أن احتمال إساءة استخدامها لا يزال قائماً.

تُعد النماذج اللغوية الكبيرة أدوات قوية لاستخدامات مختلفة، بدايةً من تحليل المستندات، مروراً بتعين الموظفين، وانتهاءً بالبحث عن التهديدات. ومع ذلك، اكتشف باحثو كاسبرسكي ثغرة أمنية يمكن لمصادر التهديد الخبيثة استغلالها لتضمين تعليمات مخفية داخل المواقع الإلكترونية والمستندات عبر الإنترنت. وبعد ذلك، يمكن أن تلتقط الأنظمة القائمة على النماذج اللغوية الكبيرة هذه التعليمات، مما قد يؤثر على نتائج البحث أو استجابات روبوتات المحادثة.

حددت الدراسة عدة استخدامات لحقن الأوامر غير المباشر:

عمليات الحقن المتعلقة بالموارد البشرية: يقوم الباحثون عن الوظائف بتضمين أوامر مخصصة في سيرهم الذاتية للتلاعب بخوارزميات التوظيف وضمان الحصول على مخرجات أو أولويات مواتية بواسطة أنظمة الذكاء الاصطناعي. وتُطبق أساليب مثل استخدام الخطوط الصغيرة أو مطابقة لون النص مع الخلفية لإخفاء الهجوم عن المراجعين البشريين.عمليات الحقن الإعلانية: يقوم المعلنون بحقن الأوامر في صفحات الهبوط للتأثير على روبوتات المحادثة البحثية لتوليد مراجعات إيجابية للمنتجات.عمليات الحقن الاحتجاجية: يعبر الأفراد المعارضون للاستخدام واسع النطاق للنماذج اللغوية الكبيرة عن معارضتهم عبر تضمين دعوات احتجاجية في مواقعهم الإلكترونية وملفاتهم الشخصية على وسائل التواصل الاجتماعي، من خلال أوامر فكاهية، أو جادة، أو عدوانية.عمليات الحقن كإهانة: على وسائل التواصل الاجتماعي، يوظف المستخدمون حقن الأوامر كشكل من أشكال الإهانة أو لتعطيل روبوتات البريد العشوائي، وغالباً ما يكون ذلك من خلال طلبات لتوليد قصائد، أو فن لغة ASCII، أو آراء حول مواضيع سياسية.

ورغم عدم توصل الدراسة لأي دليل على الاستخدام الخبيث لتحقيق مكاسب مالية، إلا أنها تسلط الضوء على المخاطر المستقبلية المحتملة. وعلى سبيل المثال، يمكن للمهاجمين التلاعب بالنماذج اللغوية الكبيرة لنشر معلومات مضللة أو استخراج بيانات حساسة.

علق فلاديسلاف توشكانوف، مدير مجموعة تطوير الأبحاث في فريق أبحاث تكنولوجيا تعلم الآلة لدى كاسبرسكي: «يُعد حقن الأوامر غير المباشر بمثابة ثغرة أمنية جديدة تسلط الضوء على الحاجة لاتخاذ تدابير أمنية قوية في عصر الذكاء الاصطناعي. ومن خلال فهم هذه المخاطر وتطبيق الضمانات المناسبة، يمكننا ضمان استخدام النماذج اللغوية الكبيرة بأمان ومسؤولية.»

لحماية أنظمتك الحالية والمستقبلية القائمة على النماذج اللغوية الكبيرة (LLMs)، ضع في اعتبارك النصائح التالية:

افهم نقاط الضعف المحتملة في أنظمتك القائمة على النماذج اللغوية الكبيرة، وقيّم المخاطر المرتبطة بهجمات حقن الأوامر.كن على دراية بالمخاطر المهددة للسمعة، حيث يمكن التلاعب بروبوتات التسويق لإصدار تصريحات متطرفة، مما قد يؤدي لأضرار محتملة على السمعة.تصالح مع واقع محدودية الحماية، إذ لا يمكن تحقيق الحماية الكاملة ضد حقن الأوامر، وخاصةً مع الهجمات الأكثر تعقيداً مثل الحقن متعدد الوسائط.استخدم أدوات تعديل الإدخال والإخراج لتصفية مدخلات ومخرجات النماذج اللغوية الكبيرة، ولو أنها لا توفر أماناً كاملاً.تعرف على المخاطر التي تنشأ عن معالجة المحتوى غير الموثوق أو غير المؤكد في أنظمة النماذج اللغوية الكبيرة.قيّد قدرات اتخاذ القرار لأنظمة الذكاء الاصطناعي لمنع اتخاذ إجراءات غير مقصودة.تأكد من أن جميع أجهزة الحواسيب والخوادم التي تشغل الأنظمة القائمة على النماذج اللغوية الكبيرة محمية بأدوات وممارسات أمنية حديثة.

المصدر: بوابة الوفد

كلمات دلالية: روبوتات المحادثة

إقرأ أيضاً:

الذكاء الاصطناعي التوليدي: هل يمكن للروبوتات طلب المساعدة مثل البشر؟

في ظل الانتشار المتزايد للذكاء الاصطناعي التوليدي في مختلف المجالات، من الصحة إلى الصناعة، أصبحت الشركات تعمد بشكل متزايد إلى استخدام هذه التكنولوجيا لتوفير الجهد والمال. 

وفي هذا السياق، أعرب فيك سينج، نائب رئيس شركة مايكروسوفت، عن أهمية تطوير روبوتات الدردشة لتتعلم طلب المساعدة عندما تكون غير قادرة على أداء المهام الموكلة إليها.

هل يمكن للروبوتات طلب المساعدة؟

وفقًا لما ذكره سينج، فإن أدوات الذكاء الاصطناعي التوليدي، مثل الروبوتات الذكية، يجب أن تكون قادرة على الاعتراف عندما لا تتمكن من تنفيذ مهمة معينة وطلب المساعدة.

يساهم هذا في تحسين فعالية هذه الأدوات ويقلل من الأخطاء التي قد تحدث عند محاولة تقديم إجابات غير دقيقة أو "هلوسة" - وهي ظاهرة حيث يخترع الذكاء الاصطناعي إجابات غير منطقية أو غير صحيحة.

مشكلة "الهلوسة" في الذكاء الاصطناعي

على الرغم من التقدم الكبير في تكنولوجيا الذكاء الاصطناعي، لا تزال هناك مشاكل تتعلق بـ "الهلوسة" أو تقديم إجابات خاطئة. 

كما أشار مارك بينيوف، الرئيس التنفيذي لشركة Salesforce، إلى أن العديد من العملاء يشعرون بالإحباط بسبب تعقيدات البرامج مثل "Copilot" التابعة لمايكروسوفت.

جهود البحث لتحسين الذكاء الاصطناعي

أوضح سينج أن الباحثين يعملون على تحسين قدرة روبوتات الدردشة على طلب المساعدة عند الحاجة. 

حتى إذا كان النموذج بحاجة إلى اللجوء إلى الإنسان في نصف الحالات، فإن هذا لا يزال يوفر الوقت والمال للشركات.

تأثير الذكاء الاصطناعي على الأعمال

في ذروة الاهتمام بالذكاء الاصطناعي، كانت الشركات الناشئة وعدت بأنظمتها المتقدمة سترتقي بالإنسانية. 

كما أشار سام ألتمان، رئيس OpenAI، إلى أن الذكاء الاصطناعي يمكن أن يكون له تأثير إيجابي كبير.

من جهة أخرى، أكدت شركة مايكروسوفت أن برنامج "Copilot" يمكن أن يجري الأبحاث نيابة عن مندوبي المبيعات، مما يوفر الوقت والجهد في الاتصال بالعملاء.

وذكر سينج أن شركة Lumen للاتصالات، على سبيل المثال، قد وفرت نحو 50 مليون دولار سنويًا بفضل استخدام هذه التكنولوجيا.

مستقبل الذكاء الاصطناعي في مراكز الاتصال

أعلن بعض قادة الشركات الكبرى، مثل كيه كريثيفاسان، رئيس شركة TCS الهندية، أن الذكاء الاصطناعي التوليدي قد يقضي على الحاجة لمراكز الاتصال التقليدية.

مقالات مشابهة

  • “أبل” تطلق “آيفون 16” المعزز بالذكاء الاصطناعي
  • الذكاء الاصطناعي التوليدي: هل يمكن للروبوتات طلب المساعدة مثل البشر؟
  • معززا بالذكاء الاصطناعي.. كل ما تريد معرفته عن "آيفون 16"
  • أبل تكشف عن آيفون 16 المعزز بالذكاء الاصطناعي
  • نظام جديد لساعة آبل بالذكاء الاصطناعي
  • آبل تكشف عن هاتف جديد مزود بالذكاء الاصطناعي
  • الأهلي المصري وماستركارد يتعاونان لتحسين الخدمات المصرفية الرقمية المدعومة بالذكاء الاصطناعي
  • رسميًا .. بريطانيا تضم روبوتات تعمل بالذكاء الاصطناعي إلى جيشها
  • سماعة طبية مُدعمة بالذكاء الاصطناعي تساعد في تحديد ضعف عدد حالات قصور القلب
  • آيفون 16 الجديد.. دعم جديد بالذكاء الاصطناعي