دراسة: يمكن خداع روبوتات الذكاء الاصطناعي للقيام بأعمال تخريبية
تاريخ النشر: 6th, December 2024 GMT
انتشرت نماذج اللغة الكبيرة "إل إل إم" (LLM) في السنوات السابقة، ولكن أظهر باحثون طرقا عديدة لخداعها بهدف إنشاء مخرجات شاذة مثل النكات المحرضة على الكراهية والبرمجيات الخبيثة ورسائل البريد الإلكتروني الاحتيالية والمعلومات الشخصية للمستخدمين، وفقا لموقع "وايرد".
ويبدو أن السلوك الشاذ لروبوتات الذكاء الاصطناعي يمكن أن يخرج إلى العالم المادي، إذ يمكن اختراق الروبوتات المدعومة بنماذج اللغة الكبيرة "إل إل إم" وتوجيهها للقيام بأعمال تخريبية.
وتمكن باحثون من جامعة بنسلفانيا من إقناع سيارة ذاتية القيادة بتجاهل علامات التوقف وحتى القيادة من فوق جسر، كما جعلوا روبوتا يسير على عجلات يجد أفضل مكان لزرع قنبلة، وأجبروا روبوتا رباعي الأرجل على التجسس على الناس ودخول المناطق المحظورة.
وفي هذا الصدد، يقول جورج باباس، رئيس مختبر أبحاث في جامعة بنسلفانيا، لموقع "وايرد"، والذي ساعد في إطلاق الروبوتات المتمردة "نحن لا ننظر إلى هجومنا باعتباره هجوما على الروبوتات فحسب، ولكن في أي وقت تربط فيه نماذج اللغة الكبيرة مع العالم المادي، يمكنك في الواقع تحويل النصوص الضارة إلى أفعال ضارة".
وقد قام باباس وزملاؤه بتصميم هجومهم من خلال البناء على أبحاث سابقة تستكشف طرق كسر الحماية لنماذج اللغة الكبيرة "إل إل إم"، ووجدوا أن صياغة المدخلات بطرق ذكية قادرة على كسر قواعد الأمان الخاصة بها، واختبروا أنظمة تعتمد على نماذج اللغة الكبيرة لتحويل الأوامر المصوغة بشكل طبيعي إلى أوامر يمكن للروبوت تنفيذها.
إعلانواعتمد الفريق في اختباراته على محاكي قيادة ذاتي مفتوح المصدر يدمج نموذج لغة كبيرا مطورا بواسطة "إنفيديا" يسمى "دولفين" (Dolphin) ونظاما خارجيا يدعى "جاكال" (Jackal) يعتمد على نموذج "جي بي تي -4 أو" (GPT-4o) للتخطيط، وكلبا روبوتيا يسمى "غو2" (Go2) يستخدم نموذج "جي بي تي 3.5" (GPT-3.5) لتفسير الأوامر.
واستخدم الباحثون تقنية طوروها في جامعة بنسلفانيا تسمى "بير" (PAIR) تعمل على كسر حماية روبوتات الذكاء الاصطناعي، وأطلقوا على برنامجهم اسم "روبو بير" (RoboPAIR) الذي يعمل على توليد مطالبات خاصة لجعل الروبوتات المدعومة بنموذج اللغة الكبير "إل إل إم" تكسر قواعدها الخاصة، وقاموا بذلك من خلال تجربة مدخلات مختلفة ثم تحسينها لدفع النظام نحو سلوك غير مرغوب فيه.
يقول الباحثون إن التقنية التي ابتكروها يمكن استخدامها لتحديد الأوامر الخطيرة المحتملة، وفقا لموقع "وايرد".
ويقول يي زينغ وهو طالب دكتوراه في جامعة فرجينيا يعمل على أمن أنظمة الذكاء الاصطناعي "إنه مثال رائع على نقاط ضعف نماذج اللغات الكبيرة في الأنظمة المُجسّدة". ويضيف أن النتائج "ليست مُفاجئة على الإطلاق بالنظر إلى المشاكل التي شوهدت في نماذج اللغات الكبيرة نفسها".
ويوضح الباحثون المشاركون أن كسر حماية الروبوت يسلط الضوء على خطر أوسع قد ينتشر مع استخدام نماذج الذكاء الاصطناعي بشكل متزايد كوسيلة لتفاعل البشر مع الأنظمة الفيزيائية.
المصدر: الجزيرة
كلمات دلالية: حريات الذکاء الاصطناعی إل إل إم
إقرأ أيضاً:
نائب رئيس جامعة الأزهر يطالب بضوابط لاستخدام الذكاء الاصطناعي
أشاد الدكتور محمود صديق، نائب رئيس جامعة الأزهر للدراسات العليا والبحوث، بجهود كلية التربية للبنين بالقاهرة الداعمة لتوجه الدولة المصرية نحو التحول الرقمي وتحقيق رؤية مصر 2030م من خلال مؤتمرها الدولي العلمي العاشر.
أوضح نائب رئيس الجامعة للدراسات العليا والبحوث خلال إلقاء كلمته في افتتاح المؤتمر الذي يقام تحت عنوان: (الذكاء الاصطناعي ومنظومة التربية الطموحات والمخاطر) تحت رعاية فضيلة الإمام الأكبر الدكتور أحمد الطيب، شيخ الأزهر الشريف؛ أن عنوان المؤتمر يعكس مدى مواكبة كلية التربية لمستجدات العصر.
وبيَّن أن الناظر إلى حضارات المصريين القدماء يجد عجبًا يفوق الذكاء الاصطناعي الذي نتحدث عنه اليوم، وطالب بوضع ضوابط لاستخدام الذكاء الاصطناعي؛ لأنه نتاج بشري محمود محاسنه.
ووجه أيضًا بضرورة النظر في الأهرامات الثلاثة وتدقيق النظر في النظم الهندسية التي بنيت عليها الأهرامات الثلاثة، وكيفية تقطيع الأحجار وطرق نقلها ورفعها، وطريقة بنائها ومراعاة المسافات البينية بينها؛ ليتأكد له أن الذكاء الفطري الطبيعي للبشر له تأثير كبير في الحضارات القديمة؛ ولذلك لا بد للإنسان من إعمال العقل الذي يحتوي على مليار خلية.
وحث الباحثين على الجد والاجتهاد في طلب العلم محذرًا مما حذر منه المصطفى -صلى الله عليه وسلم- في قوله: «نِعْمَتَانِ مَغْبُونٌ فِيهِمَا كَثِيرٌ مِنَ النَّاسِ؛ الصِّحَّةُ وَالْفَرَاغُ».
وفي ختام كلمة دعا للمؤتمر بالتوفيق والنجاح، وأن يخرج بتوصيات علمية عملية تسهم في خدمة الأوطان.