ديدان ذكية لكنها خبيثة.. باحثون يطورون دودة سيبرانية تعمل بالذكاء الاصطناعي
تاريخ النشر: 24th, March 2024 GMT
شهد مجال الذكاء الاصطناعي في السنوات الأخيرة تطورات كبيرة، مع ظهور تطبيقات وحالات استخدام جديدة، حيث تطورت أنظمة الذكاء الاصطناعي التوليدية، مثل "شات جي بي تي" من شركة "أوبن إيه آي"، و"جيميني" من غوغل، إلى أدوات لا غنى عنها في مختلف القطاعات.
لمواكبة هذه التطورات، تعمل الشركات الناشئة وشركات التكنولوجيا على تسخير قدراتها لتطوير عوامل الذكاء الاصطناعي والأنظمة البيئية القادرة على أتمتة المهام، بدءا من جدولة المواعيد وحتى شراء المنتجات.
توازيا مع هذه التطورات، تكتسب هذه الأنظمة مزيدا من الاستقلالية، وتصبح عرضة لأشكال متنوعة من المخاطر والهجمات الإلكترونية.
إحدى هذه المخاطر هي تطوير البرمجيات الخبيثة التي تعمل بالذكاء الاصطناعي، والتي يمكن أن تنتشر من تلقاء نفسها، مما يشكل تهديدا كبيرا للأمن السيبراني.
قادمونفي خضم الأحداث السريعة لمشهد الذكاء الاصطناعي، صمم فريق من الباحثين ما أكدوا أنه من بين أول "ديدان الذكاء الاصطناعي التوليدية". تتمتع هذه الديدان بالقدرة على الانتشار من نظام إلى آخر، ومن المحتمل أن تقوم بسرقة البيانات أو نشر برامج خبيثة في أعقابها.
يوضح الباحث في جامعة كورنيل للتكنولوجيا، بين ناسي، أحد مهندسي معمارية الحاسوب الذين يقفون وراء هذا المسعى البحثي: "هذا يعني في الأساس أن لديك الآن القدرة على تنفيذ نوع جديد من الهجمات الإلكترونية التي لم يسبق لها مثيل".
سمّى ناسي مع زملائه الباحثين ستاف كوهين ورون بيتون، ابتكارهم موريس2، كإشارة إلى دودة الحاسوب موريس سيئة السمعة التي أحدثت دمارا عبر الإنترنت في عام 1988.
في ورقة بحثية شاملة وموقع ويب مصاحب تمت مشاركته حصريا مع موقع "وايرد" (WIRED)، يكشف الباحثون كيف يمكن لدودة الذكاء الاصطناعي أن تتسلل إلى مساعد البريد الإلكتروني الذي يعمل بالذكاء الاصطناعي لسرقة البيانات من رسائل البريد الإلكتروني ونشر رسائل البريد العشوائية، وتجاوز بعض الإجراءات الأمنية في "شات جي بي تي" و"جيميني" أثناء هذه العملية.
يتزامن هذا البحث، الذي أُجري ضمن بيئات اختبار خاضعة للرقابة وليس ضمن تطبيقات مساعدات البريد الإلكتروني المتاحة للعامة، مع تطور النماذج اللغوية الكبيرة (LLM) إلى كيانات متعددة الوسائط، قادرة على إنشاء صور ومقاطع فيديو بالإضافة إلى النص.
في حين أن حالات ديدان الذكاء الاصطناعي التوليدية التي تتسلل إلى أنظمة العالم الحقيقي لم تظهر بعد، فإن العديد من الباحثين يحذرون من أنها تشكل خطرا أمنيا كبيرا يتطلب اهتمام الشركات الناشئة والمطورين وشركات التكنولوجيا، على حد سواء.
عادة، تعمل أنظمة الذكاء الاصطناعي التوليدية من خلال الاستجابة للأوامر (Prompts)، وهي تعليمات نصية تحث النظام على الإجابة عن استعلام أو إنشاء محتوى. ومع ذلك، يمكن التلاعب بهذه الأوامر لتخريب عمليات النظام.
الأخطر من ذلك، يمكن أن تؤدي عمليات كسر الحماية إلى إجبار النظام على تجاهل بروتوكولات الأمان، مما يؤدي إلى إنتاج محتوى مؤذ أو يحرض على الكراهية، أو استخدام هجمة سيبرانية تعرف بهجمات الحقن (Injection attack) حيث تكمن خطورتها في توجيهها تعليمات إلى برنامج الدردشة الآلي بشكل خفي.
ولهندسة دودة الذكاء الاصطناعي التوليدية، استخدم الباحثون ما يسمونه "محفز التكاثر الذاتي العدائي".
يدفع هذا الأمر نموذج الذكاء الاصطناعي التوليدي إلى إنشاء أمر آخر في استجابته، وتوجيه نظام الذكاء الاصطناعي بشكل أساسي لإنتاج سلسلة من التعليمات اللاحقة في ردوده. فيبدو الهجوم كأنه مغلف بهجوم آخر. يشبه هذا الهجوم هجمتي (حقن الـSQL)، وكذلك هجمات تجاوز سعة المخزن المؤقت.
أما عن توضيح وظيفة الدودة، ابتكر الباحثون نظام بريد إلكتروني قادرا على الاتصال ثنائي الاتجاه باستخدام الذكاء الاصطناعي التوليدي، والتكامل مع "شات جي بي تي"، و"جيميني"، و"إل إل إم إل لافا" (LLM LLaVA) مفتوح المصدر.
حسنا، تخيل أن لديك مساعد بريد إلكتروني، مثل مساعد ذكي للغاية يمكنه قراءة رسائل البريد الإلكتروني الخاصة بك والرد عليها نيابة عنك. الآن، وجد الباحثون طريقة لخداع مساعد البريد الإلكتروني هذا للقيام بهجوم خبيث.
لقد أرسلوا له نوعا خاصا من الرسائل يسمى "أمرا نصيا عدائيا"، والتي تشبه الرمز السري الذي يعبث بعقل المساعد.
تم تصميم هذه الرسالة الخاصة لجعل المساعد يتصرف بشكل غريب، ويقوم بأشياء ليس من المفترض أن يفعلها.
لهندسة دودة الذكاء الاصطناعي التوليدية، استخدم الباحثون ما يسمونه "محفز التكاثر الذاتي العدائي" (غيتي)
في صلب تصميمه، يستخدم المساعد ما يسمى بـ"مولد الاسترجاع المعزز" لمساعدته في الرد على رسائل البريد الإلكتروني. هذا يعني أنها تنظر إلى المعلومات الأخرى للتوصل إلى أفضل استجابة، ولكن عندما يصاب، فإنه يبدأ في تقديم معلومات خاصة مثل رقم بطاقتك الائتمانية من رسائل البريد الإلكتروني بدلا من الردود المفيدة.
هنا حيث يصبح الأمر صعبا للغاية، فعندما يرد المساعد المصاب على رسالة بريد إلكتروني، فإنه يرسل هذه المعلومات الخاصة إلى شخص آخر. وإذا أصيب مساعد البريد الإلكتروني لهذا الشخص أيضا، فستستمر الدورة.
إنه مثل سلسلة من ردود الفعل، تنتشر من مساعد بريد إلكتروني إلى آخر، وتسرق البيانات الخاصة على طول الطريق. لذلك، بعبارات بسيطة، وجد الباحثون طريقة لجعل مساعد البريد الإلكتروني يتصرف كجاسوس، حيث يسرق الأسرار من رسائل البريد الإلكتروني ويمررها إلى مساعدي البريد الإلكتروني الآخرين.
وفي الطريقة الثانية، يؤكد الباحثون أن الصورة المضمنة بأمر خبيث تحث مساعد البريد الإلكتروني على إعادة توجيه الرسالة إلى مستلمين إضافيين، حيث أوضح ناسي أنه: "من خلال تشفير الأوامر ذاتية التكرار في الصورة، يمكن إعادة توجيه أي نوع من الصور التي تحتوي على رسائل غير مرغوب فيها أو مواد إساءة استخدام أو حتى دعاية إلى عملاء جدد بعد إرسال البريد الإلكتروني الأولي".
عواقب التصميم السيئعلى الرغم من أن البحث يتحايل على بعض الإجراءات الأمنية في شات جي بي تي وجيمني، فإن الباحثين يؤكدون أن عملهم بمثابة قصة تحذيرية فيما يتعلق بـ"التصميم المعماري السيئ" داخل النظام البيئي الأوسع للذكاء الاصطناعي.
مع ذلك، قاموا على الفور بمشاركة النتائج التي توصلوا إليها مع غوغل وأوبن إيه آي.
وأقر متحدث باسم أوبن إيه آي: "يبدو أنهم وجدوا طريقة لاستغلال الثغرات الأمنية من نوع الحقن من خلال الاعتماد على مدخلات المستخدم التي لم يتم فحصها أو تصفيتها"، مشيرا إلى أن الشركة تعمل بنشاط على تعزيز مرونة أنظمتها. كما أنّه حث المطورين على استخدام أساليب تضمن عدم تعاملهم مع المدخلات الخبيثة، بحسب تقرير موقع وايرد.
الباحثون قاموا على الفور بمشاركة النتائج التي توصلوا إليها مع غوغل وأوبن إيه آي (شترستوك)رفضت غوغل التعليق على البحث، على الرغم من أن الرسائل التي شاركها ناسي مع موقع وايرد تشير إلى سعي باحثي الشركة إلى عقد اجتماع لمناقشة الأمر. بينما عرضت الدودة ضمن بيئة يجري التحكم فيها بدقة، يؤكد العديد من خبراء الأمن الذين قاموا بتدقيق البحث على التهديد الوشيك الذي تشكله ديدان الذكاء الاصطناعي التوليدية، وهي مشكلة في منتهى الجدية.
في الأبحاث الحديثة، أظهر خبراء الأمن من سنغافورة والصين قدرتهم على كسر حماية مليون عميل لتطبيقات النماذج اللغوية الكبيرة في أقل من 5 دقائق.
سحر عبد النبي، الباحثة في مركز هيلمهولتز لأمن المعلومات التابع لـ"سي آي إس بي إيه" (CISPA) في ألمانيا، والتي أسهمت في بعض العروض التوضيحية الأولية للحقن السريع ضد النماذج اللغوية الكبيرة في مايو/أيار 2023 وسلطت الضوء على جدوى الديدان، تؤكد أنه عندما تستوعب نماذج الذكاء الاصطناعي البيانات من مصادر خارجية أو عندما يعمل عملاء الذكاء الاصطناعي بشكل مستقل، يصبح خطر انتشار الديدان ملموسا.
من جانبها، تؤكد سحر عبد النبي: "أعتقد أن فكرة نشر الحقن معقولة جدا". فكل هذا يتوقف على نوع التطبيقات التي تستخدم فيها هذه النماذج. وتتوقع الباحثة أنه على الرغم من أن مثل هذه الهجمات تتم محاكاتها حاليا، فإنها قد تنتقل من النظرية إلى العملية في مدة قصيرة.
في ورقة بحثية تتضمن اكتشافاتهم، يتوقع ناسي وزملاؤه ظهور ديدان الذكاء الاصطناعي التوليدية في البرية خلال العامين أو الثلاثة أعوام المقبلة، حيث تفترض الورقة البحثية أن "أنظمة الذكاء الاصطناعي التوليدي البيئية تخضع لتطوير هائل من قبل العديد من الشركات في الصناعة التي تدمج قدراتها في سياراتها وهواتفها الذكية وأنظمة التشغيل الخاصة بها".
لمواجهة التهديد الذي يلوح في الأفق، يجب أن يمتلك مبتكرو أنظمة الذكاء الاصطناعي التوليدية سبلا لتعزيز دفاعاتهم ضد البرمجيات الخبيثة المتنقلة حتى ولو كانت محتملة وغير مؤكدة، بما في ذلك تنفيذ منهجيات الأمان التقليدية، وابتكار أساليب جديدة.
المصدر: الجزيرة
كلمات دلالية: رمضان 1445 هـ حريات البرید الإلکترونی ا شات جی بی تی ا لى ا ن إیه آی یمکن ا
إقرأ أيضاً:
الشيف ChatGPT..وصفات من الذكاء الاصطناعي
يمكن للذكاء الاصطناعي المساعدة بشكل مميز في تحضير الطعام، فعلى الرغم من أنه لن يتمكن من الطهي فعلياً، لكن يمكنه تقديم أفكار وصفات بناءً على المكونات الموجودة في ثلاجتك، خاصة في موسم الأعياد، مثل بقايا الطعام الجاهز، وأطباق من حفلة عيد الميلاد، والعناصر المخبأة في الخزين وأي شيء آخر صالح للأكل.
والذكاء الاصطناعي هو أداة مفيدة لتخطيط القائمة وتحويل أطباق المطاعم إلى وصفات لتحضيرها في المنزل، وفق موقع "سي نت"، ولتحويل ما في الثلاجة إلى طبق لذيذ، يمكن استخدام أداة الذكاء الاصطناعي الأكثر شهرة، ChatGPT .
وتم إصدار ChatGPT من OpenAI في عام 2022 ولكن تم إجراء العديد من التحديثات الرئيسية، ولا سيما للإصدار المجاني، وهناك اشتراك مميز مقابل 20 دولاراً شهرياً، لكن الإصدار المجاني سيقدم بعض الأفكار بشكل جيد.
وفيما يلي خطوات تحقيق الوصفات بذلك.
الخطوة 1:
التقط صورا لما بداخل ثلاجتك ومجمدك ومخزنك للطعام، و تأكد فقط من التحقق من جميع تواريخ انتهاء الصلاحية.
الخطوة 2:
برنامج ChatGPT أفضل في تفسير النصوص من الصور، لذا قم بإنشاء قائمة بالمكونات الخاصة بك لتجنب أي تفسيرات خاطئة، وأضف فقط المكونات التي ترغب في استخدامها إلى قائمتك، و حدد أي رغبات، وتفضيلات غذائية، ونوع الوجبة، وعدد الأشخاص الذين تطبخ لهم في موجهك.
الخطوة 3:
سجّل الدخول إلى ChatGPT وافتح رسالة جديدة لإضافة أول طلب لك.
الخطوة 4:
تحدث مع ChatGPT حول ما تحبه وما لا تحبه، على سبيل المثال، "أعجبتني فكرة الوجبة الأولى ولكن أردت أن أرى ما الذي يمكن أن يقدمه Chef ChatGPT أيضاً"، ةتابع بطرح طلب مثل هذا: "قدم خيار عشاء آخر يستخدم نفس المكونات ولكن مع إضافة المزيد من البروتين"، و الجزء الممتع في chatbot هو أنه يساعد في إثارة الأفكار، على سبيل المثال، بدلاً من الركض إلى المتجر فقط للحصول على بروتين لشطائر البريوش أو الاعتماد على البيض لطبق العشاء، اسأل عما إذا كان لديك المكونات اللازمة لفطيرة الخضار.
الخطوة 5:
بمجرد تأكيدك على المكونات الجديدة، اطلب من ChatGPT إضافتها إلى الوصفة الأصلية، حتى لا يبتكر وصفات جديدة أو يخرج عن الموضوع.
تأكد من تضمين العناصر الأساسية في مخزنك، لأنه إذا فاتك فتات الخبز أو نشا الذرة، فلن يتمكن ChatGPT من إنشاء وصفة الفطيرة.
الخطوة 6:
قم بإجراء مسح نهائي لثلاجتك والوصفات، حتى لا ينسى ChatGPT إضافة ما تريد.
الخطوة 7:
التقط لقطة شاشة للنتائج النهائية لتكون متاحة على هاتفك أثناء الطهي، أو اترك علامة تبويب ChatGPT مفتوحة وابدأ في الطهي في المطبخ على الفور.