دراسة: أدوات الذكاء الاصطناعي يمكنها تخليق أكواد خبيثة تستخدم في شن هجمات سيبرانية
تاريخ النشر: 25th, October 2023 GMT
ذكرت دراسة بحثية بريطانية أن أدوات الذكاء الاصطناعي مثل "شات جي بي تي" يمكنها القيام بعمليات خداعية من شأنها تخليق أكواد خبيثة تستخدم في شن هجمات سيبرانية على أي منشآت مهمة حول العالم.
وذكرت الدراسة الأكاديمية - التي نشرها قسم علوم الكمبيوتر بجامعة شيفيلد البريطانية - أن تقنيات الذكاء الاصطناعي تمكن الأشخاص من البحث في قواعد البيانات باستخدام أسئلة بلغة بسيطة، ويمكن استخدامها في مجموعة كبيرة من المجالات الصناعية ويتم استغلالها لشن هجمات سيبرانية على انظمة الحاسوب حول العالم.
وأضافت الدراسة أن البحث التقني كشف عن إمكانية استخدان الذكاء الاصطناعي في سرقة بيانات سرية ومعلومات شخصية والتلاعب بهذه البيانات لتدمير الخوادم الحاسوبية وافشال انظمتها فى المنشئات الهامة.
وكشفت الدراسة عن عدد من أدوات الذكاء الاصطناعي، التي يمكنها اختراق أنظمة الحواسيب في عدد من المجالات الصناعية الهامة، مثل التجارة الالكترونية والمصارف والاتصالات والطيران المدني والسيارات، ومن بينها تقنية "بايدو يونت"، و"تكست تو اس كيو ال" و"تشات جى بى تى" و"تكست سكى".
وأفادت الدراسة بأنه يمكن استخدام تقنية (تشات جي.بي.تي.) من قبل العديد من الاشخاص على مختلف المستويات في عمل أبحاث على قواعد البيانات ومن هنا تكمن الخطورة وامكانية إحداث اختراق لقواعد البيانات. وذكرت على سبيل المثال استخدام إحدى الممرضات لهذه التقنية باستخدام لغة "إس كيو ال" فى قاعدة البيانات الخاصة بالعيادات وفى هذه الحالة يمكن ان يتسبب استخدام هذه اللغة فى احداث خلل فى قاعدة البيانات بدون صدور اى تحذير حول هذا الخطر.
وأشارت الدراسة إلى أن نتائج هذه الابحاث تم استعراضها بعد قيام الفريق البحثي بجامعة شيفيلد بإصلاح العديد من المشكلات التي حدثت من خلال استخدام تقنية (تشات جي.بي.تي) حتى فبراير الماضي، موضحة أنه يجرى حاليا القيام بتقييم عدد من الاستراتيجيات التى يمكن استخدامها فى مواجهة هذه النوعية من الهجمات التى وصفها "بالخطيرة جدا"، وذلك بهدف تعزيز الامن السيبرانى فى المنشئات الهامة ومكافحة هذا النوع من هجمات الجيل القادم للهجمات السيبرانية.
المصدر: البوابة نيوز
كلمات دلالية: دراسة الذكاء الاصطناعي شات جي بي تي هجمات سيبرانية البيانات الذکاء الاصطناعی
إقرأ أيضاً:
بايدن وشي يتفقان على عدم ترك استخدام الأسلحة النووية لسيطرة الذكاء الاصطناعي
اتفق الرئيس الأمركي جو بايدن، ونظيره الصيني شي جين بينغ، أمس السبت، على "ضرورة استمرار السيطرة البشرية على قرار استخدام الأسلحة النووية"، وذلك أثناء المناقشة بينهما في ليما حول الاستخدامات المحتملة للذكاء الاصطناعي.
وقال البيت الأبيض إنه خلال الاجتماع الثنائي بين الزعيمين في ليما بعد المشاركة في اجتماع زعماء "أبيك"، أكد الطرفان "ضرورة استمرار السيطرة البشرية على قرار استخدام الأسلحة النووية".
وأشار إلى أنه جرى "حوار صريح وبناء حول الذكاء الاصطناعي"، حيث "أكد الزعيمان على ضرورة معالجة مخاطر أنظمة الذكاء الاصطناعي" وإيجاد صيغ لجعله آمناً.
وشدد بايدن وشي أيضاً على "ضرورة النظر بعناية في المخاطر المحتملة وتطوير تكنولوجيا الذكاء الاصطناعي في الساحة العسكرية بطريقة حكيمة ومسؤولة".
Biden, Xi agree that humans, not AI, should control nuclear arms, White House says https://t.co/z6Ki4Qgztw
— The Straits Times (@straits_times) November 17, 2024وكانت هذه القضية أحد المواضيع التي تمت مناقشتها في الاجتماع الثنائي بين بايدن وشي في ليما، وهي، في رأي مستشار الأمن القومي بالبيت الأبيض، جيك سوليفان، من بين النتائج الملموسة لهذا الحوار الثالث بين الزعيمين. والتي استمرت في العاصمة البيروانية لمدة ساعة و40 دقيقة تقريباً.
وقال سوليفان: "علينا أن نبدأ من مكان ما، من المبادئ الأساسية، ونبني من هناك فيما يتعلق بالحاجة إلى وضع أساس مشترك للحد من المخاطر النووية والمكان الجيد للبدء هو الاقتراح المباشر بأنه يجب أن تكون هناك سيطرة بشرية على قرارات استخدام الأسلحة النووية”.
وأضاف: "لا أقول إن أحداً ما سيسلم بشكل وشيك السيطرة على الأسلحة النووية إلى الذكاء الاصطناعي"، مشدداً على أن هذه خطوة "في الاتجاه الصحيح" لأن هناك "خطراً استراتيجياً على المدى الطويل" لبلدين يتمتعان "بقدرات كبيرة في مجال الذكاء الاصطناعي".