قمة كورية - بريطانية حول مخاطر الذكاء الاصطناعي
تاريخ النشر: 21st, May 2024 GMT
سيول (أ ف ب)
أخبار ذات صلةسلّط الرئيس الكوري الجنوبي ورئيس الوزراء البريطاني الضوء أمس على «المخاطر الجديدة»، التي يجلبها الذكاء الاصطناعي والوسائل اللازمة لتقييمها، عشية افتتاح قمة دولية يتشارك بلداهما في تنظيمها للبحث في مخاطر الذكاء الاصطناعي في سيول.
وقال يون سوك يول وريشي سوناك في مقال نشرته أمس صحيفة «يونج أنغ إلبو» الكورية الجنوبية وصحيفة «آي» البريطانية، «مثل أي تكنولوجيا جديدة، يجلب الذكاء الاصطناعي مخاطر جديدة».
وقال الزعيمان «عندما نلتقي الشركات في قمة الذكاء الاصطناعي في سيول، سنطلب منها بذل المزيد من الجهد لإظهار كيفية تقييمها للمخاطر والاستجابة لها داخل مؤسساتها».
وستواصل هذه القمة، التي سيحضرها ممثلون عن الشركات الرئيسية في القطاع - مثل المجموعات الأميركية «أوبن إيه آي» أو «جوجل ديبمايند» أو «مايكروسوفت» أو «أنثروبيك» وشركة «ميسترال» الفرنسية للذكاء الاصطناعي، العمل الذي بدأ بالفعل في المملكة المتحدة العام الماضي، خلال قمة أولى خُصصت للمخاوف التي تثيرها هذه الثورة التكنولوجية.
من الهواتف الذكية إلى المطارات، أصبح الذكاء الاصطناعي موجوداً في كل مكان في الحياة اليومية. وقد تسارع تقدم هذه التقنية في السنوات الأخيرة مع تطوير الذكاء الاصطناعي التوليدي، القادر على إنتاج النصوص والأصوات والصور في بضع ثوان، بمجرد تقديم طلب بسيط باللغة اليومية (كما الحال في برنامج «تشات جي بي تي»).
وكما في القمة البريطانية، سيكون الأمن على جدول أعمال قمة سيول، التي تنطلق اليوم الثلاثاء. وشدد يون وسوناك على أنه «مع ظهور نماذج جديدة في السوق كل أسبوع تقريباً، ما زلنا في طور تحديد أين يمكن لهذه المخاطر أن تظهر».
تتعد مخاطر الذكاء الاصطناعي من الاستيلاء على الوظائف، والهجمات الإلكترونية، مروراً حتى بفقدان السيطرة من قبل البشر، وجميعها مخاطر محتملة ترغب السلطات الكورية الجنوبية والبريطانية في فتح حوار حولها خلال هذا الاجتماع.
وستعقد هذه القمة على مدى يومين، جزئياً عن طريق مؤتمرات بالفيديو. وبالإضافة إلى قضايا الأمن، سيدرس المشاركون الطرق التي يمكن للحكومات من خلالها تعزيز الابتكار وتوسيع أبحاث الذكاء الاصطناعي في الجامعات. ومن المقرر أن تستضيف فرنسا القمة المقبلة لأمن الذكاء الاصطناعي.
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الاصطناعي بريطانيا كوريا الجنوبية يون سوك يول ريشي سوناك مخاطر الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.