المملكة المتحدة تطلق أول قمة لسلامة الذكاء الاصطناعي في العالم
تاريخ النشر: 1st, November 2023 GMT
افتتحت أول قمة رئيسية في العالم حول سلامة الذكاء الاصطناعي في المملكة المتحدة، يوم الأربعاء، حيث اجتمع القادة السياسيون والتقنيون لمناقشة الاستجابات المحتملة للتكنولوجيا المتغيرة للمجتمع.
ومن المقرر أن يحضر كل من رئيس الوزراء البريطاني ريشي سوناك ونائبة الرئيس الأمريكي كامالا هاريس ورئيسة الاتحاد الأوروبي أورسولا فون دير لاين، والأمين العام للأمم المتحدة أنطونيو غوتيريش المؤتمر الذي يستمر يومين ويركز على المخاوف المتزايدة بشأن تداعيات ما يسمى الذكاء الاصطناعي الحدودية.
قدم إصدار أحدث الموديلات لمحة عن إمكانات الذكاء الاصطناعي ، ولكنه أثار أيضا مخاوف بشأن قضايا تتراوح من فقدان الوظائف إلى الهجمات الإلكترونية والسيطرة التي يمتلكها البشر بالفعل على الأنظمة.
وقال سوناك، الذي بادرت حكومته إلى التجمع، في خطاب ألقاه الأسبوع الماضي إن "هدفه النهائي" هو "العمل من أجل نهج دولي أكثر للسلامة حيث نتعاون مع الشركاء لضمان سلامة أنظمة الذكاء الاصطناعي قبل إطلاقها.
وأضاف "سنبذل قصارى جهدنا للاتفاق على أول بيان دولي على الإطلاق حول طبيعة هذه المخاطر" ، وعقد مقارنات مع النهج المتبع في التعامل مع تغير المناخ.
لكن يقال إن لندن اضطرت إلى تقليص طموحاتها حول أفكار مثل إطلاق هيئة تنظيمية جديدة وسط نقص ملحوظ في الحماس.
كانت رئيسة الوزراء الإيطالية جيورجيا ميلوني واحدة من قادة العالم الوحيدين ، والوحيد من G7 الذي حضر المؤتمر.
وكان من المقرر أيضا أن يظهر إيلون ماسك ، لكن لم يتضح بعد ما إذا كان سيكون حاضرا شخصيا في القمة في بلتشلي بارك ، شمال لندن ، حيث قام كبار مفككي الشفرات البريطانيين بفك شفرة "Enigma" لألمانيا النازية.
"متجر الحديث"
في حين أن إمكانات الذكاء الاصطناعي تثير العديد من الآمال ، خاصة بالنسبة للطب ، إلا أن تطورها ينظر إليه على أنه غير مقيد إلى حد كبير.
وشدد سوناك في كلمته على ضرورة أن تطور الدول "فهما مشتركا للمخاطر التي نواجهها".
لكن المحامي والمحقق كوري كريدر، وهو ناشط في مجال التكنولوجيا "العادلة"، حذر من أن القمة قد تكون "نوعا من متجر للكلام.
وقالت في مؤتمر صحفي في سان فرانسيسكو "إذا كان جادا بشأن السلامة ، فإن ريشي سوناك بحاجة إلى التدحرج بعمق وجلب جميع الشركات الكبرى والتنظيمية في المملكة المتحدة ولم يفعل ذلك".
"أين ينظر منظم العمل فيما إذا كانت الوظائف غير آمنة أو زائدة عن الحاجة؟ أين منظم حماية البيانات؟"
كما حذر أكثر من 100 موقع على رسالة مفتوحة نشرت يوم الاثنين من أن "المجتمعات والعمال الأكثر تضررا من الذكاء الاصطناعي قد تم تهميشهم بسبب القمة" ، متأسفين لعدم مشاركة منظمات المجتمع المدني.
بعد أن واجهت انتقادات لمجرد النظر في مخاطر الذكاء الاصطناعي ، تعهدت المملكة المتحدة يوم الأربعاء بمبلغ 38 مليون جنيه إسترليني (46 مليون دولار) لتمويل مشاريع الذكاء الاصطناعي في جميع أنحاء العالم ، بدءا من إفريقيا.
وقبل الاجتماع، اتفقت القوى السبع يوم الاثنين على "مدونة سلوك" غير ملزمة للشركات التي تطور أنظمة الذكاء الاصطناعي الأكثر تقدما.
وفي روما، دعا وزراء من إيطاليا وألمانيا وفرنسا إلى "نهج صديق للابتكار" لتنظيم الذكاء الاصطناعي في أوروبا، حيث حثوا على المزيد من الاستثمارات لتحدي الولايات المتحدة والصين.
وقال مكتبها إن نائبة الرئيس هاريس كانت أيضا يوم الأربعاء للإعلان عن إنشاء معهد السلامة الذكاء الاصطناعي الأمريكي (US AISI) ، والذي "سيضع إرشادات وأدوات ومعايير وأفضل الممارسات" لتحديد وتخفيف مخاطر الذكاء الاصطناعي.
ومن المقرر أن تكون الصين حاضرة أيضا، لكن لم يتضح على أي مستوى.
وذكر موقع بوليتيكو الإخباري أن لندن دعت الرئيس شي جين بينغ للدلالة على حرصها على تعيين ممثل كبير.
وأثارت الدعوة الدهشة وسط تصاعد التوترات بين الصين والدول الغربية واتهامات بالتجسس التكنولوجي.
المصدر: بوابة الوفد
كلمات دلالية: رئيس الوزراء البريطاني ريشي سوناك الرئيس الأمريكي كامالا هاريس الأمين العام للأمم المتحدة أنطونيو غوتيريش الذکاء الاصطناعی فی المملکة المتحدة
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.