اتفاق غربي لتوقيع أول معاهدة حول مخاطر الذكاء الاصطناعي
تاريخ النشر: 5th, September 2024 GMT
اتفقت بعض دول الغرب ومن ضمنها بريطانيا والولايات المتحدة والاتحاد الأوروبي على التوقيع قريبا على أول معاهدة دولية حول معايير استخدام الذكاء الاصطناعي.
وتتناول المعاهدة المخاطر التي قد يشكلها الذكاء الاصطناعي مع تعزيز الابتكار المسؤول.
ووفقا لمعلومات صحيفة فايننشال تايمز، يجري الحديث عن وثيقة لمجلس أوروبا، والتي “تمت صياغتها على مدى عامين من قبل ممثلي أكثر من 50 دولة، بما في ذلك كندا وإسرائيل واليابان وأستراليا”.
وبموجب الوثيقة الجديدة، تركز معاهدة الذكاء الاصطناعي بشكل أساسي على حماية حقوق المتضررين من أنظمة الذكاء الاصطناعي، وهي منفصلة عن قانون الذكاء الاصطناعي للاتحاد الأوروبي الذي دخل حيز التنفيذ الشهر الماضي.
وأشار وزير العلوم والابتكار والتكنولوجيا البريطاني بيتر كايل، إلى أن “الابتكار يتطور بسرعة كما الذكاء الاصطناعي، ومن المهم أن نتخذ الخطوة الأولى الضرورية في جميع أنحاء العالم.
وقالت وزيرة العدل البريطانية، شابانا محمود، في بيان “هذه المعاهدة تشكل خطوة رئيسية لضمان إمكانية الاستفادة من التقنيات الجديدة دون المساس بقيمنا مثل حقوق الإنسان وسيادة القانون”.
ويتضمن قانون الذكاء الاصطناعي للاتحاد الأوروبي لوائح شاملة بشأن تطوير ونشر واستخدام أنظمة الذكاء الاصطناعي في السوق الداخلي.
وتم إعداد مسودة المعاهدة وهي تشمل القانون الأوروبي حول الذكاء الاصطناعي (2024) واتفاق مجموعة السبع (G7) الذي تم تنسيقه في أكتوبر الماضي.
وجرت القمة الأولى حول الاستخدام الآمن للذكاء الاصطناعي في نوفمبر الماضي في بريطانيا، حيث وقعت 28 دولة بما في ذلك الولايات المتحدة والصين، على إعلان بشأن الاستخدام الآمن للذكاء الاصطناعي.
المصدر: عين ليبيا
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.