معرض الصين الدولي لتجارة الخدمات ينطلق 2 سبتمبر
تاريخ النشر: 30th, August 2023 GMT
تنطلق فعاليات معرض الصين الدولي لتجارة الخدمات 2023 في العاصمة الصينية بكين في 2 سبتمبر المقبل.
وتم خلال المؤتمر الصحفي التحضيري للمعرض، الإعلان عن أن بريطانيا، باعتبارها ضيف شرف المعرض، سترسل أكبر وفد أعمال منذ أربع سنوات، والذي سيركز على الصناعات الإبداعية والخدمات المالية والرياضة والتعليم والمهارات والتكنولوجيا وعدد من المجالات الأخرى، وستقوم ما يقرب من 100 شركة بريطانية بتبادل نتائج تطوير الأعمال مع الشركاء الصينيين واستكشاف فرص جديدة لتعزيز تنمية الصناعة العالمية.
وأصدر منتدى قوة الحوسبة للذكاء الاصطناعي العام، إحدى الأنشطة الرئيسية للمعرض خلال المؤتمر الصحفي، تقريرا عن تطوير قوة الحوسبة بالذكاء الاصطناعي في الصين (2022-2023).
من جهتها ذكرت مجموعة الصين للإعلام إن الحجم الإجمالي لقوة الحوسبة في الصين نما بمعدل سنوي متوسط يقارب 30 في المائة خلال السنوات الخمس الماضية.وام
المصدر: جريدة الوطن
إقرأ أيضاً:
تطوير برنامج حماية للذكاء الاصطناعي من الاختراق
أعلنت شركة "أنثروبيك" عن تطوير نظام جديد يمكنه حماية نماذج الذكاء الاصطناعي من محاولات كسر حواجز الحماية (جيل بريك).
وفي التقنية الجديدة يمكن كشف محاولة كسر الحماية على مستوى الإدخال ومنع الذكاء الاصطناعي من توليد استجابة ضارة نتيجة لذلك، واختبرت شركة الذكاء الاصطناعي قوة النظام من خلال برامج كسر الحماية المستقلة وفتحت أيضا عرضا توضيحياً حياً مؤقتاً للنظام للسماح لأي فرد مهتم باختبار قدراته، وفق "غادجيت 360".
ويُطلق على هذا النظام اسم Dubbed Constitutional Classifiers ، وهي عبارة عن تقنية حماية يمكنها اكتشاف محاولات الاختراق.
ويشير "كسر الحماية في الذكاء الاصطناعي التوليدي"، إلى تقنيات الكتابة السريعة غير العادية التي يمكن أن تجبر نموذج الذكاء الاصطناعي على عدم الالتزام بإرشادات التدريب الخاصة به وإنشاء محتوى ضار وغير مناسب.
وكسر الحماية ليس شيئاً جديداً، ويطبق معظم مطوري الذكاء الاصطناعي العديد من الضمانات ضده داخل النموذج، غير أنه، ونظراً لأن مهندسي كسر الحماية يواصلون إنشاء تقنيات جديدة، فمن الصعب بناء نموذج لغوي كبير (LLM) محمي تماماً من مثل هذه الهجمات.
وتتضمن بعض تقنيات كسر الحماية مطالبات طويلة للغاية ومعقدة تربك قدرات الذكاء الاصطناعي على التفكير.
ويستخدم البعض الآخر مطالبات متعددة لكسر الضمانات، ويستخدم البعض حتى أحرفاً كبيرة غير عادية لاختراق دفاعات الذكاء الاصطناعي.
وفي منشور يفصل البحث، أعلنت شركة أنثروبيك أنها تعمل على تطوير برنامج كطبقة واقية لنماذج الذكاء الاصطناعي.
وعلاوة على ذلك، أثناء اختبار التقييم الآلي، حيث جربت شركة الذكاء الاصطناعي Claude باستخدام 10000 مطالبة لكسر الحماية، ووجد أن معدل النجاح كان 4.4 بالمائة، مقابل 86 بالمائة لنموذج الذكاء الاصطناعي غير المحمي، وتمكنت أنثروبيك أيضاً من تقليل الرفض المفرط (رفض الاستعلامات غير الضارة) ومتطلبات قوة المعالجة الإضافية للبرنامج الجديد.