ابتسام المزروعي تنضم إلى محادثات إدارة الذكاء الاصطناعي في جنيف
تاريخ النشر: 29th, May 2024 GMT
تشارك الدكتورة ابتسام المزروعي، خبيرة الذكاء الاصطناعي والتكنولوجيا المتقدمة، في محادثات إدارة الذكاء الاصطناعي التي تنعقد في جنيف اليوم، ضمن إطار يوم الأمم المتحدة الأول لإدارة الذكاء الاصطناعي. وستكون هذه المحادثات على رأس جدول أعمال "القمة العالمية للذكاء الاصطناعي من أجل المصلحة العامة" والمقرر عقدها في جنيف خلال الفترة من 30 إلى 31 مايوالجاري.
وانطلاقاً من سجلها الحافل في تقنيات الذكاء الاصطناعي المتقدمة، ستشارك الدكتورة المزروعي خبراتها الواسعة عبر هذه المنصة الدولية مع التركيز على إدارة الذكاء الاصطناعي والأطر التكنولوجية المتقدمة للتنمية الشاملة. ومن أبرز إنجازات الدكتورة المزروعي إشرافها ودورها البارز في تطوير نماذج فالكون للذكاء الاصطناعي التوليدي بما في ذلك نموذج اللغوي مفتوح المصدر للذكاء الاصطناعي FALCON 40B؛ والنموذج مفتوح المصدر الأقوى عالمياً FALCON 180B؛ بالإضافة إلى تطوير نموذج "نور"، أكبر نموذج معالجة طبيعية للغة العربية في العالم.
وتسلط مشاركة الدكتورة المزروعي الضوء على الدور النشط لدولة الإمارات في إثراء المناقشات العالمية حول الذكاء الاصطناعي وإمكاناتها لإحداث تأثير إيجابي. وستساهم الأفكار والرؤى الغنية التي ستقدمها خلال محادثات إدارة الذكاء الاصطناعي في تطوير سياسات عادلة للذكاء الاصطناعي وتعزيز التعاون العالمي بهذا الشأن.
أخبار ذات صلةوسيرحب يوم إدارة الذكاء الاصطناعي بمشاركة وزراء وهيئات تنظيمية من أكثر من 70 حكومة فضلاً عن ممثلين عن دوائر الصناعة والمؤسسات الأكاديمية والمجتمع المدني ووكالات الأمم المتحدة. وسيركز الحدث على الالتزام بالإدارة الشاملة للذكاء الاصطناعي.
وينظم هذا اليوم ويستضيفه الاتحاد الدولي للاتصالاتITU))، وكالة الأمم المتحدة المتخصصة في مسائل تكنولوجيا المعلومات والاتصالات، تمهيداً ليومين سيُخصصان لتحري الكيفية التي يمكن بها للتكنولوجيا الجديدة أن تدعم تحقيق التنمية المستدامة.
يشار إلى أن القمة العالمية للذكاء الاصطناعي من أجل المصلحة العامة هي منصة الأمم المتحدة الرائدة للحوار العالمي والشامل حول الذكاء الاصطناعي. وتحدد القمة تطبيقات الذكاء الاصطناعي العملية المسرِّعة للتقدم نحو تحقيق أهداف التنمية المستدامة التي حددتها الأمم المتحدة، وتَصِل مبتكري الذكاء الاصطناعي بصناع القرار في القطاعين العام والخاص للمساعدة في توسيع نطاق الحلول القائمة على الذكاء الاصطناعي عالمياً.
المصدر: الاتحاد - أبوظبي
المصدر: صحيفة الاتحاد
كلمات دلالية: سويسرا جنيف الذكاء الاصطناعي إدارة الذکاء الاصطناعی للذکاء الاصطناعی الأمم المتحدة
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.