غوتيريش يختار عمر العلماء عضواً في المجلس الاستشاري لحوكمة الذكاء الاصطناعي
تاريخ النشر: 26th, October 2023 GMT
دبي - الخليج
اختار أنطونيو غوتيريش أمين عام الأمم المتحدة، معالي عمر سلطان العلماء وزير دولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بعد، لعضوية المجلس الاستشاري لحوكمة الذكاء الاصطناعي المعني بالتحديات والفرص والحوكمة الدولية للذكاء الاصطناعي، والذي يمثل إطار عمل دولي جديداً أعلن غوتيريش في يوليو الماضي، عزم المنظمة الدولية على تشكيله، ليسهم في تعزيز التعاون الدولي الهادف لحوكمة مجالات الذكاء الاصطناعي والبناء على الفرص المستقبلية التي يحملها، وتصميم الحلول الاستباقية لتحدياته.
ويضم المجلس الاستشاري رفيع المستوى للذكاء الاصطناعي 38 شخصية عالمية من نخبة المسؤولين الحكوميين ورواد الأعمال في القطاع التكنولوجي والأكاديميين والخبراء والمتخصصين من كافة قارات العالم، من أبرزهم معالي كارمي أرتيغاس وزيرة دولة للرقمنة والذكاء الاصطناعي في إسبانيا، وهي رومين الرئيس التنفيذي للذكاء الاصطناعي في حكومة سنغافورة، وإيان بريمير رئيس ومؤسس مجموعة «يورآسيا»، وناتاشا كرامبتون الرئيس التنفيذي للذكاء الاصطناعي المسؤول في «مايكروسوفت»، وهيروكي كيتانو الرئيس التنفيذي للتكنولوجيا في مجموعة «سوني»، وهاكسو كو رئيس لجنة حماية البيانات الشخصية في جمهورية كوريا، وميرا موراتي الرئيس التنفيذي للتكنولوجيا في شركة إوبن إيه آي"، وأمانديب سينغ غيل مبعوث أمين عام الأمم المتحدة لشؤون التكنولوجيا.
العلماء: الإمارات رائدة عالمياً في استباق تحديات المستقبل
وأكد عمر سلطان العلماء أن اختياره لعضوية المجلس الاستشاري لحوكمة الذكاء الاصطناعي يعكس الموقع الريادي الذي وصلت إليه دولة الإمارات بتوجيهات القيادة الرشيدة، التي تركز على استباق تحديات المستقبل، وتبني وتطوير الحلول المتقدمة القائمة على التكنولوجيا والذكاء الاصطناعي، وتعزيز التعاون والشراكات الدولية الهادفة لتشكيل ملامح مستقبل أفضل للمجتمعات.
وقال إن العضوية في المجلس الاستشاري ستمثل فرصة لإحداث نقلة نوعية في العمل الدولي المشترك وارساء منظومة حوكمة متقدمة وشاملة لمختلف مجالات الذكاء الاصطناعي، تسهم في تعظيم الاستفادة من فرصه، وتمكين الدول والمجتمعات من المشاركة في مسيرة التطور التكنولوجي، وضمان تحقيق التوازن بين الإنسان والآلة في بيئة تكنولوجيا مستقبلية آمنة وشاملة للجميع.
جهد أممي متواصل لحوكمة الذكاء الاصطناعي
وسيعمل المجلس الاستشاري لحوكمة الذكاء الاصطناعي على دعم ومساعدة أمين عام الأمم المتحدة والدول الأعضاء في المنظمة الدولية، لبناء إجماع عالمي حول المخاطر والتحديات، وسبل توظيف الذكاء الاصطناعي في تحقيق أهداف التنمية المستدامة، وآليات تعزيز التعاون الدولي في إدارة الذكاء الاصطناعي.
وتشمل المجالات التي سيعمل المجلس الاستشاري للذكاء الاصطناعي على دراستها وتطوير توصيات بشأنها ثلاثة مجالات رئيسية، هي: الحوكمة الدولية للذكاء الاصطناعي، والفهم المشترك للمخاطر والتحديات، والفرص والعوامل التمكينية للاستفادة من الذكاء الاصطناعي وتسريع تحقيق أهداف التنمية المستدامة العالمية.
ويعمل المجلس على بناء مفاهيم مشتركة وتحديد الإجراءات ذات الأولوية، لمساعدة الحكومات والقطاع الخاص على الاستجابة بشكل أفضل للتطورات المتسارعة في مجالات الذكاء الاصطناعي والتكنولوجيا المتقدمة، كما ستعمل على إشراك المعنيين من الحكومات والمنظمات الدولية والإقليمية، في تعزيز التعاون في حوكمة الذكاء الاصطناعي، ودعم ربط المبادرات الرائدة عالمياً في هذا المجال بحيث يعمل الذكاء الاصطناعي لصالح البشرية.
يذكر أن أنطونيو غوتيريش أمين عام الأمم المتحدة، أعلن في كلمة أمام مجلس الأمن الدولي في يوليو الماضي، أنه سيتم إطلاق مجلس استشاري رفيع المستوى يضم العديد من المعنيين وأصحاب الشأن في مجال الذكاء الاصطناعي، للعمل على دراسة تحديات وفرص الذكاء الاصطناعي، وإعداد تقرير عن الخيارات المتاحة لحوكمة الذكاء الاصطناعي العالمية.
المصدر: صحيفة الخليج
كلمات دلالية: فيديوهات عمر العلماء الذكاء الاصطناعي الأمم المتحدة أمین عام الأمم المتحدة للذکاء الاصطناعی الرئیس التنفیذی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.