المملكة ضمن أوائل دول العالم في تطوير استراتيجية وطنية للذكاء الاصطناعي
تاريخ النشر: 17th, April 2024 GMT
صُنفت المملكة العربية السعودية ضمن أوائل دول العالم في تطوير استراتيجية وطنية للذكاء الاصطناعي، حسبما أعلن مؤشر جامعة ستانفورد الدولي للذكاء الاصطناعي 2024 الصادر مؤخراً الذي يُعد مصدرًا شاملاً لواضعي السياسات والباحثين والمتخصصين في الصناعة لفهم الوضع الحالي للذكاء الاصطناعي والاتجاهات المستقبلية بشكل أفضل.
ويتماشى هذا المستوى المتقدم مع توجه المملكة نحو الاستفادة من تقنيات البيانات والذكاء الاصطناعي في ظل توجيه ودعم صاحب السمو الملكي الأمير محمد بن سلمان بن عبدالعزيز آل سعود – حفظه الله - ولي العهد رئيس مجلس الوزراء رئيس مجلس إدارة الهيئة السعودية للبيانات والذكاء الاصطناعي، للاستفادة من استخدامات هذه التقنيات الفعّالة والعميقة من أجل خدمة البشرية مع وضع إطارٍ عالميٍ يدعم التعاون الدولي في مجال الذكاء الاصطناعي.
ويؤكد ذلك المستوى الذي وصلت إليه المملكة في مجال البيانات والذكاء الاصطناعي نجاح مستهدفات رؤية السعودية 2030 التي يرتبط الذكاء الاصطناعي بها بنسبة 70 % بشكل مباشر والباقي بشكل غير مباشر، من أجل أن تتبوأ البلاد مكانة متميزة في المؤشرات العالمية بمختلف المجالات ومنها مجال الذكاء الاصطناعي الذي تقوده سدايا منذ إنشائها عام 2019م بوصفها الجهة المختصة بالبيانات (بما في ذلك البيانات الضخمة) والذكاء الاصطناعي والمرجع الوطني في كل ما يتعلق بهما من تنظيم وتطوير وتعامل.
وتتكامل هذه الخطوة مع ما حققته المملكة عام 2023م حينما نالت المركز الأول عالميًا في مؤشر الإستراتيجية الحكومية للذكاء الاصطناعي، وهو أحد مؤشرات التصنيف العالمي للذكاء الاصطناعي الصادر عن "Tortoise Intelligence" الذي يقيس أكثر من 60 دولة في العالم، إلى جانب ما حققته المملكة بحصولها على المركز الثاني عالميًا في مجال الوعي المجتمعي بالذكاء الاصطناعي وفقاً لمؤشر جامعة ستانفورد الدولي للذكاء الاصطناعي 2023.
وتنسجم هذه المستويات العالمية مع جهود (سدايا) في تعزيز مكانة المملكة كدولة رائدة في البيانات والذكاء الاصطناعي، وتمكين منظومة الذكاء الاصطناعي من خلال بناء القدرات ووضع السياسات وتمكين الاستثمار والابتكار وتطوير البنية التحتية التقنية، وتحفيز تبني الذكاء الاصطناعي في المجالات ذوات الأولوية لخدمة الأولويات الوطنية.
وتكرّس "سدايا" جهودها لتحقيق مجموعة من الأهداف الإستراتيجية من بينها مواصلة تحديث أجـندة البيانات الوطنية والذكاء الاصطناعي، وتنفيذ أجندة البيانات والذكاء الاصطناعي على الصعيد الوطني بما يضمن الارتقاء بالمملكة إلى الريادة ضمن الاقتصادات القائمة على المعلومات والبيانات والذكاء الاصطناعي.
المصدر: صحيفة عاجل
كلمات دلالية: الذكاء الاصطناعي الاستراتيجية الوطنية للذكاء الاصطناعي البیانات والذکاء الاصطناعی الذکاء الاصطناعی للذکاء الاصطناعی
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.