أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا"، وثيقة المبادئ التوجيهية لاستخدام أدوات الذكاء الاصطناعي التوليدي (مبادئ الذكاء الاصطناعي التوليدي) للجهات الحكومية، في خطوة تستهدف توضيح استخدام تقنيات الذكاء التوليدي والاستثمار في هذه التقنية الواعدة، مع رفع الوعي بالمخاطر والاستخدام المسؤول والفعال لأدواته في أثناء التعاملات اليومية.

وتعد تقنيات الذكاء الاصطناعي التوليدي نقلة نوعية في تفاعل الآلات مع المستخدمين.

أخبار متعلقة الشروط ورابط التقديم.. إطلاق "سدايا المستقبل" لوظائف الذكاء الاصطناعيمدير "سدايا": المركز تؤدي دورًا محوريًا في خدمة ضيوف الرحمنمنظومة للذكاء الاصطناعي تتعرف على الانفعالات من خلال تعبيرات الوجهدعم التحول الرقمي

وتأتي الوثيقة في ظل اهتمام ومتابعة سدايا للتطورات المتسارعة التي شهدها الذكاء الاصطناعي في خدمات وأدوات الذكاء الاصطناعي التوليدي، التي تستخدمها الحكومات والشركات والأفراد حول العالم ويحفها بعض المخاطر، التي يستوجب معرفتها وتطبيق مبادئ الذكاء الاصطناعي تجاهها، وأخذ الحذر منها عند استخدام مخرجاتها.

فضلًا عن عدم استخدام تقنيات الذكاء الاصطناعي التوليدي، إلا في الحالات التي يمكنهم فيه تحديد المخاطر وتفاديها أو التخفيف من حدتها بشكل كاف.

وتدعم هذه الوثيقة الجهات الحكومية في تبني استخدام الذكاء الاصطناعي التوليدي المسؤول، وتطبيق مستهدفات رؤية المملكة 2030، الرامية إلى دعم التحول الرقمي واستثمار التقنيات الحديثة في تعزيز الاقتصاد الوطني، والأبحاث والتطوير في مجالات الذكاء الاصطناعي مع تقليل المخاطر المتعلقة بهذه التقنيات المتقدمة.

علاوة على تسليط الضوء على الاستثمار واستثمار الفرص التي تقدمها تقنيات الذكاء الاصطناعي التوليدي، مع الأخذ بعين الاعتبار التحديات المرتبطة بها.

#سدايا تطلق وثيقة مبادئ الذكاء الاصطناعي التوليدي التي تقدّم مبادئ توجيهية للعاملين في الجهات الحكومية في أدوات الذكاء الاصطناعي التوليدي.
للأطلاع: https://t.co/mUCc1JfarT pic.twitter.com/3O0Up6qojd— SDAIA (@SDAIA_SA) January 10, 2024إمكانيات هائلة

وتسعى الوثيقة إلى تأمين العمل بأدوات الذكاء الاصطناعي التوليدي، الذي تستخدم نماذجه في مهام وظيفية عدة منها: خدمة العملاء، والتسويق والتصميم والبرمجة، والخدمات المصرفية، والرعاية الصحية، والإعلام والترفيه، والسياحة والرياضة والعقارات، والطاقة، والزراعة وغيرها من المجالات.

وتتمتع هذه التقنيات بإمكانيات هائلة يمكن توظيفها في تحسين أداء العمل من خلال: تعزيز الكفاءة التشغيلية، وتجويد الخدمات وتسهيلها، وتسريع عملية البحث والتحليل، والاستجابة للأزمات، وإنشاء المحتوى، والترجمة وغيرها.

اختزال النصوص الطويلة

ويبرز الذكاء الاصطناعي التوليدي في جوانب عملية عدة تحتاجها القطاعات الحكومية في مجال عملها، منها القدرة على اختزال النصوص الطويلة في ملخصات موجزة خلال ثوان معدودة، ومن ذلك تلخيص مادة نصية تتكون من 5 صفحات في فقرة واحدة، كما يمكنه إنشاء محتوى مبسط ومباشر يسهل فهمه.

إضافة إلى صياغة المذكرات والخطابات والأوصاف الوظيفية والمواد المكتوبة الأخرى، وإنشاء محتوى مكون من الصور والصوت والفيديوهات بشكل سريع وحسب حاجة المستخدمين.

#سدايا: 1.8 مليون عملية تحقق الهوية الرقمية يوميًا تجري عبر منصة نفاذ، وإجمالي المستخدمين النشطين في المنصة بلغ 22.1 مليون شخص
للتفاصيل | https://t.co/iHRDJd1PZB#اليوم@SDAIA_SA pic.twitter.com/wxYodeQGto— صحيفة اليوم (@alyaum) January 10, 2024

ويمكن تسخير مزايا الذكاء الاصطناعي التوليدي في تخفيف الأخطار المرتبطة بها من خلال تطبيق مبادئ الذكاء الاصطناعي، وتبني التدابير الوقائية لتفادي الوقوع في مخاطر: حالات تسرب البيانات، والتضليل، والتزييف العميق، والتحيز والظلم.

إلى جانب مخاوف السلامة نتيجة استخدام محتوى الذكاء الاصطناعي التوليدي في اتخاذ القرارات الحاسمة دون التحقق منها.

معالجة البيانات الحكومية

وتقدم الوثيقة مبادئ توجيهية للعاملين في الجهات الحكومية فيما يتعلق باستخدام ومعالجة البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، مع أمثلة تستند إلى سيناريوهات شائعة قد تتطرق إليها الجهات.

كما تسلط الضوء على التحديات والاعتبارات المرتبطة باستخدام الذكاء الاصطناعي التوليدي، في حين تتوافق هذه الوثيقة مع الأنظمة والسياسات الحالية في المملكة العربية السعودية، وتدعم الامتثال لها بما في ذلك أخلاقيات الذكاء الاصطناعي والأنظمة المرتبطة بحوكمة البيانات والخصوصية والأمن والملكية الفكرية وحقوق الإنسان.

والذكاء الاصطناعي التوليدي هو نموذج تعلم آلة يمكنه إنشاء أمثلة جديدة مشابهة لمجموعة بيانات التدريب، ويعد هذا النموذج جزءًا فرعيًا من الذكاء الاصطناعي يمكنه إنشاء محتوى جديد، بما في ذلك النصوص والصور والأصوات والرموز ومقاطع الفيديو وغيرها.

ويعمل عن طريق تفسير الأوامر التي يقدمها المستخدمون، ويمكنه أن يؤدي مهام تتطلب قدرات معرفية بشرية، بما في ذلك الاستجابة لصياغة الأوامر اللفظية أو المكتوبة والتعلم وحل المشكلات.

وتؤكد أهمية الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي عند التعامل مع أدوات الذكاء الاصطناعي التوليدي خلال جميع مراحل دورة حياة هذه الأدوات، بغية تسخير فوائدها، والتخفيف من المخاطر التي قد تقع، ما دعت الحاجة إلى وضع سياسات مرتبطة بأدوات محددة معايير أخلاقية ومسؤوليات مهنية.

ضمان موثوقية النتائج

وضمت الوثيقة المبادئ التي تحكم استخدام البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، وهي: النزاهة والإنصاف، الموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، والخصوصية والأمن، والإنسانية، والمنافع الاجتماعية والبيئية.

#سدايا تطلق برنامج "#سدايا_المستقبل" لاستقطاب المتميزين دراسيًا من خريجي تخصصات علوم الحاسب الآلي والتقنية من جامعات وكليات #المملكة وبرنامج خادم الحرمين الشريفين للابتعاث
للمزيد | https://t.co/AFsQ6rBpYN#اليوم@SDAIA_SA pic.twitter.com/uvOLafl8L1— صحيفة اليوم (@alyaum) January 8, 2024

ودعت الجهات الحكومية إلى توخي استخدام الذكاء الاصطناعي التوليدي في عمليات اتخاذ القرارات الحاسمة، فضلًا عن الالتزام الصارم بالقضاء على التحيز داخل الخوارزميات لضمان موثوقية النتائج وحمايتها من أي عواقب سلبية.

وأكدت أهمية الدور المحوري الذي تؤديه مكاتب البيانات في القطاعات الحكومية في ضمان الاستخدام الأخلاقي والقانوني لأدوات الذكاء الاصطناعي التوليدي، وتولي مسؤولية الموافقة على الأدوات التي يجري استخدامها ومراجعتها لضمان توافقها مع أنظمة وسياسات المملكة ذوات الصلة.

علاوة على العمل على ضمان ممارسات محكمة لإدارة البيانات، وإجراء عمليات تدقيق لتقييم جودة بيانات التدريب على الذكاء الاصطناعي التوليدي.

سلسلة الجهود المستمرة

وتعد هذه الوثيقة واحدة من سلسلة الجهود المستمرة التي تبذلها سدايا بوصفها هي المرجع الوطني للبيانات والذكاء الاصطناعي في المملكة من تنظيم وتطوير وتعامل من أجل زيادة الوعي بإمكانيات تقنيات البيانات والذكاء الاصطناعي، وتوضيح أهميتهما في وقتنا الحاضر من أجل خدمة القطاعات والأفراد على حد سواء في إطار منهجية تضمن توظيفها التوظيف الأمثل لتحقيق الاستفادة منها.

وأتاحت سدايا الوثيقة على موقعها الإلكتروني من خلال هذا الرابط.

المصدر: صحيفة اليوم

كلمات دلالية: واس الرياض المملكة العربية السعودية أخبار السعودية الذکاء الاصطناعی التولیدی فی مبادئ الذکاء الاصطناعی والذکاء الاصطناعی الجهات الحکومیة تقنیات الذکاء الحکومیة فی من خلال

إقرأ أيضاً:

حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية

يشهد العالم اليوم تطورا مُتسارعا في مجال الذكاء الاصطناعي، حيث أصبحت تطبيقاته تتغلغل في مختلف القطاعات، من الرعاية الصحية إلى التعليم والصناعة والخدمات المالية وغيرها من القطاعات. ومع هذا التوسع الهائل، تتزايد الحاجة إلى وضع أطر تنظيمية تضمن الاستخدام الآمن والمسؤول لهذه التقنية، وهو ما يُعرف بحوكمة الذكاء الاصطناعي.

إن التحدي الرئيس الذي تواجهه الحكومات والمؤسسات يتمثل في إيجاد توازن بين تشجيع الابتكار التكنولوجي من جهة، وضمان الامتثال للمبادئ الأخلاقية والقانونية التي تحمي الأفراد والمجتمعات من المخاطر المحتملة من جهة أخرى. وقد عرفت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) حوكمة الذكاء الاصطناعي بأنها «مجموعة من السياسات والإجراءات والمعايير القانونية التي تهدف إلى تنظيم تطوير واستخدام أدوات الذكاء الاصطناعي بطريقة مسؤولة وشفافة، مع ضمان احترام القيم الإنسانية وحماية الحقوق الأساسية».

ووفقا لتوصية منظمة اليونسكو بشأن أخلاقيات الذكاء الاصطناعي لعام 2021، فإن الحوكمةَ الفعالةَ للذكاء الاصطناعي ينبغي أن تستند إلى مبادئ الشفافية والمساءلة والأمان لضمان تحقيق الفائدة للمجتمع دونَ المساس بالحقوق الفردية. تهدفُ هذه الحوكمة إلى ضمان العدالة والشفافية وحماية البيانات واحترام حقوق الإنسان في جميع مراحل تطوير واستخدام هذه التقنيات. وتبرز أهمية الحوكمة في ضوء المخاطر المحتملة للذكاء الاصطناعي، مثل التحيز الخوارزمي وانتهاك الخصوصية والتأثير على سوق العمل، الأمر الذي يستدعي وضع تشريعات صارمة لضمان عدم إساءة استخدام هذه التقنية.

وفي سياق الجهود الدولية لتنظيم الذكاء الاصطناعي، صدر التقرير الدولي حول سلامة الذكاء الاصطناعي في يناير 2025 عن المعهد الدولي لسلامة الذكاء الاصطناعي (International AI Safety Report)، الذي شارك في إعداده 30 دولة من بينها منظمات دولية بارزة مثل هيئة الأمم المتحدة والاتحاد الأوروبي ومنظمة التعاون الاقتصادي والتنمية، حيث تناول الحالة الراهنة للفهم العلمي المتعلق بالذكاء الاصطناعي العام، وهو ذلك «النوع من الذكاء الاصطناعي القادر على تنفيذ مجموعة واسعة من المهام». وقد هدف التقرير إلى بناء فهم دولي مشترك حول المخاطر المرتبطة باستخدام الذكاء الاصطناعي المتقدم، مع تقديم تحليل شامل للوسائل العلمية والتقنية المتاحة لإدارتها والتخفيف منها بفعالية، وتوفير معلومات علمية تدعم صانعي القرار في وضع سياسات تنظيمية فعالة. وعلى الرغم من الفوائد العديدة التي يقدمها الذكاء الاصطناعي العام، فإن التقرير يحذر من المخاطر المتزايدة المرتبطة باستخدامه.

فمن الناحية الأمنية، قد يُستغل الذكاء الاصطناعي في تنفيذ هجمات سيبرانية متقدمة أو في تسهيل عمليات الاحتيال الإلكتروني، من خلال إنتاج محتوى مزيف (Fake content) يصعب تمييزه عن الحقيقي. كما أن هناك مخاطر اجتماعية تتمثل في إمكانية تعميق التحيزات الموجودة في البيانات التي تُستخدم في تدريب هذه الأنظمة. إضافة إلى ذلك، مخاوف تتعلق بفقدان السيطرة على أنظمة الذكاء الاصطناعي المتقدمة، حيث يمكن أن يؤدي التطور المتسارع لهذه الأنظمة إلى سلوكيات غير متوقعة قد يصعب التحكم بها. أما على المستوى الاقتصادي، فإن الذكاء الاصطناعي قد يتسبب في اضطرابات كبيرة في سوق العمل، حيث يؤدي إلى استبدال العديد من الوظائف التقليدية بالأنظمة الآلية، ففي قطاع خدمة العملاء مثلا، تعتمد الشركات الكبرى مثل أمازون وجوجل على روبوتات الدردشة (Chatbots) لتقديم الدعم الفني والتفاعل مع العملاء بكفاءة عالية، مما يقلل الحاجة إلى الموظفين البشريين.

أما في مجال التصنيع والتجميع، فقد أصبحت الروبوتات الصناعية تقوم بمهام الإنتاج بدقة وسرعة تفوق القدرات البشرية، كما هو الحال في مصانع تسلا وفورد التي تستخدم أنظمة مؤتمتة لتنفيذ عمليات اللحام والتجميع، مما يقلل التكاليف ويرفع كفاءة الإنتاج. ومع استمرار تطور الذكاء الاصطناعي، يُتوقع أن يمتد تأثيره إلى المزيد من القطاعات.

ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف القطاعات، أصبح من الضروري تبني استراتيجيات وحلول لمواجهة تحديات فقدان الوظائف التقليدية. ويُعد إعادة تأهيل القوى العاملة من أهم هذه الحلول، إذ يجب الاستثمار في برامج تدريبية تُمكن الموظفين من اكتساب مهارات رقمية وتقنية جديدة، مثل تحليل البيانات وتطوير البرمجيات، مما يساعدهم على التكيف مع متطلبات سوق العمل المتغير. إلى جانب ذلك، يمثل تعزيز ريادة الأعمال والابتكار حلا فعالا، حيث يُمكن تشجيع إنشاء مشاريع صغيرة ومتوسطة تعتمد على الذكاء الاصطناعي، مما يخلق فرص عمل جديدة.

كما يعد تبني نموذج العمل الهجين ضرورة مُلحة، إذ يُمكن دمج الذكاء الاصطناعي مع القدرات البشرية بدلا من الاستبدال الكامل، مما يعزز الإنتاجية مع الحفاظ على دور العنصر البشري. كما أن تطوير الأطر القانونية والتنظيمية يعد خطوة مهمة، حيث ينبغي صياغة قوانين تضمن الاستخدام العادل والمسؤول للذكاء الاصطناعي، وتحمي العمال من التمييز الناتج عن الأتمتة. بالإضافة إلى ذلك فإن التعليم المستمر يُسهم في تأهيل القوى العاملة الوطنية لمواكبة التحولات في سوق العمل، حيث ينبغي تعزيز ثقافة التعلم المستمر لضمان قدرة القوى العاملة على التكيف مع المتطلبات المستقبلية للتكنولوجيا المتقدمة. وغيرها من الاستراتيجيات الجديدة لدمج الإنسان مع الآلة في بيئة العمل.

من جانب آخر، هناك مخاطر تتعلق بالخصوصية، حيث يمكن للذكاء الاصطناعي تحليل كميات كبيرة من البيانات الشخصية، مما يزيد من احتمالات انتهاك الخصوصية وسوء استخدام المعلومات. ولتقليل هذه المخاطر، من الضروري تبني مجموعة من الاستراتيجيات التقنية والتنظيمية التي تعزز شفافية وأمان أنظمة الذكاء الاصطناعي. ومن أبرزها، تطوير تقنيات تتيح فهما أعمق لآليات اتخاذ القرار لدى الذكاء الاصطناعي، مما يسهل عملية المراجعة والمساءلة. بالإضافة إلى ذلك، تبرز أهمية تعزيز الأمن السيبراني عبر تصميم بروتوكولات حماية متقدمة لمواجهة التهديدات المحتملة.

كما يجب العمل على تصفية البيانات وتقليل التحيز لضمان دقة وعدالة أنظمة الذكاء الاصطناعي في اتخاذ القرارات. ومن أجل حماية بيانات المستخدمين، يتوجب استخدام تقنيات التشفير القوية وآليات الحماية الحديثة التي تضمن الامتثال لمعايير الخصوصية. بالإضافة إلى ضرورة الحفاظ على دور الإنسان في عمليات اتخاذ القرار، لضمان عدم الاعتماد الكامل على الذكاء الاصطناعي في الأمور الحساسة، مما يقلل من المخاطر المحتملة الناجمة عن التحكم الذاتي للأنظمة. إن التطور السريع لهذه التقنية يتطلب نهجا شاملا يجمع بين البحث العلمي والسياسات التنظيمية والتقنيات المتقدمة لضمان الاستخدام الآمن والمسؤول لهذه الأنظمة، بحيث تتحقق الفائدة المرجوة منها دون التعرض للمخاطر المحتملة.

وقد اعتمدت العديد من الدول سياسات مُتقدمة لتنظيم الذكاء الاصطناعي، حيث اتخذ الاتحاد الأوروبي خطوات رائدة في هذا المجال عبر قانون الذكاء الاصطناعي الأوروبي الذي دخل حيز التنفيذ عام 2024م والذي يُعدُ أول إطار قانوني شامل يهدف إلى تَنظيم استخدام الذكاء الاصطناعي وفق معايير صارمة تحمي الخصوصية وتحد من التحيز الخوارزمي. وفي المقابل، تبنت الولايات المتحدة الأمريكية نهجا يعتمد على توجيهات إرشادية لتعزيز الشفافية والمساءلة، مع منح الشركات حرية الابتكار ضمن حدود أخلاقية محددة. أما الصين، فقد ألزمت الشركات التقنية بمراجعة وتقييم خوارزميات الذكاء الاصطناعي المُستخدمة في المنصات الرقمية، لضمان الامتثال لمعايير الأمان السيبراني.

عليه فإنه يُمكن الإشارة إلى مجموعة من التوصيات والمُبادرات التي يُمكن أن تُسهم في تعزيز حوكمة الذكاء الاصطناعي بشكل فعال، ومن أبرزها: وضع أطر قانونية مَرنة تُتيح تطوير الذكاء الاصطناعي دون عرقلة الابتكار، مع ضمان حماية حقوق الأفراد والمجتمع وتعزيز الشفافية والمساءلة من خلال فرض معايير تضمن وضوح كيفية عمل أنظمة الذكاء الاصطناعي، وإتاحة آليات لمراجعة القرارات التي تتخذها هذه الأنظمة وتعزيز التعاون الدولي لإنشاء منصات مشتركة لمراقبة تطورات الذكاء الاصطناعي وتبادل المعلومات بين الدول حول المخاطر المحتملة وتشجيع البحث والتطوير المسؤول عبر دعم الأبحاث التي تركز على تطوير تقنيات ذكاء اصطناعي أكثر أمانا واستدامة وتعزيز تعليم الذكاء الاصطناعي الأخلاقي من خلال دمج مقررات حوكمة الذكاء الاصطناعي في مناهج المؤسسات الأكاديمية والتعليمية، لضمان وعي المطورين الجدد بالمسؤوليات الأخلاقية المترتبة على استخدام هذه التقنية.

إن حوكمة الذكاء الاصطناعي تُشكل ركيزة أساسية لضمان تحقيق أقصى الفوائد من هذه التقنية، مع الحد من المخاطر المرتبطة بها. وبينما يستمر الابتكار في التقدم بوتيرة غير مسبوقة، فإن المسؤولية تقتضي وضع سياسات وتشريعات تنظيمية تضمن الاستخدام العادل والمسؤول لهذه التقنيات، بما يتوافق مع القيم الأخلاقية والقوانين الدولية. ويُعد تحقيق التوازن بين الابتكار والمسؤولية التحدي الأكبر الذي يواجه الحكومات وصناع القرار، لكن من خلال التعاون الدولي ووضع سياسات متقدمة، يمكن بناء مستقبل مستدام للذكاء الاصطناعي يعود بالنفع على البشرية جمعاء.

عارف بن خميس الفزاري كاتب ومتخصص في المعرفة

مقالات مشابهة

  • معرض برشلونة للأجهزة المحمولة ينطلق مع تخصيص الحيّز الأكبر للذكاء الاصطناعي
  • الخبرات النادرة والمعادلة الجديدة في الذكاء الاصطناعي
  • مؤسسة دبي للمستقبل تتعاون مع مركز هامبورغ للذكاء الاصطناعي
  • لتصفح أكثر أمانًا.. أوبرا تكشف عن وكيل جديد للذكاء الاصطناعي
  • حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
  • جامعة محمد بن زايد للذكاء الاصطناعي تطلق أول برنامج بكالوريوس في الذكاء الاصطناعي
  • جامعة محمد بن زايد للذكاء الاصطناعي تطلق أول برنامج بكالوريوس لتمكين قادة المستقبل
  • جامعة محمد بن زايد للذكاء الاصطناعي تطلق أول برنامج بكالوريوس لتمكين قادة المستقبل في مجال الذكاء الاصطناعي
  • 4 محاور لتنفيذ استراتيجية جامعة القاهرة للذكاء الاصطناعي
  • كلية السلطان هيثم للذكاء الاصطناعي