لرفع مستوى الوعي.."سدايا" تُطلق النسخة الثانية من وثيقة مبادئ الذكاء الاصطناعي التوليدي
تاريخ النشر: 11th, January 2024 GMT
أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" اليوم النسخة الثانية من وثيقة المبادئ التوجيهية لاستخدام أدوات الذكاء الاصطناعي التوليدي (مبادئ الذكاء الاصطناعي التوليدي) لدى العموم من القطاع الخاص والقطاع غير الربحي والأفراد.
ويأتي ذلك بغية رفع مستوى الوعي باستخدامات تقنيات الذكاء التوليدي المتعددة في مختلف مناحي الحياة، وتعد نقلة نوعية في عصرنا الحالي في قدرتها على تفاعل الآلات مع المستخدمين.
وتتمتع تقنيات الذكاء الاصطناعي التوليدي بمزايا عدة يمكن توظيفها في مختلف الأعمال سواءً على مستوى المؤسسات أو الأفراد، وانطلاقًا من هذا المبدأ فقد حرصت سدايا على تعزيز الأدوار الإيجابية لاستخدامات الذكاء الاصطناعي التوليدي مع تخفيف الأخطار المرتبطة به من خلال تطبيق مبادئ الذكاء الاصطناعي وتبني التدابير الوقائية لتفادي الوقوع في: حالات تسرب البيانات، والتضليل، والتزييف العميق، والتحيز، أو مخالفة أنظمة الملكية الفكرية، وحقوق النشر.
#سدايا تُطلق وثيقة مبادئ الذكاء الاصطناعي التوليدي لتبنّي استخدامها للعموم.
للاطلاع: https://t.co/OhNod4Z4a1 pic.twitter.com/caSfGNHBll— SDAIA (@SDAIA_SA) January 11, 2024استخدام ومعالجة البيانات
أطلقت "سدايا" أمس المبادئ الخاصة بالقطاعات الحكومية، واليوم تُقدّم الوثيقة المعنية بالعموم كمبادئ توجيهية تتعلق باستخدام ومعالجة البيانات في أدوات الذكاء الاصطناعي التوليدي مع أمثلة تستند إلى سيناريوهات شائعة قد تتطرق إليها الجهات، وتسلط الضوء على التحديات والاعتبارات المرتبطة باستخدام هذه التقنيات.
وتتوافق الوثيقة مع الأنظمة والسياسات الحالية في المملكة وتدعم الامتثال لها بما في ذلك اخلاقيات الذكاء الاصطناعي والأنظمة المرتبطة بحوكمة البيانات والخصوصية والأمن والملكية الفكرية وحقوق الإنسان.
وتؤكد الوثيقة على أهمية الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي عند التعامل مع أدوات الذكاء الاصطناعي التوليدي في جميع مراحل دورة حياة هذه الأدوات من أجل تسخير فوائدها والتخفيف من المخاطر التي قد تقع لا سمح الله.
خريج وتبحث عن عمل؟ فرصتك الآن مع برنامج #سدايا المستقبل.
سجل الآن:https://t.co/l1gabzLUeR pic.twitter.com/xfzecAcS3X— SDAIA (@SDAIA_SA) January 11, 2024البيانات الحكومية في أدوات الذكاء الاصطناعي
ضمت الوثيقة المبادئ التي تحكم استخدام البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، وهي : النزاهة والإنصاف، الموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، والخصوصية والأمن، والإنسانية ، والمنافع الاجتماعية والبيئية.
ودعت الجهات الحكومية إلى توخي استخدام الذكاء الاصطناعي التوليدي في عمليات اتخاذ القرارات الحاسمة فضلاً عن الالتزام الصارم بالقضاء على التحيز داخل الخوارزميات لضمان موثوقية النتائج وحمايتها من أي عواقب سلبية.
وأكدت الوثيقة على جملة من المبادئ ومنها تحقيق المنافع الاجتماعية والبيئية التي تدعو إلى تعزيز الأثر الإيجابي والمفيد للأولويات الاجتماعية والبيئية التي يجب أن تفيد الأفراد والمجتمع ككل وتركز على الأهداف والغايات المستدامة دون أن تؤثر سلبًا على الإنسان بل تُسهم في تمكينه واستكمال التقدم التقني والاجتماعي والبيئي مع السعي إلى معالجة التحديات المرتبطة بها.
كما أكدت على ضرورة بناء واستخدام أدوات الذكاء الاصطناعي التوليدي وفق منهجية عادلة وأخلاقية تستند إلى حقوق الإنسان والقيم الثقافية الأساسية من أجل إحداث أثر إيجابي على الأطراف المعنية والمجتمعات المحلية والمساهمة في تحقيق الأهداف الاستراتيجية من أجل تحقيق المصلحة العامة للبشرية وازدهارها.
تبعات قانونيةقد يترتب على استخدام تقنيات الذكاء الاصطناعي التوليدي تبعات قانونية وأخلاقية لذا شدّدت الوثيقة على أهمية استشارة أصحاب الاختصاص القانوني وذوي الصلة لتقييم الأخطار المرتبطة من استخدام أدوات هذه التقنيات لتفادي الوقوع في الأخطاء القانونية مع الالتزام بالتشريعات ذوات الصلة بما في ذلك نظام حماية البيانات الشخصية لضمان الامتثال وحماية حقوق المستخدم والتأكد من سلامة المحتوى الذي تم إعداده يحترم حقوق الملكية الفكرية وملتزم بحقوق النشر.
وتعد هذه الوثيقة واحدة من سلسلة الجهود المستمرة التي تبذلها سدايا بوصفها هي المرجع الوطني للبيانات والذكاء الاصطناعي في المملكة من تنظيم وتطوير وتعامل من أجل زيادة الوعي بإمكانيات تقنيات البيانات والذكاء الاصطناعي، وتوضيح أهميتهما في وقتنا الحاضر من أجل خدمة القطاعات والأفراد على حد سواء في إطار منهجية تضمن توظيفها التوظيف الأمثل لتحقيق الاستفادة منها.
المصدر: صحيفة اليوم
كلمات دلالية: واس الرياض سدايا الذكاء الاصطناعي الذكاء الاصطناعي التوليدي مبادئ الذکاء الاصطناعی من أجل
إقرأ أيضاً:
الذكاء الاصطناعي في بيئة العمل: بين القلق والفرص الجديدة
خاص
تشهد بيئات العمل اليوم تحولًا غير مسبوق مع التقدم السريع في تقنيات الذكاء الاصطناعي، ما يثير تساؤلات حول كيفية تأثيره على الموظفين والشركات على حد سواء.
وبينما يُنظر إلى هذه التقنية على أنها أداة لتعزيز الإنتاجية، إلا أن العديد من الموظفين يشعرون بالقلق بشأن كيفية دمجها في مهامهم اليومية.
ووفقًا لاستطلاع أجرته شركة “وايلي”، أفاد 76% من المشاركين بأنهم يفتقرون إلى الثقة في استخدام الذكاء الاصطناعي في العمل، بينما أظهرت دراسة لمؤسسة “غالوب” أن 6% فقط من الموظفين يشعرون براحة تامة مع هذه التقنية، مما يعكس حالة من عدم اليقين حول كيفية الاستفادة منها.
ويُرجع الخبراء هذا القلق إلى نقص التدريب وغياب الإرشاد الواضح حول آليات دمج الذكاء الاصطناعي في بيئة العمل، إذ يحتاج الموظفون إلى دعم مستمر لفهم كيفية استخدام هذه الأدوات بفعالية دون الشعور بأن وظائفهم مهددة.
ويُشكل المدراء العنصر الأساسي في إنجاح عملية دمج الذكاء الاصطناعي، حيث يلجأ الموظفون إليهم للحصول على التوجيه.
ومع ذلك، أفاد 34% فقط من المديرين بأنهم يشعرون بأنهم مستعدون لقيادة هذا التغيير، مما يزيد من حالة عدم اليقين داخل المؤسسات.
ولتجاوز هذه العقبات، تحتاج الشركات إلى استراتيجيات واضحة تشمل التدريب المكثف، وتوفير بيئة داعمة تعتمد على الشفافية في التعامل مع هذه التقنية الجديدة، إلى جانب وضع معايير تضمن الاستخدام المسؤول للذكاء الاصطناعي.
ولا شك أن الذكاء الاصطناعي سيعيد تشكيل طبيعة العمل كما نعرفها، لكن نجاح هذا التحول يعتمد على مدى قدرة المؤسسات على تمكين موظفيها من استخدامه بفعالية، والاستثمار في تطوير المهارات والتواصل المستمر سيجعل من هذه التقنية أداة مساعدة بدلاً من أن تكون مصدرًا للقلق.
إقرأ أيضًا
ديب سيك تضرب بقوة تحديث جديد يهدد عرش أوبن إيه آي