"سدايا" تُطلق وثيقة مبادئ لاستخدام الذكاء الاصطناعي التوليدي
تاريخ النشر: 11th, January 2024 GMT
أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" اليوم، وثيقة المبادئ التوجيهية لاستخدام أدوات الذكاء الاصطناعي التوليدي (مبادئ الذكاء الاصطناعي التوليدي) للجهات الحكومية في خطوة تستهدف توضيح استخدام تقنيات الذكاء التوليدي والاستثمار في هذه التقنية الواعدة مع رفع الوعي بالمخاطر والاستخدام المسؤول والفعّال لأدواته أثناء التعاملات اليومية، حيث تعد تقنيات الذكاء الاصطناعي التوليدي نقلة نوعية في تفاعل الآلات مع المستخدمين.
وتأتي الوثيقة في ظل اهتمام ومتابعة سدايا للتطورات المتسارعة التي شهدها الذكاء الاصطناعي في خدمات وأدوات الذكاء الاصطناعي التوليدي، التي يستخدمها الحكومات والشركات والأفراد حول العالم ويحفّها بعض المخاطر، التي يستوجب معرفتها وتطبيق مبادئ الذكاء الاصطناعي تجاهها، وأخذ الحذر منها عند استخدام مخرجاتها، فضلاً عن عدم استخدام تقنيات الذكاء الاصطناعي التوليدي إلا في الحالات التي يمكنهم فيه تحديد المخاطر وتفاديها أو التخفيف من حدتها بشكل كافٍ.
وتدعم هذه الوثيقة الجهات الحكومية في تبني استخدام الذكاء الاصطناعي التوليدي المسؤول وتطبيق مستهدفات رؤية المملكة 2030، الرامية إلى دعم التحول الرقمي واستثمار التقنيات الحديثة في تعزيز الاقتصاد الوطني، والأبحاث والتطوير في مجالات الذكاء الاصطناعي مع تقليل المخاطر المتعلقة بهذه التقنيات المتقدمة، علاوة على تسليط الضوء على الاستثمار واستثمار الفرص التي تقدمها تقنيات الذكاء الاصطناعي التوليدي مع الأخذ بعين الاعتبار التحديات المرتبطة بها.
وتسعى الوثيقة إلى تأمين العمل بأدوات الذكاء الاصطناعي التوليدي، الذي تُستخدم نماذجه في مهام وظيفية عدة منها: خدمة العملاء، والتسويق والتصميم والبرمجة، والخدمات المصرفية، والرعاية الصحية، والإعلام والترفيه، والسياحة والرياضة والعقارات، والطاقة، والزراعة وغيرها من المجالات، حيث تتمتع هذه التقنيات بإمكانيات هائلة يمكن توظيفها في تحسين أداء العمل من خلال: تعزيز الكفاءة التشغيلية، وتجويد الخدمات وتسهيلها، وتسريع عملية البحث والتحليل، والاستجابة للأزمات، وإنشاء المحتوى، والترجمة و غيرها.
ويبرز الذكاء الاصطناعي التوليدي في جوانب عملية عدة تحتاجها القطاعات الحكومية في مجال عملها منها القدرة على اختزال النصوص الطويلة في ملخصات موجزة خلال ثوانٍ معدودة، ومن ذلك تلخيص مادة نصية تتكون من خمس صفحات في فقرة واحدة، كما يمكنه إنشاء محتوى مبسط ومباشر يسهل فهمه، إضافة إلى صياغة المذكرات والخطابات والأوصاف الوظيفية والمواد المكتوبة الأخرى، وإنشاء محتوى مكون من الصور والصوت والفيديوهات بشكل سريع وحسب حاجة المستخدمين.
ويمكن تسخير مزايا الذكاء الاصطناعي التوليدي في تخفيف الأخطار المرتبطة بها من خلال تطبيق مبادئ الذكاء الاصطناعي وتبني التدابير الوقائية لتفادي الوقوع في مخاطر: حالات تسرب البيانات، والتضليل، والتزييف العميق، والتحيز والظلم إلى جانب مخاوف السلامة نتيجة استخدام محتوى الذكاء الاصطناعي التوليدي في اتخاذ القرارات الحاسمة دون التحقق منها.
وتُقدّم الوثيقة مبادئ توجيهية للعاملين في الجهات الحكومية فيما يتعلق باستخدام ومعالجة البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي مع أمثلة تستند إلى سيناريوهات شائعة قد تتطرق إليها الجهات، كما تسلط الضوء على التحديات والاعتبارات المرتبطة باستخدام الذكاء الاصطناعي التوليدي في حين تتوافق هذه الوثيقة مع الأنظمة والسياسات الحالية في المملكة العربية السعودية وتدعم الامتثال لها بما في ذلك أخلاقيات الذكاء الاصطناعي والأنظمة المرتبطة بحوكمة البيانات والخصوصية والأمن والملكية الفكرية وحقوق الإنسان.
والذكاء الاصطناعي التوليدي هو نموذج تعلم آلة يمكنه إنشاء أمثلة جديدة مشابهة لمجموعة بيانات التدريب، ويعد هذا النموذج جزءًا فرعيًا من الذكاء الاصطناعي يمكنه إنشاء محتوى جديد بما في ذلك النصوص والصور والأصوات والرموز ومقاطع الفيديو وغيرها، ويعمل عن طريق تفسير الأوامر التي يقدمها المستخدمون، ويمكنه أن يؤدي مهام تتطلب قدرات معرفية بشرية بما في ذلك الاستجابة لصياغة الأوامر اللفظية أو المكتوبة والتعلم وحل المشكلات.
وتؤكد أهمية الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي عند التعامل مع أدوات الذكاء الاصطناعي التوليدي خلال جميع مراحل دورة حياة هذه الأدوات، بغية تسخير فوائدها والتخفيف من المخاطر التي قد تقع لا سمح الله مما دعت الحاجة إلى وضع سياسات مرتبطة بأدوات محددة معايير أخلاقية ومسؤوليات مهنية.
وضمت الوثيقة المبادئ التي تحكم استخدام البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، وهي: النزاهة والإنصاف، الموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، والخصوصية والأمن، والإنسانية ، والمنافع الاجتماعية والبيئية، ودعت الجهات الحكومية إلى توخي استخدام الذكاء الاصطناعي التوليدي في عمليات اتخاذ القرارات الحاسمة، فضلاً عن الالتزام الصارم بالقضاء على التحيز داخل الخوارزميات لضمان موثوقية النتائج وحمايتها من أي عواقب سلبية.
وأكدت أهمية الدور المحوري الذي تؤديه مكاتب البيانات في القطاعات الحكومية في ضمان الاستخدام الأخلاقي والقانوني لأدوات الذكاء الاصطناعي التوليدي، وتولّي مسؤولية الموافقة على الأدوات التي يتم استخدامها ومراجعتها لضمان توافقها مع أنظمة وسياسات المملكة ذوات الصلة، علاوة على العمل على ضمان ممارسات محكمة لإدارة البيانات وإجراء عمليات تدقيق لتقييم جودة بيانات التدريب على الذكاء الاصطناعي التوليدي.
وتعد هذه الوثيقة واحدة من سلسلة الجهود المستمرة التي تبذلها سدايا بوصفها هي المرجع الوطني للبيانات والذكاء الاصطناعي في المملكة من تنظيم وتطوير وتعامل من أجل زيادة الوعي بإمكانيات تقنيات البيانات والذكاء الاصطناعي، وتوضيح أهميتهما في وقتنا الحاضر من أجل خدمة القطاعات والأفراد على حد سواء في إطار منهجية تضمن توظيفها التوظيف الأمثل لتحقيق الاستفادة منها.
المصدر: صحيفة عاجل
كلمات دلالية: سدايا الذكاء الاصطناعي استخدام الذکاء الاصطناعی التولیدی الذکاء الاصطناعی التولیدی فی والذکاء الاصطناعی تقنیات الذکاء الحکومیة فی
إقرأ أيضاً:
بتشويه «فوضى الذكاء الاصطناعي» للواقع يمضي العالم إلى كارثة
تهيمن قناتان متوازيتان للصور على استهلاكنا البصري اليومي. في إحداهما، صور ولقطات حقيقية للعالم كما نعرفه، ففيها سياسة ورياضة وأخبار وترفيه. وفي الثانية، فوضى الذكاء الاصطناعي [أو ما يعرف بـ AI slop]، بمحتوى متواضع الجودة ليس فيه من الإسهام البشري إلا الحد الأدنى. بعض ما فيه تافه الشأن عديم المعنى، لا يعدو صورا كرتونية لمشاهير، ومناظر طبيعية خيالية، وحيوانات ذات سمات بشرية. وبعضه الآخر عرض خادش للحياء...ففيه تجد حبيبات افتراضيات لا يمكن أن تتفاعل معهن تفاعلا حقيقيا. ونطاق هذا المحتوى وحجمه مذهلان، فهو يتسرب إلى كل شيء، من صفحات التواصل الاجتماعي إلى الرسائل المتداولة على واتساب. فلا تكون النتيجة محض تشويش على الواقع، وإنما هي تشويه له.
وفي فوضى الذكاء الاصطناعي شيء جديد هو الخيال السياسي اليميني. فعلى موقع يوتيوب مقاطع فيديو كاملة ذات سيناريوهات مختلقة ينتصر فيها مسؤولو ترامب على القوى الليبرالية. وقد استغل حساب البيت الأبيض على منصة إكس صيحة إنشاء صور بأسلوب استوديو جيبلي، ونشر صورة لامرأة من الدومينيكان تبكي أثناء تعرضها للاعتقال على يد إدارة الهجرة والجمارك (ICE). والواقع أن السخرية السياسية باستعمال الذكاء الاصطناعي قد انتشرت على مستوى العالم.
فهناك مقاطع فيديو صينية من إنتاج الذكاء الاصطناعي تسخر من العمال الأمريكيين البدناء وهم يقفون في خطوط التجميع بعد إعلان التعريفات الجمركية، وقد أثارت هذه المقاطع سؤالا موجها للمتحدثة باسم البيت الأبيض الأسبوع الماضي وردا منها. فقد قالت المتحدثة: إن هذه مقاطع أنتجها من «لا يرون إمكانات العامل الأمريكي». ولإثبات مدى انتشار فوضى الذكاء الاصطناعي، كان علي أن أتأكد ثلاث مرات من أنه حتى هذا الرد نفسه لم يكن في حد ذاته محتوى ذكاء اصطناعي منفذا على عجل مختلقا خدعة أخرى لأعداء ترامب.
وليس الدافع إلى تسييس الذكاء الاصطناعي بالأمر الجديد، فهو ببساطة امتداد للبروباجندا المعهودة. ولكن الجديد هو مدى ديمقراطيته وانتشاره، وأنه لا يحتوي أشخاصا حقيقيين ويخلو من قيود الحياة الواقعية المادية، فيوفر بذلك ما لا حصر له من السيناريوهات الخيالية.
وانتشار محتوى الذكاء الاصطناعي عبر قنوات الدردشة الضخمة عظيمة الحضور، من قبيل واتساب، يعني غياب أي ردود أو تعليقات تشكك في صحته. فكل ما تتلقاه ينعم بسلطة من ثقتك في الشخص الذي أرسله إليك. لذلك أخوض صراعا دائما مع قريبة لي كبيرة السن، مطلعة على عالم الإنترنت، تتلقى سيلا من محتوى الذكاء الاصطناعي على واتساب بشأن حرب السودان وتصدقه. تبدو الصور ومقاطع الفيديو حقيقية بالنسبة لها، وترد إليها موجهة من أشخاص تثق فيهم. ويصعب على المرء حتى أن يستوعب قدرة التكنولوجيا على إنتاج محتوى يبدو حقيقيا إلى هذه الدرجة.
وبإضافة هذه القدرة إلى توافق المحتوى مع رغبات قريبتي السياسية، ستجد نفسك متعلقا به إلى حد بعيد، حتى لو اعتراك بعض من الشك فيه. فوسط الكم الهائل من القطط [في بعض الفيديوهات المختلقة]، يجري استعمال الذكاء الاصطناعي في خلق سيناريوهات سياسية، وتحسينها والوصول بها إلى درجة الكمال عبر تقديمها بلغة بصرية تؤجج الرغبة في الانتصار أو تعتمد على الشعور بالحنين.
يشير البروفيسور رولاند ماير، الباحث في الإعلام والثقافة البصرية، إلى «موجة حديثة من الصور المولدة بالذكاء الاصطناعي لعائلات بيضاء شقراء، تطرحها حسابات إلكترونية فاشية جديدة بوصفها نماذج لمستقبل مشرق». وهو لا يعزو ذلك إلى اللحظة السياسية الراهنة فحسب، وإنما إلى أن «الذكاء الاصطناعي التوليدي محافظ بطبيعته، بل ويقوم على حنين إلى الماضي». فالذكاء الاصطناعي التوليدي يقوم على بيانات مسبقة أثبتت الأبحاث أنها بيانات متحيزة بطبيعتها ضد التنوع العرقي، والأدوار الجندرية والميول الجنسية التقدمية، فتأتي منتجات الذكاء الصناعي بتركيز كبير على هذه المعايير.
يمكن أن نرى الأمر نفسه في محتوى «الزوجة التقليدية» [“trad wife”]، الذي لا يقدم ربات البيوت الجميلات الخاضعات فحسب، وإنما يقدم عالما رجعيا كاملا لينغمس فيه الرجال. وتغص جداول موقع إكس بنوع من المواد الإباحية غير الجنسية، حيث تلمع على الشاشة صور الذكاء الاصطناعي لنساء يوصفن بالحسن والخصوبة والخضوع. ويجري طرح سيادة البيض والاستبداد وتقديس التراتبيات الهرمية في العرق والجندر بوصفها سلة متكاملة من الحنين إلى ماض موهوم. فبات الذكاء الاصطناعي يوصف بالفعل بأنه جمالية الفاشية الجديدة.
لكن الأمر لا يكون دائما على هذا القدر من التماسك. ففي معظم الأحيان، لا تعدو فوضى الذكاء الاصطناعي محتوى فيه بعض المبالغة أو الإثارة بما يغري على التفاعل، ويوفر لمبدعيه فرصة ربح المال من المشاركات والتعليقات وما إلى ذلك. وقد تبين للصحفي ماكس ريد أن فوضى الذكاء الاصطناعي على فيسبوك ـ وهي الفوضى الكبرى على الإطلاق ـ ليست «محض محتوى غير مرغوب فيه» من وجهة نظر فيسبوك، وإنما هي «ما تريده الشركة بالضبط: فهي محتوى شديد الجاذبية». والمحتوى بالنسبة لعمالقة التواصل الاجتماعي هو المحتوى، فكلما كان أرخص، وقلت فيه الحاجة إلى جهد بشري، فذلك أفضل. وتكون النتيجة أن يتحول الإنترنت إلى إنترنت الروبوتات التي تدغدغ مشاعر المستخدمين البشريين وتؤجج فيهم أي أحاسيس أو عواطف تبقيهم منشغلين.
ولكن بغض النظر عن نوايا مبتكريه، يؤدي هذا السيل من محتوى الذكاء الاصطناعي إلى فقدان الإحساس بالواقعية وإرهاق الحواس البصرية. والتأثير العام لدوام التعرض لصور الذكاء الاصطناعي، ما كان منها تافها أو مهدئا أو أيديولوجيا، هو أن كل شيء يبدأ في اتخاذ مسار مختلف. ففي العالم الواقعي، يقف الساسة الأمريكيون خارج أقفاص سجن الترحيل. وتنصب الأكمنة لطلاب الجامعات الأمريكية في الشوارع ليجري إبعادهم. ويحترق أهل غزة أحياء. وتمضي هذه الصور والفيديوهات مع سيل لانهائي من الصور والفيديوهات الأخرى التي تنتهك القوانين المادية والأخلاقية. فتكون النتيجة ارتباكا عميقا. ولا يعود بوسعك أن تصدق عينيك، ولكن ما الذي يمكن أن تصدقه إن لم تصدق عينيك؟ فكل شيء يبدو حقيقيا للغاية وغير واقعي بالمرة، في آن واحد.
أضف إلى هذا ما نعرفه من التبسيط الضروري والإيجاز المستفز في (اقتصاد الانتباه)، وإذا بك في سيرك ضخم من التجاوزات. فحتى عندما يكون المحتوى شديد الجدية، يجري تقديمه بوصفه ترفيها، أو فاصلا، أشبه بنسخة مرئية من موسيقى المصاعد. فهل أفزعك هجوم دونالد ترامب وجيه دي فانس على زيلينسكي؟ حسنا، إليك رسم مصمم بالذكاء الاصطناعي لفانس في هيئة رضيع عملاق. تشعر بالتوتر والإرهاق؟ فها هو بلسم للعين في كوخ فيه نار موقدة والثلج يتساقط في الخارج. ولسبب ما، قرر فيسبوك أنني بحاجة إلى رؤية تيار مستمر من الشقق الصغيرة اللطيفة مع تنويعات من التعليقات التوضيحية مفادها أن «هذا هو كل ما أحتاج إليه».
وتؤدي التحورات السريعة للخوارزميات إلى إمداد المستخدمين بمزيد مما حصدته لهم معتبرة أنه مثير لاهتمامهم. والنتيجة هي أنه يستحيل ترشيد ذلك الاستهلاك حتى لأكثر المستخدمين اتزانا. لأنك تزداد انغماسا في عوالم ذاتية بدلا من الواقع الموضوعي. فتكون النتيجة انفصالا شديد الغرابة. ويضعف الشعور بالقلق والحاجة إلى العمل الذي ينبغي أن يوحي به عالمنا الممزق، وذلك بسبب طريقة عرض المعلومات. وإذن فها هي طريقة جديدة لكي نسير نياما نحو الكارثة وهي طريقة لا تقوم على نقص المعرفة، وإنما تنشأ بسبب الشلل الناجم عن تمرير كل شيء من خلال هذا النظام المشوه، فهو محض جزء آخر من العرض البصري المبالغ فيه.