أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا"، وثيقة المبادئ التوجيهية لاستخدام أدوات الذكاء الاصطناعي التوليدي (مبادئ الذكاء الاصطناعي التوليدي) للجهات الحكومية، في خطوة تستهدف توضيح استخدام تقنيات الذكاء التوليدي والاستثمار في هذه التقنية الواعدة، مع رفع الوعي بالمخاطر والاستخدام المسؤول والفعال لأدواته في أثناء التعاملات اليومية.

وتعد تقنيات الذكاء الاصطناعي التوليدي نقلة نوعية في تفاعل الآلات مع المستخدمين.

أخبار متعلقة الشروط ورابط التقديم.. إطلاق "سدايا المستقبل" لوظائف الذكاء الاصطناعيمدير "سدايا": المركز تؤدي دورًا محوريًا في خدمة ضيوف الرحمنمنظومة للذكاء الاصطناعي تتعرف على الانفعالات من خلال تعبيرات الوجهدعم التحول الرقمي

وتأتي الوثيقة في ظل اهتمام ومتابعة سدايا للتطورات المتسارعة التي شهدها الذكاء الاصطناعي في خدمات وأدوات الذكاء الاصطناعي التوليدي، التي تستخدمها الحكومات والشركات والأفراد حول العالم ويحفها بعض المخاطر، التي يستوجب معرفتها وتطبيق مبادئ الذكاء الاصطناعي تجاهها، وأخذ الحذر منها عند استخدام مخرجاتها.

فضلًا عن عدم استخدام تقنيات الذكاء الاصطناعي التوليدي، إلا في الحالات التي يمكنهم فيه تحديد المخاطر وتفاديها أو التخفيف من حدتها بشكل كاف.

وتدعم هذه الوثيقة الجهات الحكومية في تبني استخدام الذكاء الاصطناعي التوليدي المسؤول، وتطبيق مستهدفات رؤية المملكة 2030، الرامية إلى دعم التحول الرقمي واستثمار التقنيات الحديثة في تعزيز الاقتصاد الوطني، والأبحاث والتطوير في مجالات الذكاء الاصطناعي مع تقليل المخاطر المتعلقة بهذه التقنيات المتقدمة.

علاوة على تسليط الضوء على الاستثمار واستثمار الفرص التي تقدمها تقنيات الذكاء الاصطناعي التوليدي، مع الأخذ بعين الاعتبار التحديات المرتبطة بها.

#سدايا تطلق وثيقة مبادئ الذكاء الاصطناعي التوليدي التي تقدّم مبادئ توجيهية للعاملين في الجهات الحكومية في أدوات الذكاء الاصطناعي التوليدي.
للأطلاع: https://t.co/mUCc1JfarT pic.twitter.com/3O0Up6qojd— SDAIA (@SDAIA_SA) January 10, 2024إمكانيات هائلة

وتسعى الوثيقة إلى تأمين العمل بأدوات الذكاء الاصطناعي التوليدي، الذي تستخدم نماذجه في مهام وظيفية عدة منها: خدمة العملاء، والتسويق والتصميم والبرمجة، والخدمات المصرفية، والرعاية الصحية، والإعلام والترفيه، والسياحة والرياضة والعقارات، والطاقة، والزراعة وغيرها من المجالات.

وتتمتع هذه التقنيات بإمكانيات هائلة يمكن توظيفها في تحسين أداء العمل من خلال: تعزيز الكفاءة التشغيلية، وتجويد الخدمات وتسهيلها، وتسريع عملية البحث والتحليل، والاستجابة للأزمات، وإنشاء المحتوى، والترجمة وغيرها.

اختزال النصوص الطويلة

ويبرز الذكاء الاصطناعي التوليدي في جوانب عملية عدة تحتاجها القطاعات الحكومية في مجال عملها، منها القدرة على اختزال النصوص الطويلة في ملخصات موجزة خلال ثوان معدودة، ومن ذلك تلخيص مادة نصية تتكون من 5 صفحات في فقرة واحدة، كما يمكنه إنشاء محتوى مبسط ومباشر يسهل فهمه.

إضافة إلى صياغة المذكرات والخطابات والأوصاف الوظيفية والمواد المكتوبة الأخرى، وإنشاء محتوى مكون من الصور والصوت والفيديوهات بشكل سريع وحسب حاجة المستخدمين.

#سدايا: 1.8 مليون عملية تحقق الهوية الرقمية يوميًا تجري عبر منصة نفاذ، وإجمالي المستخدمين النشطين في المنصة بلغ 22.1 مليون شخص
للتفاصيل | https://t.co/iHRDJd1PZB#اليوم@SDAIA_SA pic.twitter.com/wxYodeQGto— صحيفة اليوم (@alyaum) January 10, 2024

ويمكن تسخير مزايا الذكاء الاصطناعي التوليدي في تخفيف الأخطار المرتبطة بها من خلال تطبيق مبادئ الذكاء الاصطناعي، وتبني التدابير الوقائية لتفادي الوقوع في مخاطر: حالات تسرب البيانات، والتضليل، والتزييف العميق، والتحيز والظلم.

إلى جانب مخاوف السلامة نتيجة استخدام محتوى الذكاء الاصطناعي التوليدي في اتخاذ القرارات الحاسمة دون التحقق منها.

معالجة البيانات الحكومية

وتقدم الوثيقة مبادئ توجيهية للعاملين في الجهات الحكومية فيما يتعلق باستخدام ومعالجة البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، مع أمثلة تستند إلى سيناريوهات شائعة قد تتطرق إليها الجهات.

كما تسلط الضوء على التحديات والاعتبارات المرتبطة باستخدام الذكاء الاصطناعي التوليدي، في حين تتوافق هذه الوثيقة مع الأنظمة والسياسات الحالية في المملكة العربية السعودية، وتدعم الامتثال لها بما في ذلك أخلاقيات الذكاء الاصطناعي والأنظمة المرتبطة بحوكمة البيانات والخصوصية والأمن والملكية الفكرية وحقوق الإنسان.

والذكاء الاصطناعي التوليدي هو نموذج تعلم آلة يمكنه إنشاء أمثلة جديدة مشابهة لمجموعة بيانات التدريب، ويعد هذا النموذج جزءًا فرعيًا من الذكاء الاصطناعي يمكنه إنشاء محتوى جديد، بما في ذلك النصوص والصور والأصوات والرموز ومقاطع الفيديو وغيرها.

ويعمل عن طريق تفسير الأوامر التي يقدمها المستخدمون، ويمكنه أن يؤدي مهام تتطلب قدرات معرفية بشرية، بما في ذلك الاستجابة لصياغة الأوامر اللفظية أو المكتوبة والتعلم وحل المشكلات.

وتؤكد أهمية الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي عند التعامل مع أدوات الذكاء الاصطناعي التوليدي خلال جميع مراحل دورة حياة هذه الأدوات، بغية تسخير فوائدها، والتخفيف من المخاطر التي قد تقع، ما دعت الحاجة إلى وضع سياسات مرتبطة بأدوات محددة معايير أخلاقية ومسؤوليات مهنية.

ضمان موثوقية النتائج

وضمت الوثيقة المبادئ التي تحكم استخدام البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، وهي: النزاهة والإنصاف، الموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، والخصوصية والأمن، والإنسانية، والمنافع الاجتماعية والبيئية.

#سدايا تطلق برنامج "#سدايا_المستقبل" لاستقطاب المتميزين دراسيًا من خريجي تخصصات علوم الحاسب الآلي والتقنية من جامعات وكليات #المملكة وبرنامج خادم الحرمين الشريفين للابتعاث
للمزيد | https://t.co/AFsQ6rBpYN#اليوم@SDAIA_SA pic.twitter.com/uvOLafl8L1— صحيفة اليوم (@alyaum) January 8, 2024

ودعت الجهات الحكومية إلى توخي استخدام الذكاء الاصطناعي التوليدي في عمليات اتخاذ القرارات الحاسمة، فضلًا عن الالتزام الصارم بالقضاء على التحيز داخل الخوارزميات لضمان موثوقية النتائج وحمايتها من أي عواقب سلبية.

وأكدت أهمية الدور المحوري الذي تؤديه مكاتب البيانات في القطاعات الحكومية في ضمان الاستخدام الأخلاقي والقانوني لأدوات الذكاء الاصطناعي التوليدي، وتولي مسؤولية الموافقة على الأدوات التي يجري استخدامها ومراجعتها لضمان توافقها مع أنظمة وسياسات المملكة ذوات الصلة.

علاوة على العمل على ضمان ممارسات محكمة لإدارة البيانات، وإجراء عمليات تدقيق لتقييم جودة بيانات التدريب على الذكاء الاصطناعي التوليدي.

سلسلة الجهود المستمرة

وتعد هذه الوثيقة واحدة من سلسلة الجهود المستمرة التي تبذلها سدايا بوصفها هي المرجع الوطني للبيانات والذكاء الاصطناعي في المملكة من تنظيم وتطوير وتعامل من أجل زيادة الوعي بإمكانيات تقنيات البيانات والذكاء الاصطناعي، وتوضيح أهميتهما في وقتنا الحاضر من أجل خدمة القطاعات والأفراد على حد سواء في إطار منهجية تضمن توظيفها التوظيف الأمثل لتحقيق الاستفادة منها.

وأتاحت سدايا الوثيقة على موقعها الإلكتروني من خلال هذا الرابط.

المصدر: صحيفة اليوم

كلمات دلالية: واس الرياض المملكة العربية السعودية أخبار السعودية الذکاء الاصطناعی التولیدی فی مبادئ الذکاء الاصطناعی والذکاء الاصطناعی الجهات الحکومیة تقنیات الذکاء الحکومیة فی من خلال

إقرأ أيضاً:

ذبح الخنازير.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟

رغم أن العالم يشهد تقدما تقنيا مذهلا في ظل الذكاء الاصطناعي، فإن هذه الثورة تأتي بجانبها المظلم الذي يهدد سلامة الأنظمة المالية والشخصية. فما بين الفوائد الكبيرة التي يقدمها هذا الذكاء، وبين مخاطر الاحتيال المتزايدة، تزداد الحاجة إلى التأهب لمستقبل أكثر تعقيدا.

لقد شهدنا عام 2024 لمحات عن قدرات الذكاء الاصطناعي في التزييف العميق، واستنساخ الصوت، وعمليات الاحتيال، لكنها كانت مجرد عجلات تدريب للمحتالين أثناء اختبارهم للأوضاع.

ومع دخولنا عام 2025، المليء بالتطورات التقنية المثيرة، يظهر الذكاء الاصطناعي كسلاح ذي حدّين. ففي حين يعزز من قدراتنا، يضعنا أمام خطر داهم قد يجعل من هذا العام نقطة تحول، حيث تصبح العمليات الاحتيالية المدعومة بالذكاء الاصطناعي قوة مهيمنة تهدد الأنظمة المالية والبنوك العالمية، إضافة إلى سمعة البشر ومصداقية الأحداث ومن أبرز هذه العمليات الجديدة عمليات "ذبح الخنازير" (pig butchering scams).

تهديدات مالية غير مسبوقة.. الذكاء الاصطناعي يعيد تعريف الاحتيال

وفقا لتقرير مركز "ديلويت للخدمات المالية" (Deloitte Center for Financial Services)، من المتوقع أن يسهم الذكاء الاصطناعي التوليدي في تحقيق خسائر قد تصل إلى 40 مليار دولار بحلول عام 2027، بزيادة ملحوظة عن 12.3 مليار دولار في عام 2023، وهو ما يمثل معدل نمو سنوي مركب يبلغ 32%.

إعلان

وقد جذب هذا الارتفاع الملحوظ في الخسائر انتباه مكتب التحقيقات الفدرالي، الذي حذر في وقت سابق من ديسمبر/كانون الأول من العام الماضي من أن المجرمين يستغلون الذكاء الاصطناعي لتنفيذ عمليات احتيال على نطاق أوسع، بهدف تعزيز مصداقية مخططاتهم.

الاحتيال كخدمة.. كيف انتقلت الجرائم الإلكترونية إلى مستوى جديد؟

في عالم الاحتيال المدعوم بالذكاء الاصطناعي، ظهرت شركة "هاوتيان إيه آي" (Haotian AI) التي تقدم برامج تغيير الوجه عبر "تليغرام"، في إعلان يظهر أن فريقهم جادّ في عمله، حيث صرحوا علنا: "لدينا فريق بحث وتطوير مكون من مئات المبرمجين وعشرات الخوادم لخدمتكم".

حيث يروج الإعلان لبرامج تغيير الوجه العميقة التي يصعب تمييزها بالعين المجردة، والمصممة خصيصا للمكالمات الخارجية، وهو ما يتناسب تماما مع المحتالين الذين يرغبون في جعل عمليات الاحتيال الرومانسية أكثر مصداقية.

ومع ازدهار هذه التكنولوجيا، شهدت القنوات المخصصة للجريمة الإلكترونية باستخدام الذكاء الاصطناعي والتزييف العميق على "تليغرام" نموا ملحوظا في المحادثات، وهو ما يعكس انتشار هذه الظاهرة.

ووفقا لتحليل أجرته شركة "بوينت برودكتيف" (Point Predictive) في عام 2023، كان هناك حوالي 47 ألف رسالة في تلك القنوات، بينما تجاوز عدد الرسائل عام 2024 أكثر من 350 ألف رسالة، مسجلا زيادة بنسبة 644%.

هجمات الاختراق الإلكتروني للأعمال التي تستخدم التزييف العميق ستصبح تهديدا كبيرا في عام 2025 (شترستوك) عمليات "ذبح الخنازير".. الذكاء الاصطناعي يدخل عالم الاحتيال الجماعي

تخيل جدارا من الهواتف المحمولة، يدير آلاف المحادثات الوهمية لخداع ضحايا من جميع أنحاء العالم في كل دقيقة.

إنه ليس مشهدا من فيلم خيال علمي، بل واقع تكشفه مقاطع الفيديو المتداولة على وسائل التواصل الاجتماعي ومنصات مثل "تليغرام". بل إنها تقنية جديدة تستخدم لتوسيع نطاق عمليات الاحتيال بشكل غير مسبوق.

أحد الأمثلة البارزة هو برنامج ذكي يعرف باسم "معجبو إنستغرام التلقائيون" (Instagram Automatic Fans)، الذي يرسل آلاف الرسائل في الدقيقة لإيقاع المستخدمين في مصيدة عمليات احتيال "ذبح الخنازير" (pig butchering scams).

إعلان

حيث تبدأ الرسائل عادة بجمل بسيطة مثل "صديقي أوصاني بك. كيف حالك؟"، ويتم إرسالها بشكل متكرر لإغراء الضحية.

ومع دخول عام 2025، يتوقع الخبراء أن تستفيد العصابات الإجرامية المتورطة في عمليات "ذبح الخنازير" من تقنية التزييف العميق المدعومة بالذكاء الاصطناعي في مكالمات الفيديو، واستنساخ الصوت، والدردشة الآلية لتوسيع نطاق عملياتها.

لكن ما عمليات احتيال "ذبح الخنازير"؟

وفقا لـ"مكتب المفتش العام" (Office Of Inspector General – OIG) -وهو هيئة مستقلة تشكل داخل الوكالات الحكومية في الولايات المتحدة، مسؤولة عن مراقبة نزاهة وكفاءة العمليات داخل هذه الوكالات- فإن عمليات "ذبح الخنازير" هي نوع من الاحتيال يتعلق بالثقة والاستثمار.

حيث يتم استدراج الضحية تدريجيا لتقديم مساهمات مالية متزايدة، عادة في شكل عملات مشفرة، لصالح استثمار يبدو موثوقا، قبل أن يختفي المحتال بالأموال التي تم تقديمها.

حوالي 53% من المحترفين في مجال المحاسبة تعرضوا لهجمات بالذكاء الاصطناعي المزيف العام الماضي (شترستوك) كيف يستهدفك هذا النوع من الاحتيال كمستهلك؟ قد يتواصل المحتالون معك عشوائيا عبر الرسائل النصية، أو تطبيقات المواعدة، أو منصات التواصل الاجتماعي، ثم يتحولون لاحقا إلى استخدام تطبيقات الدردشة عبر الإنترنت "في أو آي بي" (VOIP). يحاولون بناء علاقات ذات مغزى معك لكسب ثقتك، ثم يعرضون عليك فرصا استثمارية ذات عوائد عالية في أصول افتراضية مثل العملات المشفرة. يطلبون منك فتح حسابات على مواقع استثمار عبر الإنترنت، ويوجهونَك لتحويل الأموال عبر الحوالات المصرفية إلى شركات وهمية، أو عن طريق التحويل المباشر إلى مقدمي خدمات الأصول الافتراضية "في إيه إس بي إس" (VASPs) الشرعيين أو منصات تداول العملات المشفرة. يمارسون ضغوطا عليك للاستثمار بمبالغ أكبر، مهددين بأن العلاقة معهم ستنتهي إذا لم تقم بذلك. إذا نجح الاحتيال، من المحتمل أن يتم خداعك، وسينتهي الأمر بفقدان أموالك. عندما تحاول سحب أموالك، قد تطالبك المواقع بدفع رسوم إضافية لإتمام السحب، أو قد يتم حظر حسابك بالكامل من دون أي استجابة من المحتالين. وفي النهاية، يختفي المحتالون ومعهم جميع أموالك. إعلان

مقالات مشابهة

  • الأهلي يسخر من قرعة الذكاء الاصطناعي
  • ماهو ترتيب العراق عربياً وعالمياً بمؤشر جاهزية الحكومات للذكاء الاصطناعي؟
  • ذبح الخنازير.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟
  • سدايا تعزز أثر البيانات المفتوحة وحوكمتها في السعودية
  • OPPO تكشف عن استراتيجيتها الجديدة للذكاء الاصطناعي خلال MWC 2025
  • معرض برشلونة للأجهزة المحمولة ينطلق مع تخصيص الحيّز الأكبر للذكاء الاصطناعي
  • الخبرات النادرة والمعادلة الجديدة في الذكاء الاصطناعي
  • مؤسسة دبي للمستقبل تتعاون مع مركز هامبورغ للذكاء الاصطناعي
  • لتصفح أكثر أمانًا.. أوبرا تكشف عن وكيل جديد للذكاء الاصطناعي
  • الخوارزمية الأولى: أساطير الذكاء الاصطناعي