استعراض التجربة العمانية في توظيف الذكاء الاصطناعي بالانتخابات
تاريخ النشر: 5th, October 2024 GMT
مسقط- الرؤية
استعرضت سلطنة عمان تجربتها في استخدام الذكاء الاصطناعي في العملية الانتخابية، وذلك ضمن مشاركتها في فعاليات الملتقى العربي الثاني للإعلام البرلماني، تحت عنوان "دور الذكاء الاصطناعي في تحسين الأداء البرلماني.. الفرص والتحديات"، بالعاصمة البحرينية المنامة.
وشارك في الملتقى عدد من مديري رؤساء البرلمانات العربية والإقليمية وأعضاء البرلمانات العربية، ومديري القطاعات الإدارية في عدد من البرلمانات العربية والأجنبية، إلى جانب الخبراء في مجال الذكاء الاصطناعي وتطبيقاته، وخبراء الإعلام بالمجالس التشريعية وغيرهم.
وأوصى الملتقى بضرورة أن يتلقى أعضاء البرلمان والمشرعون الدعم البرلماني والفني المتخصص حول كيفية الاستفادة من تقنيات الذكاء الاصطناعي في التحليل واتخاذ القرارات، لضمان استخدام هذه الأدوات بفاعلية في العمل البرلماني، وتشجيع الابتكار في استخدام الذكاء الاصطناعي في العمليات البرلمانية اليومية، وإنشاء فرق من خبراء التكنولوجيا والذكاء الاصطناعي داخل البرلمانات لدعم الأعضاء في تحليل البيانات ودعم اتخاذ القرارات، إضافة الى الاستثمار في تحديث البنية التحتية التكنولوجية لتبني تقنيات الذكاء الاصطناعي.
كما أوصى الملتقى بتطوير روبوتات محادثة برلمانية (Chatbots) متخصصة تتعامل مع مواضيع معينة مثل الشكاوى الاستشارات القانونية، أو استفسارات حول الانتخابات مما يسهم في تحسين جودة الإجابات المقدمة للمواطنين، ووضع إطار تشريعي مرن وقابل للتعديل لتنظيم استخدامات الذكاء الاصطناعي، بما يضمن مواكبة التطورات المتسارعة في هذا المجال مع مراعاة خصوصيات المجتمعات العربية.
ودعا الملتقى العربي الثاني للإعلام البرلماني إلى العمل على التعاون بين المشرعين المعنيين في مجال الذكاء الاصطناعي لضمان إشراك الخبراء والمطورين في عملية صياغة القوانين واللوائح المنظمة، ونشر الوعي المجتمعي حول استخدامات الذكاء الاصطناعي وفهم المكاسب والمخاطر الناتجة عنه، إلى جانب مراعاة القيم الدينية والأخلاقية في المجتمعات العربية، وتوطين صناعة الذكاء الاصطناعي في الدول العربية للحد من الاعتماد على التطبيقات المستوردة وضمان ملاءمتها للبيئات المحلية.
وشهد خلال أعماله مشاركة واسعة من سلطنة عُمان بحضور ممثلين من مجلس الشورى العَماني ووزارة الإعلام وجمعية الصحفيين العُمانية.
وقدمت الدكتورة أمل بنت طالب الجهورية مديرة دائرة الإعلام بمجلس الشورى العُماني ورقة بعنوان "استخدام الذكاء الاصطناعي في العملية الانتخابية الممكنات والتحديات"، ناقشت خلالها الأهمية التي يشكلها استخدام تقنيات الذكاء الاصطناعي في العملية الانتخابية، وتحديد مجالات استخدام الذكاء الاصطناعي في العملية الانتخابية، وبحث الآليات التي يمكن من خلالها الحد من التأثيرات السلبية لاستخدام الذكاء الاصطناعي في الانتخابات، واستعراض تجربة سلطنة عُمان في استخدام الذكاء الاصطناعي في العملية الانتخابية لانتخاب أعضاء مجلس الشورى للفترة العاشرة.
المصدر: جريدة الرؤية العمانية
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.