نائب رئيس حزب المؤتمر: مصر تحتاج تشريعات متكاملة لتنظيم الذكاء الاصطناعي
تاريخ النشر: 25th, August 2024 GMT
قال الدكتور رضا فرحات، نائب رئيس حزب المؤتمر وأستاذ العلوم السياسية، إن الحاجة إلى تشريعات جديدة لتنظيم الذكاء الاصطناعي في مصر أصبحت ضرورة ملحة لا يمكن تجاهلها في ظل التطورات التكنولوجية المتسارعة في هذا المجال، والتي تمثل ثورة صناعية جديدة تحمل في طياتها فرصا هائلة للنمو والازدهار، لكنها في الوقت نفسه تنطوي على مخاطر وتحديات تستدعي وضع إطار قانوني شامل يضمن استخدامها بشكل آمن ومسؤول.
وأضاف نائب رئيس حزب المؤتمر، في بيان، أن الذكاء الاصطناعي لم يعد مجرد أداة تقنية تساعد في تحسين الأداء وزيادة الكفاءة، بل أصبح قوة محركة لكل جوانب الحياة الاقتصادية والاجتماعية والسياسية، لذا يجب على المشرعين المصريين أن يأخذوا بعين الاعتبار أهمية وضع قوانين وتشريعات تنظيمية تواكب هذه التطورات، وتعمل على تنظيم استخدامات الذكاء الاصطناعي في مختلف المجالات، مع ضمان حماية حقوق الأفراد و خصوصياتهم.
وأشار «فرحات» إلى أن التشريعات الجديدة يجب أن تتناول عدة محاور رئيسية، منها حماية البيانات الشخصية، وضمان الشفافية والمساءلة في استخدام أنظمة الذكاء الاصطناعي، إضافة إلى وضع معايير أخلاقية تحكم تصميم وتطوير هذه الأنظمة ويجب أن تكون القوانين شاملة ومرنة في نفس الوقت، بحيث تستطيع مواكبة التطورات السريعة في هذا المجال، وفي الوقت نفسه تضمن تحقيق التوازن بين الابتكار وحماية حقوق الأفراد والمجتمع.
حماية البيانات الشخصيةوأوضح أستاذ العلوم السياسية، أن حماية البيانات الشخصية من أهم الجوانب التي يجب أن تتناولها التشريعات الجديدة، حيث أن الذكاء الاصطناعي يعتمد بشكل كبير على جمع وتحليل كميات ضخمة من البيانات، مما يثير مخاوف بشأن الخصوصية وإمكانية استغلال هذه البيانات بشكل غير مشروع، لذا يجب وضع قوانين صارمة تضمن حماية البيانات الشخصية وتحدد بوضوح كيفية جمعها واستخدامها وتخزينها.
وأضاف «فرحات»، أن الشفافية والمساءلة تعدان من الركائز الأساسية التي يجب أن تقوم عليها أي تشريعات تنظم استخدام الذكاء الاصطناعي، لافتا إلى ضرورة أن تكون الشركات والمؤسسات التي تطور وتستخدم هذه التكنولوجيا ملزمة بالإفصاح عن كيفية عمل الأنظمة الذكية التي تعتمد عليها، وكيفية اتخاذ القرارات من خلالها، إضافة إلى وجود آليات لمساءلة هذه الشركات في حالة حدوث أي أخطاء أو انتهاكات.
كما شدد نائب رئيس الحزب، على أهمية تضمين التشريعات الجديدة لمعايير أخلاقية واضحة تحكم تطوير واستخدام أنظمة الذكاء الاصطناعي، مشيرًا إلى أن هناك مخاوف متزايدة بشأن التحيزات التي قد تتسلل إلى هذه الأنظمة نتيجة للطريقة التي تصمم بها، والتي قد تؤدي إلى قرارات غير عادلة أو تمييزية.
تحقيق العدالة والمساواة في استخدام هذه التكنولوجياوأكد أستاذ العلوم السياسية، أن مصر يجب أن تكون رائدة في وضع معايير أخلاقية تضمن العدالة والمساواة في استخدام هذه التكنولوجيا، وتحمي حقوق الإنسان، موضحا أن مصر تمتلك الكفاءات والقدرات اللازمة لتطوير تشريعات فعالة تنظم استخدام الذكاء الاصطناعي، ولكن النجاح في ذلك يتطلب إرادة سياسية قوية وتعاونا وثيقا بين جميع الأطراف المعنية، بما في ذلك الحكومة والقطاع الخاص والمجتمع المدني ووضع إطار قانوني شامل للذكاء الاصطناعي لأنه لا يسهم فقط في حماية حقوق الأفراد وضمان الاستخدام المسؤول لهذه التكنولوجيا، بل سيفتح أيضا آفاقا جديدة للنمو الاقتصادي والابتكار، ويعزز من قدرة مصر على المنافسة في الساحة الدولية.
وأكد أستاذ العلوم السياسية أن هذه التشريعات يجب أن تكون جزءًا من رؤية شاملة للتنمية المستدامة في مصر، بحيث تسهم في بناء مستقبل يعتمد على الابتكار والتكنولوجيا الحديثة، ويضمن في الوقت نفسه الحفاظ على القيم المجتمعية والإنسانية التي تميز المجتمع المصري.
المصدر: الوطن
كلمات دلالية: الذكاء الاصطناعي حملات الوطن جريدة الوطن التقنيات الحديثة حملة توعوية حمایة البیانات الشخصیة الذکاء الاصطناعی العلوم السیاسیة هذه التکنولوجیا نائب رئیس أن تکون یجب أن
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.