خبير في تكنولوجيا المعلومات: جهود مصرية لصياغة تشريع للذكاء الاصطناعي
تاريخ النشر: 14th, January 2025 GMT
أكد الدكتور عصام متولي، خبير تكنولوجيا المعلومات والذكاء الاصطناعي، أن الأدوات المتنامية للذكاء الاصطناعي في مختلف المجالات، والتي أصبحت تتمتع بتطبيقات متعددة، قد تؤدي إلى أنشطة مدمرة، لذلك أصبح من الضروري أن تتبنى الدول قوانين وقواعد تنظيمية لاستخداماتها.
وأشار إلى أن هذه القوانين تمثل جزءًا أساسيًا ومهمًا في استراتيجية الذكاء الاصطناعي، حيث تساعد في السيطرة على الاستخدامات الضارة المحتملة، التي قد تصل إلى حد تقويض النظم الاقتصادية والاجتماعية والإنسانية بشكل عام.
وأضاف في حواره مع برنامج «أوراق اقتصادية» بقناة النيل للأخبار، أنّ هناك جهود مصرية لصياغة تشريع للذكاء الاصطناعي وتبادل البيانات، مشددا على ضرورة أن يأخذ المشرعون في حسبانهم عند صياغة بنود التشريع أن تفتح تلك البنود المجال واسعًا؛ لتحفيز الأنشطة القائمة على الذكاء الاصطناعي وتبادل البيانات مع تجنب الإفراط في القواعد الضابطة؛ ما يؤدي إلى تثبيط همم المبتكرين عن الدخول بقوة في المجال وغلق مساحة الخيال الابتكاري لديهم بما يؤدي في النهاية إلى تقويض قدراتهم على مجاراة التطور العالمي في المنتجات الابتكارية للذكاء الاصطناعي.
الخطط الاستراتيجية للقطاعات المختلفةوتابع: «هناك ضرورة أن تندرج استراتيجية الذكاء الاصطناعي تحت إشراف وزارة التخطيط، لأنها هي المعنية بتنسيق التوجهات الاستراتيجية للدولة في نطاق عمل الوزارات المختلفة، تأسيا بالتجارب المماثلة في الهند وألمانيا واليابان والعديد من الدول، وخاصة وأن وزارة التخطيط قامت في العام 2023 بعمل خطة استراتيجية محدثة لمصر 2030 تغطي جميع المجالات وتحتوي في طياتها على عوامل نجاحها، فتكون الخطة الاستراتيجية للذكاء الاصطناعي متماشية وداعمة لخطة الدولة الاستراتيجية والخطط الاستراتيجية للقطاعات المختلفة».
الاتحاد الأوروبي صاغ قانون الذكاء الاصطناعي بشكل مهنيوقال إنّ الاتحاد الأوروبي قد صاغ قانون الذكاء الاصطناعي بشكل مهني شامل ومتكامل في يونيو 2024 وصدر في الأول من أغسطس 2024 وسيدخل للتنفيذ على مراحل في 2025 و2026، في حين تعتمد الولايات المتحدة ومعظم البلدان على مجموعة من القوانين وقواعد العمل الضابطة والتوجيهات الإرشادية لعمل الذكاء الاصطناعي منبثقة من القوانين الحالية، موضحا أنه كما للذكاء الاصطناعي تأثيرات متعددة فإن القوانين المنظمة أيضا لها نواحي متنوعة للسيطرة منها؛ ما يحفز استخدام الذكاء الاصطناعي في التطبيقات المختلفة، ومنها ما هو مصاغ من أجل الحد من الأثار السلبية لاستخداماته..
وأكد ضرورة أن تتواصل عمليات التطوير التكنولوجي للبنى التحتية للاتصالات ومراكز البيانات، بما يواكب مثيلاتها في الدول المتقدمة مع الاستمرار في تطوير البنية التشريعية الحاكمة لنشاطات المعلومات والذكاء الاصطناعي، مع تواصل تطوير عمليات التدريب ورفع كفاءة الموارد البشرية بشكل متواصل على جميع المستويات مشيدا بالتطور الجاري في العملية التعليمية والتدريبية في مجال الذكاء الاصطناعي في ظل دخول وزارة التعليم العالي بقوة في المجال بالتعاون مع وزارة الاتصالات.
وأار إلى أن هناك أهمية للتعاون بين وزارة الاتصالات ووزارات التعليم ووزارة العمل تنبع من حقيقة أن الخطورة الرئيسية القادمة المصاحبة للذكاء الاصطناعي، تتمثل في أن كل الأعمال والوظائف سوف تعتمد خلال المرحلة القادمة على الذكاء الاصطناعي، ما يفرض ضرورة أن يتم تنظيم عملية تدريبية كبرى ومتواصلة لجميع المواطنين في مختلف القطاعات على أدوات الذكاء الاصطناعي في مختلف المستويات التعليمية سواء المدارس أو الكليات أو المعاهد أو مراكز التدريب، وعلى مختلف المستويات المهنية والإدارية.
المصدر: الوطن
كلمات دلالية: الذكاء الاصطناعي تكنولوجيا مصر تطور عالمي للذکاء الاصطناعی الذکاء الاصطناعی الاصطناعی فی ضرورة أن
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.