محمد كركوتي يكتب: «تسونامي» الذكاء الاصطناعي
تاريخ النشر: 20th, May 2024 GMT
تتنامى الاستثمارات بقوة في ميدان الذكاء الاصطناعي، جنباً إلى جنب مع تنامي المخاوف من تأثيره السلبي على الوظائف. وهذا الأمر ليس غريباً.
فمع انطلاق الثورة الصناعية في ستينيات القرن الثامن عشر، حلت الآلة شيئاً فشيئاً مكان العمال، ودفعت بأعداد متصاعدة منهم إلى قوائم العاطلين عن العمل.
لكن الأمر أكثر فداحة في هذا الشأن على صعيد الذكاء الاصطناعي، الذي يعتقد صندوق النقد الدولي أنه يهدد 60% من الوظائف، وسيؤثر على 40% من فرص العمل حول العالم، ليس على مدى عقود، بل في العامين المقبلين.
المشكلة تشتد أيضاً من جهة الوقت القصير أمام المشرعين والقائمين على الأعمال، لإعداد المؤسسات والناس للاستحقاقات المقبلة في هذه الساحة، دون أن ننسى بالطبع المخاوف الناجمة عن الاستخدام السيئ للذكاء الاصطناعي، وانعكاساته على المجتمعات، إلى درجة أن تحدث رئيس الوزراء البريطاني ريشي سوناك في غير مناسبة، عن «الأولوية للحد من خطر فناء الإنسان بسبب هذا الذكاء»، مع الإشارة إلى احتمالات قوية لعدم المساواة في ظل انتشار هذه التكنولوجيا ودخولها في قطاعات وميادين مختلفة. غير أن المسار يمضي قدماً وبتسارع كبير أيضاً. فحتى ما يعرف بـ«المال الجريء» صار يوسع حصته من الاستثمارات في هذا القطاع، مع زخم لافت لذلك في الشركات الناشئة. ففي غضون ثلاث سنوات بلغت قيمة هذه الصناعة أكثر من 204 مليارات دولار.
مع وصول عدد مستخدمي تقنيات الذكاء الاصطناعي حول العالم إلى ربع مليار شخص، أصبح القلق حول الوظائف عاملاً مسيطراً على الحراك العام. فمنذ مطلع العقد الحالي، «تكافح» الحكومات من أجل خفض البطالة، ولاسيما في ظل جائحة «كورونا» التي جلبت في الواقع معايير جديدة للتوظيف والتشغيل عموماً، أضافت مزيداً من العاملين إلى صفوف العاطلين عن العمل. ومع «تسونامي» الذكاء الاصطناعي، ستواجه الحكومات أعباء متصاعدة، خصوصاً مع مصاعب مشاريع إعادة التأهيل في سوق التوظيف. هذا القطاع يستند أساساً إلى تشغيل آلي ذاتي يحل تلقائياً مكان البشر، ولن يستوعب سوى نسبة من الوظائف المتأثرة في سيطرته التدريجية السريعة على المشهد الاقتصادي العالمي العالم. أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: محمد كركوتي الذكاء الاصطناعي الثورة الصناعية صندوق النقد الدولي كلام آخر الذکاء الاصطناعی
إقرأ أيضاً:
جامعة القاهرة تستعرض الأطر الأخلاقية والقانونية لتنظيم الذكاء الاصطناعي وضمان الابتكار المسؤول
شهدت قاعة د.نعمان جمعة بكلية الحقوق، ضمن فعاليات مؤتمر جامعة القاهرة للذكاء الاصطناعي، جلسة علمية بعنوان «أخلاقيات الذكاء الاصطناعي والأطر التنظيمية»، بحضور نخبة من الخبراء والأكاديميين والمستشارين القانونيين لمناقشة التحديات الأخلاقية والتنظيمية المرتبطة بتطور تقنيات الذكاء الاصطناعي وتطبيقاته المتسارعة.
شارك في الجلسة كل من: د.محمود السعيد نائب رئيس جامعة القاهرة لشئون الدراسات العليا والبحوث، ود.محمد صلاح الدين، أستاذ القانون الدولي الخاص ورئيس المعهد الملكي للمحكمين المعتمدين، ود.إنجي سراج، المدير التنفيذي للعقود وإدارة العمليات التجارية، و ا. جمال أحمد أبو علي، عضو مجلس إدارة الجمعية المصرية لشباب الأعمال، وأ.عمر محمد محمد، الشريك المؤسس لشركة Meska AI، وأدار الجلسة د.محمد سامح عمرو، عميد كلية الحقوق بجامعة القاهرة.
وتناولت الجلسة، تطور أخلاقيات الذكاء الاصطناعي وسبل حوكمته في ضوء التحولات الاقتصادية والقانونية والاجتماعية، كما ناقشت الأطر القانونية المتعلقة بالمسؤولية عند وقوع ضرر ناجم عن استخدام النماذج، والاستخدام الأخلاقي للبيانات، ومتطلبات الشفافية والتفسير.
كما استعرض المشاركون، آليات تحقيق التوازن بين الابتكار وإدارة المخاطر من خلال سياسات وهياكل حوكمة فعالة وقابلة للتطبيق، وناقشوا آليات التقييم والاختبار والتدقيق لضمان الأمان والامتثال، وطرحوا نماذج للمشاركة والتعاون بين المشرعين والصناعة والأكاديميا لبناء أنظمة موثوقة وجديرة بالثقة،
واختُتمت الجلسة بمجموعة من التوصيات العملية التي تدعم تبنّي الابتكار المسؤول بما يتوافق مع الاحتياجات الإقليمية، ويسهم في تطوير بيئة تشريعية وأخلاقية تواكب التطور التكنولوجي العالمي.
وطالب المشاركون بتبنّي نهج قائم على تقييم المخاطر يميز بين تطبيقات منخفضة ومتوسطة وعالية المخاطر، وفرض متطلبات أشد صرامة للتطبيقات عالية المخاطر (الرعاية الصحية، العدالة، التمويل).
ومواءمة الإطار مع المعايير الدولية مع مراعاة الخصوصيات الإقليمية.
وإلزام الجهات المطوِّرة ومُشغّلي النماذج بوثائق نموذجية موجزة تشمل: الغرض، حدود الأداء، مصادر البيانات، مؤشرات التحيز المعروفة.
وأوصت الجلسة بتحديد مسؤوليات واضحة على سلسلة القيمة: المزوّد، المكيِّف، الناشر، والمستخدِم المهني.
واعتماد مبدأ “العناية الواجبة الخوارزمية” وإثباتها عبر سجلات تدقيق وتقارير اختبار.
ووضع آلية تعويض فعّالة وسريعة للمتضررين، مع مسارات تسوية منازعات بديلة
وترسيخ مبادئ تقليل البيانات، الغرض المحدّد، وإتاحة الانسحاب.
وتشجيع تقنيات تعزيز الخصوصية مثل إخفاء الهوية، التعلم الاتحادي، والتفاضلي، واشتراط تقييمات أثر حماية البيانات قبل نشر الأنظمة عالية المخاطر.
كما تضمنت التوصيات اجراء اختبارات دورية لرصد التحيز والتحقق من العدالة عبر الشرائح الديموغرافية ذات الصلة.
والإفصاح عن حدود البيانات وتمثيلها، وخطط المعالجة التصحيحية عند اكتشاف انحياز.
- إشراك ممثلين عن الفئات المتأثرة في تصميم وتقييم الأنظمة.
- إلزام باختبارات أمان قبل النشر تشمل: الاستقرار، الهجمات العكسية، تسرب البيانات، والضوابط على المخرجات الضارة.
- اعتماد مختبرات معتمدة للتقييم والتصديق للأنظمة عالية المخاطر.
- إنشاء آلية بلاغات عن الحوادث والاختلالات، وخطط استجابة واسترداد.
- التزامات على الموزعين بإجراء فحوص مواءمة عند إعادة الاستخدام أو الضبط الدقيق.
- وضع أدلة سياسات لاستخدام الذكاء الاصطناعي في الجهات الحكومية مع حواجز حماية واضحة.
- تشجيع تبنّي معايير مفتوحة وقابلة للتشغيل البيني لتقليل الغلق التقني.
- تحفيز الابتكار عبر صناديق رمل تنظيمية بضوابط ومدة محددة.
- برامج تدريب إلزامية لأصحاب القرار، والمطوّرين، والمراجعين الأخلاقيين.
- تطوير مناهج أكاديمية متعددة التخصصات تجمع القانون، والأخلاقيات، والهندسة.
- مبادرات توعية عامة حول حدود الأنظمة وحقوق الأفراد.
- إنشاء لجان أخلاقيات داخلية مستقلة، وأدوار مسؤول امتثال للذكاء الاصطناعي.
- تبنّي سياسات لإدارة دورة حياة النموذج: التصميم، البيانات، التدريب، النشر، المراقبة اللاحقة.
- مؤشرات أداء حوكمة مرتبطة بمكافآت الإدارة لضمان الالتزام العملي.