محمد مغربي يكتب: «الذكاء الاصطناعي» بين الأخلاق والقانون
تاريخ النشر: 6th, November 2024 GMT
فى عام 1932، هزت الولايات المتحدة حادثة اختطاف الطفل تشارلز ليندبيرغ الابن، نجل الطيار الشهير تشارلز ليندبيرغ، وانتهت بمأساة عُثر فيها على جثته بعد عدة أسابيع من اختطافه. أثارت الحادثة غضباً واسعاً ودعت الحكومة الأمريكية إلى اتخاذ إجراءات صارمة، فصدر قانون «ليندبيرغ»، الذى منح الحكومة الفيدرالية سلطة جديدة فى التعامل مع قضايا الاختطاف، لتجنب تكرار مثل هذه الجرائم المروعة.
اليوم، تجد الولايات المتحدة نفسها فى مواجهة تحديات جديدة من نوع مختلف؛ مع الذكاء الاصطناعى الذى تغلغل فى مجالات حيوية كالتوظيف، والعدالة، والأمن السيبرانى (Cybersecurity)، وتأثيره المتزايد على حياة الأفراد وحقوقهم الأساسية، ومع أن هذا التقدم أسهم فى تحسين الإنتاجية، ظهرت مشكلات جديدة تتعلق بـ«التحيز الخوارزمى» (Algorithmic Bias) وأمن البيانات، حيث تُظهر بعض الأنظمة تحيزات قد تؤثر بشكل غير عادل على قرارات التوظيف أو تحديد الأهلية لبعض الخدمات. بعض الخوارزميات التى تعتمد على بيانات قديمة أو غير متوازنة، تتخذ قرارات تمييزية غير عادلة، ما أبرز الحاجة إلى قوانين صارمة تضمن حقوق الأفراد و«الشفافية الخوارزمية» (Algorithmic Transparency).
أدى تصاعد القلق حول «الخصوصية الرقمية» (Digital Privacy) و«الأمن السيبرانى» إلى أن تطرح الحكومة الأمريكية قانون «المساءلة الخوارزمية» الجديد. يهدف هذا القانون إلى معالجة مسألة التحيزات فى الذكاء الاصطناعى ويضمن حماية حقوق الأفراد، خاصة فى القطاعات الحساسة، مثل الصحة والتوظيف. فالكثير من تطبيقات الذكاء الاصطناعى، بدءاً من الأنظمة المستخدمة فى عمليات التوظيف إلى تطبيقات تحديد الهوية، تعتمد على بيانات خوارزمية قد تكون غير متوازنة، وقد تخلق بذلك «تحيزات» تؤدى إلى نتائج غير عادلة.
جاء القانون بمجموعة من البنود الرئيسية التى تعزز من الشفافية والمساءلة فى استخدام الذكاء الاصطناعى، بحيث يُلزم الشركات بإجراء «تدقيقات مستقلة» (Independent Audits) بصورة دورية للأنظمة الذكية التى تؤثر على حياة الأفراد، كما يلزم الشركات بتقديم «إفصاحات خوارزمية» (Algorithmic Disclosures) توضح كيفية عمل الأنظمة وبيانات التدريب المستخدمة، بما يضمن فهماً أكبر لكيفية اتخاذ القرارات الخوارزمية. كما ينص القانون على تحميل الشركات المسئولية القانونية الكاملة فى حال تسببت أنظمتها بأضرار ناتجة عن قرارات خاطئة، ما يعزز من ثقة المستخدمين ويدفع الشركات نحو تطوير أنظمة آمنة وموثوقة.
على الصعيد الأخلاقى، يعد القانون خطوة كبيرة نحو تعزيز «العدالة الخوارزمية» (Algorithmic Fairness)؛ فهو يضمن أن يُستخدم الذكاء الاصطناعى بطرق تحترم حقوق الإنسان وتعزز من العدالة الاجتماعية. على المستوى السياسى، يعكس القانون رغبة الحكومة فى تحسين العلاقة مع الجمهور وتوفير ضمانات لحمايتهم فى مواجهة هذه التقنية المتقدمة. من الناحية الاقتصادية، ورغم أن تطبيق القانون قد يزيد من تكاليف الشركات بسبب متطلبات الامتثال مثل عمليات التدقيق، فإنه يمثل استثماراً طويل الأمد نحو صناعة أكثر ثقة وأماناً.
العالم فى حالة ترقب شديد؛ إلى أين سيقودنا الذكاء الاصطناعى فى ضوء هذه القوانين الجديدة؟
المصدر: الوطن
كلمات دلالية: الذكاء الاصطناعي الأمن السيبراني محمد مغربي الذکاء الاصطناعى
إقرأ أيضاً:
عميد كلية الدراسات الاقتصادية: الذكاء الاصطناعى قضية محرية للبشرية
وقال الدكتور أحمد وهبان، عميد كلية الدراسات الاقتصادية والعلوم السياسية بالاسكندرية ، إن الذكاء الاصطناعي يمثل قضية محورية للبشرية قاطبة الآن وفي المستقبل، إذ أن آثاره ستكون كبيرة على أنماط حياة البشر، وخصوصاً أن التطورات في هذا المجال تبدو متلاحقة وبلا أفق، وأنه كلما بلغت أفقاً فتحت آفاقاً أخرى أكثر اتساعاً ورحابة، وأضافت مزيداً من التحديات للتعامل معها.
جاء ذلك خلال مشاركتهم في ندوة نظمتها، كلية الدراسات الاقتصادية والعلوم السياسية، في جامعة الإسكندرية، مساء الثلاثاء، تحت عنوان «الذكاء الاصطناعي بين البحث والتحكيم العلمي».
وتطرق «وهبان» إلى تباين الرؤى حول ظاهرة الذكاء الاصطناعي، إذ يعتبرها البعض أمراً إيجابياً في الإجمال، سيكون من شأنه إدخال تطورات متلاحقة في مجال دعم البحث العلمي، وتعظيم الإنتاج الصناعي والزراعي والخدمي، وتشخيص الأمراض، وتطوير آليات العلاج والعقاقير الطبية، وغير ذلك، في حين يرى البعض الآخر أن الذكاء الصناعي ستكون له عواقب وخيمة على البشرية بعامة فيما يتصل بتطوير الأسلحة الفتاكة، والهيمنة على العقول، وإلغاء الكثير من أنماط الوظائف بما يؤدي بدوره إلى تفاقم البطالة.
ناهيك عن دوره السلبي في إغراء اللجوء إلى تقنياته من جانب الباحثين لإنتاج أبحاث كاملة ونسبها إلى أنفسهم وغير ذلك من السلوكيات ذات الأثر السلبي على النزاهة العلمية، والإبداع الإنساني عموماً.
فيما تناول الدكتور نبيل العربي، أستاذ الاقتصاد الرقمي بالكلية، العديد من المحاور أبرزها، الفرق بين تعلّم الآلة والتعلم العميق؟ الذكاء الاصطناعي التوليدي GenAI، كيف يغير العالم الذي نعرفه؟ ما أهمية النموذج اللغوي الكبير؟ كيف نوجّه ونحاور نموذج الذكاء الاصطناعي؟ ما حدود الذكاء الاصطناعي في مهام البحث العلمي؟ هل تستخدم الذكاء الاصطناعي في التحكيم العلمي؟ هل يلزم إعادة تعريف دور الباحث لاستحقاق الدرجة العلمية؟.
وقال «العربى» إن الذكاء الاصطناعي التوليدي وتأثيره على الحياة البشرية، يتمثل في إنتاج مقالات أصيلة وكتب جديدة، إنتاج صور وأعمال فنية رقمية دون حاجة للمهارات التقليدية، إنتاج المواد الصوتية والفيديو بتعليمات بسيطة، تسهيل التعليم والتعلم الذاتي لكل فرد بما يناسب مستوى تقدمه وحاجاته، تحسين الرعاية الصحية ودعم الأطباء بالمساعدة في تحليل الصور الطبية والتشخيص.
وأشار إلى بعض الإشكاليات المتمثلة في تعظيم الإنتاجية وتحفيز الإبداع، النموذج اللغوي الكبير، متطلبات استحقاق درجة الماجستير ،و كيفية التعامل مع تغول تطبيقات الذكاء الاصطناعي، مستعرضاً العديد من مقترحات الحلول لمشكلات الانتحال العلمي التي يمكن أن تنتج من استغلال بعض الباحثين لتقنيات الذكاء الاصطناعي في إنتاج الأبحاث ونسبها إلى أنفسهم، وأدار حواراً مع الحضور من أعضاء هيئة التدريس والباحثين والطلاب حول رؤاهم الخاصة في مجال التأثير الإيجابي والسلبي لتلك التقنيات على البحث العلمي عموماً، وكيفية الإفادة منها في تطوير البحوث في إطار من النزاهة والشفافية، والنأي بها عن الانتحال.