محمد مغربي يكتب: «الذكاء الاصطناعي» بين الأخلاق والقانون
تاريخ النشر: 6th, November 2024 GMT
فى عام 1932، هزت الولايات المتحدة حادثة اختطاف الطفل تشارلز ليندبيرغ الابن، نجل الطيار الشهير تشارلز ليندبيرغ، وانتهت بمأساة عُثر فيها على جثته بعد عدة أسابيع من اختطافه. أثارت الحادثة غضباً واسعاً ودعت الحكومة الأمريكية إلى اتخاذ إجراءات صارمة، فصدر قانون «ليندبيرغ»، الذى منح الحكومة الفيدرالية سلطة جديدة فى التعامل مع قضايا الاختطاف، لتجنب تكرار مثل هذه الجرائم المروعة.
اليوم، تجد الولايات المتحدة نفسها فى مواجهة تحديات جديدة من نوع مختلف؛ مع الذكاء الاصطناعى الذى تغلغل فى مجالات حيوية كالتوظيف، والعدالة، والأمن السيبرانى (Cybersecurity)، وتأثيره المتزايد على حياة الأفراد وحقوقهم الأساسية، ومع أن هذا التقدم أسهم فى تحسين الإنتاجية، ظهرت مشكلات جديدة تتعلق بـ«التحيز الخوارزمى» (Algorithmic Bias) وأمن البيانات، حيث تُظهر بعض الأنظمة تحيزات قد تؤثر بشكل غير عادل على قرارات التوظيف أو تحديد الأهلية لبعض الخدمات. بعض الخوارزميات التى تعتمد على بيانات قديمة أو غير متوازنة، تتخذ قرارات تمييزية غير عادلة، ما أبرز الحاجة إلى قوانين صارمة تضمن حقوق الأفراد و«الشفافية الخوارزمية» (Algorithmic Transparency).
أدى تصاعد القلق حول «الخصوصية الرقمية» (Digital Privacy) و«الأمن السيبرانى» إلى أن تطرح الحكومة الأمريكية قانون «المساءلة الخوارزمية» الجديد. يهدف هذا القانون إلى معالجة مسألة التحيزات فى الذكاء الاصطناعى ويضمن حماية حقوق الأفراد، خاصة فى القطاعات الحساسة، مثل الصحة والتوظيف. فالكثير من تطبيقات الذكاء الاصطناعى، بدءاً من الأنظمة المستخدمة فى عمليات التوظيف إلى تطبيقات تحديد الهوية، تعتمد على بيانات خوارزمية قد تكون غير متوازنة، وقد تخلق بذلك «تحيزات» تؤدى إلى نتائج غير عادلة.
جاء القانون بمجموعة من البنود الرئيسية التى تعزز من الشفافية والمساءلة فى استخدام الذكاء الاصطناعى، بحيث يُلزم الشركات بإجراء «تدقيقات مستقلة» (Independent Audits) بصورة دورية للأنظمة الذكية التى تؤثر على حياة الأفراد، كما يلزم الشركات بتقديم «إفصاحات خوارزمية» (Algorithmic Disclosures) توضح كيفية عمل الأنظمة وبيانات التدريب المستخدمة، بما يضمن فهماً أكبر لكيفية اتخاذ القرارات الخوارزمية. كما ينص القانون على تحميل الشركات المسئولية القانونية الكاملة فى حال تسببت أنظمتها بأضرار ناتجة عن قرارات خاطئة، ما يعزز من ثقة المستخدمين ويدفع الشركات نحو تطوير أنظمة آمنة وموثوقة.
على الصعيد الأخلاقى، يعد القانون خطوة كبيرة نحو تعزيز «العدالة الخوارزمية» (Algorithmic Fairness)؛ فهو يضمن أن يُستخدم الذكاء الاصطناعى بطرق تحترم حقوق الإنسان وتعزز من العدالة الاجتماعية. على المستوى السياسى، يعكس القانون رغبة الحكومة فى تحسين العلاقة مع الجمهور وتوفير ضمانات لحمايتهم فى مواجهة هذه التقنية المتقدمة. من الناحية الاقتصادية، ورغم أن تطبيق القانون قد يزيد من تكاليف الشركات بسبب متطلبات الامتثال مثل عمليات التدقيق، فإنه يمثل استثماراً طويل الأمد نحو صناعة أكثر ثقة وأماناً.
العالم فى حالة ترقب شديد؛ إلى أين سيقودنا الذكاء الاصطناعى فى ضوء هذه القوانين الجديدة؟
المصدر: الوطن
كلمات دلالية: الذكاء الاصطناعي الأمن السيبراني محمد مغربي الذکاء الاصطناعى
إقرأ أيضاً:
فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
في صيف 2010، خاض لاعبا التنس جون إيسنر ونيكولا ماهو واحدة من أكثر المواجهات استنزافًا في تاريخ ويمبلدون، فقد استمرت المباراة 11 ساعة على مدار 3 أيام. وبعد أكثر من عقد، يخوض خصمان من نوع آخر مباراة لا تقل عنادًا، لكن هذه المرة داخل مختبرات ديب مايند التابعة لغوغل، وبلا جمهور.
فبحسب تقرير لموقع بوبيلار سينس (Popular Science)، تتحرك ذراعان روبوتيتان في مباراة تنس طاولة بلا نهاية في مركز الأبحاث جنوب لندن، ضمن مشروع أطلقته ديب مايند عام 2022 لتطوير قدرات الذكاء الاصطناعي عبر التنافس الذاتي المستمر. الهدف لا يقتصر على تحسين مهارات اللعب، بل يتعداه إلى تدريب خوارزميات قادرة على التكيف مع بيئات معقدة، مثل تلك التي تواجهها الروبوتات في المصانع أو المنازل.
من مناوشة بلا فائز إلى تدريب بلا توقففي بدايات المشروع، اقتصر التمرين على ضربات تبادلية بسيطة بين الروبوتين، من دون سعي لتحقيق نقاط. ومع الوقت، وباستخدام تقنيات التعلم المعزز، أصبح كل روبوت يتعلم من خصمه ويطوّر إستراتيجياته.
وعندما أُضيف هدف الفوز بالنقطة، واجه النظام صعوبة في التكيف، إذ كانت الذراعان تفقدان بعض الحركات التي أتقنتاها سابقًا. لكن عند مواجهة لاعبين بشريين، بدأت تظهر بوادر تقدم لافت، بفضل تنوع أساليب اللعب التي وفّرت فرص تعلم أوسع.
ووفق الباحثين، فازت الروبوتات بنسبة 45% من أصل 29 مباراة ضد بشر، وتفوقت على لاعبين متوسطين بنسبة بلغت 55%. فالأداء الإجمالي يُصنّف في مستوى لاعب هاوٍ، لكنه يزداد تعقيدًا مع الوقت، خصوصًا مع إدخال تقنيات جديدة لمراقبة الأداء وتحسينه.
عندما يعلّم الفيديو الذكاء الاصطناعيالتحسينات لم تتوقف على التمرين الفعلي، إذ استخدم الباحثون نموذج جيمناي (Gemini) للرؤية واللغة من غوغل لتوليد ملاحظات من مقاطع الفيديو الخاصة بالمباريات.
ويمكن للروبوت الآن تعديل سلوكه بناء على أوامر نصيّة، مثل "اضرب الكرة إلى أقصى اليمين" أو "قرّب الشبكة". هذه التغذية الراجعة البصرية اللغوية تعزز قدرات الروبوت على اتخاذ قرارات دقيقة خلال اللعب.
إعلان تنس الطاولة بوابة لروبوتات المستقبلتُعد لعبة تنس الطاولة بيئة مثالية لاختبار الذكاء الاصطناعي، لما فيها من توازن بين السرعة والدقة واتخاذ القرار. وهي تتيح تدريب الروبوتات على مهارات تتجاوز مجرد الحركة، لتشمل التحليل والاستجابة في الوقت الحقيقي، وهي مهارات ضرورية للروبوتات المستقبلية في البيئات الواقعية.
ورغم أن الروبوتات المتقدمة ما زالت تتعثر في مهام بسيطة بالنسبة للبشر، مثل ربط الحذاء أو الكتابة، فإن التطورات الأخيرة -كنجاح ديب مايند في تعليم روبوت ربط الحذاء، أو نموذج "أطلس" الجديد الذي قدّمته بوسطن ديناميكس- تشير إلى تقارب تدريجي بين أداء الآلة والإنسان.
نحو ذكاء عام قابل للتكيفيرى خبراء ديب مايند أن هذا النهج في التعلم، القائم على المنافسة والتحسين الذاتي، قد يكون المفتاح لتطوير ذكاء اصطناعي عام متعدد الاستخدامات. والهدف النهائي هو تمكين الروبوتات من أداء مهام متنوعة، ليس فقط في بيئات صناعية بل أيضًا في الحياة اليومية، بأسلوب طبيعي وآمن.
حتى ذلك الحين، ستبقى ذراعا ديب مايند في مباراة مفتوحة، تتبادلان الكرات والمهارات، في طريق طويل نحو مستقبل روبوتي أكثر ذكاء ومرونة.