"إي آند" و "IBM" تتعاونان لإطلاق منصة حوكمة الذكاء الاصطناعي
تاريخ النشر: 22nd, January 2025 GMT
أعلنت "إي آند"، اليوم الأربعاء عن تعاونها مع شركة IBM لإطلاق منصة شاملة، تتضمن نماذج متعددة للذكاء الاصطناعي وحلول حوكمة الذكاء الاصطناعي التوليدي.
ويهدف هذا التعاون الإستراتيجي، الذي أُعلن عنه في المنتدى الاقتصادي العالمي 2025 في دافوس، إلى تعزيز إطار حوكمة الذكاء الاصطناعي لدى "إي آند" لتعزيز الامتثال والرقابة والممارسات الأخلاقية عبر منظومتها المتكاملة والمتنامية، ما يعزز التزام المجموعة بإرساء حوكمة قوية وإدارة المخاطر والرقابة التنظيمية على تطبيقات الذكاء الاصطناعي.ويرتكز هذا الحل على منصة watsonx.governance للذكاء الاصطناعي وحوكمة البيانات المؤسسية، وعلى خبرات فريق الخدمات الاستشارية لدى شركة IBM، إلى جانب التزام "إي آند" بتوسيع نطاق التبني المسؤول للذكاء الاصطناعي، وضمان الامتثال القوي والشفافية والرقابة الأخلاقية على نماذج الذكاء الاصطناعي.
وسيساهم هذا التعاون في وضع معيار عالمي معترف به لحوكمة الذكاء الاصطناعي، ومعالجة التحديات الرئيسية مثل الحفاظ على الرقابة المستمرة على الأنظمة الخاصة بمجموعة "إي آند"، والتعامل مع مخاطر عدم الامتثال، والعوامل الأخلاقية ومراقبة أداء الذكاء الاصطناعي.
وتقدم المنصة خصائص متقدمة مثل إدارة المخاطر آليًاً ومراقبة الامتثال وتحليل الأداء في الوقت الفعلي، والتي ستمكن "إي آند" من تخفيف المخاطر واكتشاف التحيزات وتلبية المعايير التنظيمية طوال دورة حياة نموذج الذكاء الاصطناعي بالكامل، بدءاً من التطوير وحتى إيقاف التشغيل.
وستتمكن مجموعة "إي آند" من مراقبة حالات استخدام الذكاء الاصطناعي الحالية في الوقت الفعلي، وإدارة أي مخاطر محتملة في الإنتاج بشكل استباقي، وتقديم قيمة قابلة للقياس لأصحاب المصلحة من خلال هذه المنصة.
وتتضمن المنصة إمكانية التتبع والرقابة الشاملة، وذلك من خلال إنشاء مخزون مركزي لنماذج الذكاء الاصطناعي، بينما تعمل تقنية watsonx.governance من IBM على تسهيل المتابعة بالوقت الفعلي، وتقديم الرؤى في الوقت الفعلي حول أداء النموذج، وتسجيل المخاطر وتقديم مقاييس للامتثال، وهو ما يمكّن "إي آند" من اكتشاف مشكلات مثل التحيز والأخطاء في وقت مبكر، ويسمح باتخاذ إجراءات تصحيحية وممارسات أخلاقية للذكاء الاصطناعي.
المصدر: موقع 24
كلمات دلالية: اتفاق غزة سقوط الأسد عودة ترامب إيران وإسرائيل غزة وإسرائيل الإمارات الحرب الأوكرانية الإمارات حوکمة الذکاء الاصطناعی للذکاء الاصطناعی إی آند
إقرأ أيضاً:
ذكاء اصطناعي بلا ضوابط.. أثار جدلاً أخلاقياً وقلقاً دولياً:»نيويورك تايمز«: إسرائيل حوّلت حرب غزة إلى مختبر للذكاء الاصطناعي
كشفت صحيفة «نيويورك تايمز» الأمريكية أن تل أبيب أجرت اختبارات واسعة النطاق على تقنيات الذكاء الاصطناعي المتطورة خلال حربها الأخيرة على قطاع غزة، ما أثار جدلا أخلاقيا وتحذيرات دولية من تبعات استخدام هذه التكنولوجيا في الحروب.
وأفادت الصحيفة، في تحقيق موسع نشرته مؤخراً بأن كيان الاحتلال استخدم أنظمة متقدمة لتحديد المواقع، والتعرف على الوجوه، وتحليل المحتوى العربي، ضمن عملياته العسكرية التي تصاعدت منذ أواخر عام 2023م. وأوضحت أن هذه الاختبارات شملت أدوات لم يسبق تجربتها في ساحات القتال، مما أثار قلقًا واسعًا بشأن الأضرار المحتملة على المدنيين.
ووفقًا لثلاثة مسؤولين من كيان الاحتلال والولايات المتحدة مطلعين، بدأت التجارب بمحاولة اغتيال القيادي في حركة حماس إبراهيم البياري، حيث استعان كيان الاحتلال بأداة صوتية تعتمد على الذكاء الاصطناعي طورتها الوحدة 8200، لتحديد موقعه التقريبي من خلال تحليل مكالماته.
وبحسب منظمة «إيروورز» البريطانية، أسفرت الغارة على البياري، في 31 أكتوبر، عن استشهاده إلى جانب أكثر من 125 مدنيًا.
واستمر كيان الاحتلال، خلال الأشهر التالية، في تسريع دمج الذكاء الاصطناعي في عملياته، بما شمل تطوير برامج للتعرف على الوجوه المشوهة، واختيار أهداف الغارات الجوية تلقائيًا، ونموذج لغوي ضخم يحلل المنشورات والمراسلات العربية بلهجات مختلفة.
كما أدخل نظام مراقبة بصري يستخدم عند الحواجز لفحص وجوه الفلسطينيين.
وأكد مسؤولون أن غالبية هذه التقنيات طُورت في مركز يعرف باسم «الاستوديو»، الذي يجمع خبراء من الوحدة 8200 بجنود احتياط يعملون في شركات كبرى مثل غوغل ومايكروسوفت وميتا.
وأثارت هذه الابتكارات مخاوف من أخطاء قد تؤدي إلى اعتقالات خاطئة أو استهداف مدنيين، إذ حذرت هاداس لوربر، خبيرة الذكاء الاصطناعي والمديرة السابقة بمجلس الأمن القومي لكيان الاحتلال، من أن غياب الضوابط الصارمة قد يقود إلى «عواقب وخيمة».
من جهته، قال أفيف شابيرا، مؤسس شركة XTEND المتخصصة بالطائرات المسيّرة، إن قدرات الذكاء الاصطناعي تطورت لتتعرف على الكيانات وليس فقط صور الأهداف، لكنه شدد على ضرورة التوازن بين الكفاءة والاعتبارات الأخلاقية.
ومن بين المشاريع البارزة، تطوير نموذج لغوي ضخم لتحليل اللهجات العربية ومراقبة المزاج العام، ساعد في تقييم ردود الأفعال بعد اغتيال زعيم حزب الله السيد حسن نصر الله في سبتمبر 2024. ومع ذلك، واجهت هذه التكنولوجيا بعض الأخطاء في فهم المصطلحات العامية.
ورفضت شركات ميتا ومايكروسوفت التعليق على التقارير، بينما أكدت غوغل أن موظفيها لا يؤدون مهاماً مرتبطة بالشركة خلال خدمتهم العسكرية. من جهته، رفض جيش كيان الاحتلال التعليق على تفاصيل البرامج، مكتفيًا بالتأكيد على الالتزام بالاستخدام “القانوني والمسؤول” لتكنولوجيا البيانات.
وأشارت “نيويورك تايمز” إلى أن استخدام الصراعات كحقول تجارب للتقنيات العسكرية ليس جديدًا بالنسبة لكيان الاحتلال، لكنها لفتت إلى أن حجم وسرعة توظيف الذكاء الاصطناعي في حرب 2023 – 2024م غير مسبوقين. وحذّر مسؤولون أمريكيون وأوروبيون من أن هذه الممارسات قد تشكل نموذجًا خطيرًا لحروب المستقبل، حيث يمكن أن تؤدي أخطاء الخوارزميات إلى كوارث إنسانية وفقدان الشرعية العسكرية.