أعلنت شركتا مايكروسوفت وبالانتير عن تعاون مهم لدمج إمكانات الذكاء الاصطناعي المتطورة في قطاعي الدفاع والاستخبارات الأميركية، ويعد هذا التعاون الأول من نوعه في توظيف الذكاء الاصطناعي في الأنظمة السرية، إذ يجمع بين خدمات مايكروسوفت السحابية "أزور" ومنصات تحليل البيانات المتطورة التي توفرها شركة بالانتير، وفقا لما ذكرته مايكروسوفت على مدونتها.

ذكاء اصطناعي سري

أصبحت الخدمات السحابية ضرورية لتشغيل أنظمة الذكاء الاصطناعي المتطورة، التي تتطلب موارد حاسوبية ضخمة، لا توفرها أجهزة الحاسوب العادية المتاحة. وبالاستفادة من الموارد التي تقدمها الخدمات السحابية، يمكن استضافة تطبيقات الذكاء الاصطناعي وتشغيلها عن بُعد للتغلب على محدودية الأجهزة الموجودة.

وترغب وكالات الأمن والاستخبارات في الاستفادة من الذكاء الاصطناعي التوليدي لمساعدتها على فهم وتحليل الكميات الهائلة من المعلومات السرية التي تظهر يوميا، ولكنها يجب أن توازن بين اللجوء إلى نماذج لغوية كبيرة متاحة للعامة وبين خطر تسرب أي بيانات حساسة إلى العلن أو محاولة اختراقها عمدا.

وهنا يأتي دور هذه الشراكة، إذ ستعمل شركة بالانتير، وهي شركة رائدة في مجال تحليل وتكامل البيانات، على دمج تقنياتها مع البنية التحتية السحابية "أزور" وهي الخدمات السحابية المعتمدة من الحكومة الأميركية.

ويتضمن هذا التكامل استخدام نماذج لغوية متطورة مثل نموذج "جي بي تي-4″، مما يتيح لوكالات الأمن القومي ووكالات الاستخبارات الأميركية استخدام أدوات الذكاء الاصطناعي المتطورة في إطار بيئات آمنة وسرية.

مايكروسوفت اقترحت استخدام أداة توليد الصور الشهيرة "دال-إي" التي تطورها "أوبن إيه آي"، لمساعدة وزارة الدفاع الأميركية في تصميم برمجيات لتنفيذ العمليات العسكرية (رويترز)

بهذا، ستتمكن وكالات الدفاع والمخابرات والأمن القومي الأميركية من توظيف إمكانات الذكاء الاصطناعي في عدة مجالات مع الحفاظ على مستويات الأمن والرقابة اللازمة لمهامها الحساسة، تشمل هذه المجالات إدارة الخدمات اللوجيستية والتخطيط للعمليات والتعاقدات، وهي مجالات يستطيع الذكاء الاصطناعي تعزيز عمليات اتخاذ القرار بها بتوفير معلومات فورية مستندة إلى البيانات، وفقا لما ذكرته شركة بالانتير.

كما تتيح هذه الاتفاقية الجديدة استخدام منتجات "بالانتير" الأخرى، ومنها منصة "فاوندري" لتكامل البيانات وبرنامج "غوثام" لتخطيط المهام، ضمن خدمات مايكروسوفت السحابية المعتمدة من الحكومة. ودعما لتفعيل هذه الإمكانات، ذكرت الشركتان أنهما ستوفران "تجارب تمهيدية" لأجهزة الأمن والاستخبارات لتجربة هذه التقنيات المدمجة.

علاقات قائمة

تستند هذه الشراكة إلى علاقات الشركتين القائمة مع الجيش الأميركي في مجال الذكاء الاصطناعي. ففي مايو/أيار الماضي، طرحت مايكروسوفت نموذجا قائما على "جي بي تي-4" ضمن شبكة سحابية حكومية حصرا، إذ أصدرت الشركة نموذجا للذكاء الاصطناعي التوليدي منفصلا تماما عن الإنترنت، قائلة إن وكالات الاستخبارات الأميركية يمكنها استخدام هذه التقنية الفعّالة بأمان لتحليل المعلومات السرية للغاية، كما أشارت وكالة بلومبيرغ.

وصرّح أحد كبار المسؤولين التنفيذيين في الشركة أن هذه أول مرة يعمل فيها نموذج لغوي كبير منفصل تماما عن الإنترنت. فبينما تعتمد نماذج الذكاء الاصطناعي على الخدمات السحابية، فإن مايكروسوفت أرادت توفير نظام آمن تماما لمجتمع الاستخبارات الأميركي.

مايكروسوفت طرحت نموذجا قائما على "جي بي تي-4" ضمن شبكة سحابية حكومية حصرا مما يوفر نظاما آمنا تماما لمجتمع الاستخبارات الأميركي (رويترز)

كما اقترحت شركة مايكروسوفت في أكتوبر/تشرين الأول العام الماضي، استخدام أداة توليد الصور الشهيرة "دال-إي" (DALL-E)، التي تطورها شركة "أوبن إيه آي"، لمساعدة وزارة الدفاع الأميركية في تصميم برمجيات لتنفيذ العمليات العسكرية، وفقا لمواد داخلية للعرض التقديمي التي اطلع عليها موقع "ذي إنترسبت"، وأشار لها في تقريره الصادر في أبريل/نيسان الماضي.

وتوفر مواد العرض التقديمي الخاصة بشركة مايكروسوفت، بعنوان "الذكاء الاصطناعي التوليدي باستخدام بيانات وزارة الدفاع"، تفاصيل عامة حول كيفية استفادة البنتاغون من أدوات وتقنيات تعلم الآلة الخاصة بشركة أوبن إيه آي، التي تشمل روبوت المحادثة الشهير "شات جي بي تي" ومولد الصور "دال-إي"، وذلك لمهام تتفاوت بين تحليل المستندات والمساعدة في صيانة الآلات.

تلك الوثائق التي قدمتها مايكروسوفت مستخرجة من مجموعة مواد كبيرة عُرضت في ندوة تدريبية لوزارة الدفاع الأميركية حول "الإلمام والتثقيف بتقنيات الذكاء الاصطناعي"، نظمتها وحدة القوات الجوية الأميركية في لوس أنجلوس في أكتوبر/تشرين الأول 2023. وتضمنت الندوة مجموعة مختلفة من العروض التقديمية من الشركات المتخصصة في مجال تعلم الآلة، بما فيها شركتا "مايكروسوفت" و"أوبن إيه آي"، بشأن ما يمكن أن تقدمه تلك الشركات للبنتاغون.

أنظمة متطورة

أما بالنسبة لشركة بالانتير، المعروفة بنشاطها المكثف مع وكالات الأمن الأميركية، فقد حصلت على عقد بقيمة 480 مليون دولار مع الجيش الأميركي لتطوير نظام "مافن" (Maven) الذكي، وهو نظام ذكاء اصطناعي متطور صُمم لتحديد أنظمة الخصم في الوقت الفعلي.

ويستفيد نظام "مافن" -المُستخدم حاليا في منطقة القيادة المركزية في الشرق الأوسط- من الذكاء الاصطناعي لتحليل البيانات من أنظمة استخبارات ومراقبة واستطلاع متعددة، ويحدد المخاطر المحتملة بسرعة ودقة عالية، في محاولة لمساندة العمليات العسكرية عبر تقليل الوقت اللازم لاكتشاف التهديدات والاستجابة لها، وفقا لبيان صحفي صدر في فبراير/شباط الماضي عن الحرس الوطني لولاية كنتاكي.

وفي شهر مارس/آذار الماضي، اختار الجيش الأميركي شركة "بالانتير" لتطوير نظام "تيتان" (TITAN)، في عقد بقيمة 178 مليون دولار. وذكرت الشركة أن هذا العقد سيسمح لها بتطوير تقنيات متقدمة في ساحة المعركة باستخدام الذكاء الاصطناعي.

وأضافت الشركة أنه بمجرد استخدام النظام، سيتمكن "تيتان" من اكتشاف التهديدات في عدة جهات، تشمل الفضاء والجو والبر والبحر والفضاء السيبراني، باستخدام تقنيات خاصة بشركات الأسلحة من بينها "نورثروب غرومان" و"أندوريل إندستريز" و"إل 3 هاريس تكنولوجيز" و"باسيفيك ديفنس".

كما ذكرت الشركة أنها على مدى العامين القادمين ستعمل على تسخير إمكانات الذكاء الاصطناعي وتعلم الآلة لمعالجة كميات أكبر من البيانات في ساحة المعركة. وقد التزمت الشركة بتسليم 10 أنظمة -نصفها مصنف على أنه متطور- لكي تُدمج في المركبات العسكرية التكتيكية.

المصدر: الجزيرة

كلمات دلالية: حراك الجامعات حريات الاستخبارات الأمیرکی الذکاء الاصطناعی الخدمات السحابیة الجیش الأمیرکی أوبن إیه آی الشرکة أن جی بی تی

إقرأ أيضاً:

حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية

يشهد العالم اليوم تطورا مُتسارعا في مجال الذكاء الاصطناعي، حيث أصبحت تطبيقاته تتغلغل في مختلف القطاعات، من الرعاية الصحية إلى التعليم والصناعة والخدمات المالية وغيرها من القطاعات. ومع هذا التوسع الهائل، تتزايد الحاجة إلى وضع أطر تنظيمية تضمن الاستخدام الآمن والمسؤول لهذه التقنية، وهو ما يُعرف بحوكمة الذكاء الاصطناعي.

إن التحدي الرئيس الذي تواجهه الحكومات والمؤسسات يتمثل في إيجاد توازن بين تشجيع الابتكار التكنولوجي من جهة، وضمان الامتثال للمبادئ الأخلاقية والقانونية التي تحمي الأفراد والمجتمعات من المخاطر المحتملة من جهة أخرى. وقد عرفت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) حوكمة الذكاء الاصطناعي بأنها «مجموعة من السياسات والإجراءات والمعايير القانونية التي تهدف إلى تنظيم تطوير واستخدام أدوات الذكاء الاصطناعي بطريقة مسؤولة وشفافة، مع ضمان احترام القيم الإنسانية وحماية الحقوق الأساسية».

ووفقا لتوصية منظمة اليونسكو بشأن أخلاقيات الذكاء الاصطناعي لعام 2021، فإن الحوكمةَ الفعالةَ للذكاء الاصطناعي ينبغي أن تستند إلى مبادئ الشفافية والمساءلة والأمان لضمان تحقيق الفائدة للمجتمع دونَ المساس بالحقوق الفردية. تهدفُ هذه الحوكمة إلى ضمان العدالة والشفافية وحماية البيانات واحترام حقوق الإنسان في جميع مراحل تطوير واستخدام هذه التقنيات. وتبرز أهمية الحوكمة في ضوء المخاطر المحتملة للذكاء الاصطناعي، مثل التحيز الخوارزمي وانتهاك الخصوصية والتأثير على سوق العمل، الأمر الذي يستدعي وضع تشريعات صارمة لضمان عدم إساءة استخدام هذه التقنية.

وفي سياق الجهود الدولية لتنظيم الذكاء الاصطناعي، صدر التقرير الدولي حول سلامة الذكاء الاصطناعي في يناير 2025 عن المعهد الدولي لسلامة الذكاء الاصطناعي (International AI Safety Report)، الذي شارك في إعداده 30 دولة من بينها منظمات دولية بارزة مثل هيئة الأمم المتحدة والاتحاد الأوروبي ومنظمة التعاون الاقتصادي والتنمية، حيث تناول الحالة الراهنة للفهم العلمي المتعلق بالذكاء الاصطناعي العام، وهو ذلك «النوع من الذكاء الاصطناعي القادر على تنفيذ مجموعة واسعة من المهام». وقد هدف التقرير إلى بناء فهم دولي مشترك حول المخاطر المرتبطة باستخدام الذكاء الاصطناعي المتقدم، مع تقديم تحليل شامل للوسائل العلمية والتقنية المتاحة لإدارتها والتخفيف منها بفعالية، وتوفير معلومات علمية تدعم صانعي القرار في وضع سياسات تنظيمية فعالة. وعلى الرغم من الفوائد العديدة التي يقدمها الذكاء الاصطناعي العام، فإن التقرير يحذر من المخاطر المتزايدة المرتبطة باستخدامه.

فمن الناحية الأمنية، قد يُستغل الذكاء الاصطناعي في تنفيذ هجمات سيبرانية متقدمة أو في تسهيل عمليات الاحتيال الإلكتروني، من خلال إنتاج محتوى مزيف (Fake content) يصعب تمييزه عن الحقيقي. كما أن هناك مخاطر اجتماعية تتمثل في إمكانية تعميق التحيزات الموجودة في البيانات التي تُستخدم في تدريب هذه الأنظمة. إضافة إلى ذلك، مخاوف تتعلق بفقدان السيطرة على أنظمة الذكاء الاصطناعي المتقدمة، حيث يمكن أن يؤدي التطور المتسارع لهذه الأنظمة إلى سلوكيات غير متوقعة قد يصعب التحكم بها. أما على المستوى الاقتصادي، فإن الذكاء الاصطناعي قد يتسبب في اضطرابات كبيرة في سوق العمل، حيث يؤدي إلى استبدال العديد من الوظائف التقليدية بالأنظمة الآلية، ففي قطاع خدمة العملاء مثلا، تعتمد الشركات الكبرى مثل أمازون وجوجل على روبوتات الدردشة (Chatbots) لتقديم الدعم الفني والتفاعل مع العملاء بكفاءة عالية، مما يقلل الحاجة إلى الموظفين البشريين.

أما في مجال التصنيع والتجميع، فقد أصبحت الروبوتات الصناعية تقوم بمهام الإنتاج بدقة وسرعة تفوق القدرات البشرية، كما هو الحال في مصانع تسلا وفورد التي تستخدم أنظمة مؤتمتة لتنفيذ عمليات اللحام والتجميع، مما يقلل التكاليف ويرفع كفاءة الإنتاج. ومع استمرار تطور الذكاء الاصطناعي، يُتوقع أن يمتد تأثيره إلى المزيد من القطاعات.

ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف القطاعات، أصبح من الضروري تبني استراتيجيات وحلول لمواجهة تحديات فقدان الوظائف التقليدية. ويُعد إعادة تأهيل القوى العاملة من أهم هذه الحلول، إذ يجب الاستثمار في برامج تدريبية تُمكن الموظفين من اكتساب مهارات رقمية وتقنية جديدة، مثل تحليل البيانات وتطوير البرمجيات، مما يساعدهم على التكيف مع متطلبات سوق العمل المتغير. إلى جانب ذلك، يمثل تعزيز ريادة الأعمال والابتكار حلا فعالا، حيث يُمكن تشجيع إنشاء مشاريع صغيرة ومتوسطة تعتمد على الذكاء الاصطناعي، مما يخلق فرص عمل جديدة.

كما يعد تبني نموذج العمل الهجين ضرورة مُلحة، إذ يُمكن دمج الذكاء الاصطناعي مع القدرات البشرية بدلا من الاستبدال الكامل، مما يعزز الإنتاجية مع الحفاظ على دور العنصر البشري. كما أن تطوير الأطر القانونية والتنظيمية يعد خطوة مهمة، حيث ينبغي صياغة قوانين تضمن الاستخدام العادل والمسؤول للذكاء الاصطناعي، وتحمي العمال من التمييز الناتج عن الأتمتة. بالإضافة إلى ذلك فإن التعليم المستمر يُسهم في تأهيل القوى العاملة الوطنية لمواكبة التحولات في سوق العمل، حيث ينبغي تعزيز ثقافة التعلم المستمر لضمان قدرة القوى العاملة على التكيف مع المتطلبات المستقبلية للتكنولوجيا المتقدمة. وغيرها من الاستراتيجيات الجديدة لدمج الإنسان مع الآلة في بيئة العمل.

من جانب آخر، هناك مخاطر تتعلق بالخصوصية، حيث يمكن للذكاء الاصطناعي تحليل كميات كبيرة من البيانات الشخصية، مما يزيد من احتمالات انتهاك الخصوصية وسوء استخدام المعلومات. ولتقليل هذه المخاطر، من الضروري تبني مجموعة من الاستراتيجيات التقنية والتنظيمية التي تعزز شفافية وأمان أنظمة الذكاء الاصطناعي. ومن أبرزها، تطوير تقنيات تتيح فهما أعمق لآليات اتخاذ القرار لدى الذكاء الاصطناعي، مما يسهل عملية المراجعة والمساءلة. بالإضافة إلى ذلك، تبرز أهمية تعزيز الأمن السيبراني عبر تصميم بروتوكولات حماية متقدمة لمواجهة التهديدات المحتملة.

كما يجب العمل على تصفية البيانات وتقليل التحيز لضمان دقة وعدالة أنظمة الذكاء الاصطناعي في اتخاذ القرارات. ومن أجل حماية بيانات المستخدمين، يتوجب استخدام تقنيات التشفير القوية وآليات الحماية الحديثة التي تضمن الامتثال لمعايير الخصوصية. بالإضافة إلى ضرورة الحفاظ على دور الإنسان في عمليات اتخاذ القرار، لضمان عدم الاعتماد الكامل على الذكاء الاصطناعي في الأمور الحساسة، مما يقلل من المخاطر المحتملة الناجمة عن التحكم الذاتي للأنظمة. إن التطور السريع لهذه التقنية يتطلب نهجا شاملا يجمع بين البحث العلمي والسياسات التنظيمية والتقنيات المتقدمة لضمان الاستخدام الآمن والمسؤول لهذه الأنظمة، بحيث تتحقق الفائدة المرجوة منها دون التعرض للمخاطر المحتملة.

وقد اعتمدت العديد من الدول سياسات مُتقدمة لتنظيم الذكاء الاصطناعي، حيث اتخذ الاتحاد الأوروبي خطوات رائدة في هذا المجال عبر قانون الذكاء الاصطناعي الأوروبي الذي دخل حيز التنفيذ عام 2024م والذي يُعدُ أول إطار قانوني شامل يهدف إلى تَنظيم استخدام الذكاء الاصطناعي وفق معايير صارمة تحمي الخصوصية وتحد من التحيز الخوارزمي. وفي المقابل، تبنت الولايات المتحدة الأمريكية نهجا يعتمد على توجيهات إرشادية لتعزيز الشفافية والمساءلة، مع منح الشركات حرية الابتكار ضمن حدود أخلاقية محددة. أما الصين، فقد ألزمت الشركات التقنية بمراجعة وتقييم خوارزميات الذكاء الاصطناعي المُستخدمة في المنصات الرقمية، لضمان الامتثال لمعايير الأمان السيبراني.

عليه فإنه يُمكن الإشارة إلى مجموعة من التوصيات والمُبادرات التي يُمكن أن تُسهم في تعزيز حوكمة الذكاء الاصطناعي بشكل فعال، ومن أبرزها: وضع أطر قانونية مَرنة تُتيح تطوير الذكاء الاصطناعي دون عرقلة الابتكار، مع ضمان حماية حقوق الأفراد والمجتمع وتعزيز الشفافية والمساءلة من خلال فرض معايير تضمن وضوح كيفية عمل أنظمة الذكاء الاصطناعي، وإتاحة آليات لمراجعة القرارات التي تتخذها هذه الأنظمة وتعزيز التعاون الدولي لإنشاء منصات مشتركة لمراقبة تطورات الذكاء الاصطناعي وتبادل المعلومات بين الدول حول المخاطر المحتملة وتشجيع البحث والتطوير المسؤول عبر دعم الأبحاث التي تركز على تطوير تقنيات ذكاء اصطناعي أكثر أمانا واستدامة وتعزيز تعليم الذكاء الاصطناعي الأخلاقي من خلال دمج مقررات حوكمة الذكاء الاصطناعي في مناهج المؤسسات الأكاديمية والتعليمية، لضمان وعي المطورين الجدد بالمسؤوليات الأخلاقية المترتبة على استخدام هذه التقنية.

إن حوكمة الذكاء الاصطناعي تُشكل ركيزة أساسية لضمان تحقيق أقصى الفوائد من هذه التقنية، مع الحد من المخاطر المرتبطة بها. وبينما يستمر الابتكار في التقدم بوتيرة غير مسبوقة، فإن المسؤولية تقتضي وضع سياسات وتشريعات تنظيمية تضمن الاستخدام العادل والمسؤول لهذه التقنيات، بما يتوافق مع القيم الأخلاقية والقوانين الدولية. ويُعد تحقيق التوازن بين الابتكار والمسؤولية التحدي الأكبر الذي يواجه الحكومات وصناع القرار، لكن من خلال التعاون الدولي ووضع سياسات متقدمة، يمكن بناء مستقبل مستدام للذكاء الاصطناعي يعود بالنفع على البشرية جمعاء.

عارف بن خميس الفزاري كاتب ومتخصص في المعرفة

مقالات مشابهة

  • مايكروسوفت تُعيد تشكيل الرعاية الصحية بالذكاء الاصطناعي
  • لجنة التنسيق الّلبنانيّة - الأميركيّة اختتمت لقاءَاتها مع الإدارة الأميركية والأمم المتحدة
  • علامة HONOR تكشف عن استراتيجيتها المؤسسية الجديدة التي تسعى من خلالها لإتمام انتقالها إلى شركة متخصصة في نظام الأجهزة الذكية المدعومة بالذكاء الاصطناعي.
  • حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
  • علامة HONOR تكشف عن استراتيجيتها المؤسسية الجديدة التي تسعى من خلالها لإتمام انتقالها إلى شركة متخصصة في نظام الأجهزة الذكية المدعومة بالذكاء الاصطناعي
  • ثورة الذكاء الاصطناعي في الصين.. DeepSeek يثير جدلا في القطاع الطبي
  • معارض وشركات الذكاء الاصطناعي في ملتقى الشارقة الرياضي
  • شركة عملاقة للتجارة الإلكترونية تدمج الذكاء الاصطناعي في منصتها
  • عاجل| «الصحة» تُعلن بدء استخدام تطبيقات الذكاء الاصطناعي في الكشف المبكر عن الأورام
  • الجيش الأميركي يعتزم نشر 3 آلاف عسكري إضافي على الحدود مع المكسيك