صفقة بين مايكروسوفت وشركة إماراتية تثير القلق في الولايات المتحدة
تاريخ النشر: 23rd, May 2024 GMT
تثير صفقة أبرمت بين مايكروسوفت الأميركية وشركة "G42" الإماراتية، القلق في الولايات المتحدة من أن يؤدي النقل المحتمل لرقائق وأدوات متطورة للذكاء الاصطناعي، إلى أخطار على الأمن القومي.
وقال رئيس مايكروسوفت، براد سميث، إن الصفقة رفيعة المستوى التي أبرمتها شركة التكنولوجيا مع شركة الذكاء الاصطناعي المدعومة من الإمارات "G42"، قد تتضمن في النهاية نقل رقائق وأدوات متطورة، وهي خطوة حذر عضو جمهوري كبير في الكونغرس من أنه قد تكون لها آثار على الأمن القومي.
وفي مقابلة مع رويترز هذا الأسبوع، قال سميث إن اتفاق المبيعات يمكن أن يتقدم إلى المرحلة الثانية، التي تنطوي على تصدير المكونات المهمة لتكنولوجيا الذكاء الاصطناعي مثل أوزان النماذج، وهي درة تاج أنظمة الذكاء الاصطناعي التي تحدد مدى قوتها.
وأضاف سميث أنه لا يوجد جدول زمني محدد للمرحلة الثانية.
ويقول مسؤولون أميركيون إن أنظمة الذكاء الاصطناعي يمكن أن تشكل مخاطر على الأمن القومي، "من خلال تسهيل هندسة الأسلحة الكيميائية والبيولوجية والنووية"، على سبيل المثال.
وطلبت إدارة الرئيس الأميركي جو بايدن في أكتوبر من صانعي أكبر أنظمة الذكاء الاصطناعي، مشاركة التفاصيل المتعلقة بها مع الحكومة الأميركية.
وللمضي قدما في ذلك، ستتطلب الصفقة موافقة وزارة التجارة الأميركية. وقال مسؤولون تنفيذيون في مايكروسوفت إن الاتفاق يتضمن ضمانات لحماية تكنولوجيا مايكروسوفت، ومنع استخدامها من كيانات صينية لتدريب أنظمة الذكاء الاصطناعي.
لكن هذه الإجراءات لم يتم الإعلان عنها، ويتساءل بعض المشرعين الأميركيين عما إذا كانت كافية.
"التعتيم على المفاوضات"وهناك قلق يساور بعض المشرعين بسبب "حالة التعتيم" التي تكتنف المفاوضات بين شركتين خاصتين بشأن الشروط والضمانات المتعلقة بنقل التكنولوجيا الأميركية، وفق رويترز.
وقال رئيس لجنة الشؤون الخارجية في مجلس النواب الأميركي، الجمهوري مايكل مكول، لرويترز: "على الرغم من التداعيات الكبيرة على الأمن القومي، فإن الكونغرس لم يتلق بعد إحاطة شاملة من جهة تنفيذية بشأن هذا الاتفاق".
وأضاف: "أشعر بالقلق من عدم وجود وسائل كافية لحماية التكنولوجيا الحساسة أميركية المنشأ من التجسس الصيني، بالنظر إلى مصالح (الحزب الشيوعي الصيني) في الإمارات".
وتطلب وزارة التجارة بالفعل إخطارات، وفي العديد من المناطق، تطلب تراخيص تصدير لإرسال شرائح الذكاء الاصطناعي إلى الخارج. لكن صفقة مايكروسوفت و"G42" تسلط الضوء على ثغرات في القوانين الأميركية في الوقت الذي تسارع فيه الجهات التنظيمية لمواكبة التكنولوجيا سريعة التطور، حسب رويترز.
وفي الوقت الحالي على سبيل المثال، لا توجد لائحة تقيد تصدير نماذج الذكاء الاصطناعي، على الرغم من أن مكول ومجموعة من المشرعين من الحزبين الجمهوري والديمقراطي قدموا هذا الأسبوع تشريعا من شأنه أن يمنح المسؤولين الأميركيين سلطة أكثر وضوحا للقيام بذلك.
وقال مسؤولون تنفيذيون في مايكروسوفت، إن الشركة "ترحب بالنقاش" حول إطار قانوني جديد يحكم نقل تكنولوجيا الذكاء الاصطناعي، وأن الصفقة مع "G42" تلزم الشركة الإماراتية باللوائح الأميركية مع تطورها.
وأوضح سميث: "في الأساس، ما نركز عليه هو محاولة ضمان قدرة التكنولوجيا الأميركية على التحرك حول العالم بسلامة وأمان".
عندما أعلنت مايكروسوفت و"G42" عن الصفقة الشهر الماضي، قيل إنها تقرب الشركة الإماراتية من الولايات المتحدة وتنشر النفوذ التكنولوجي الأميركي، وسط منافسة استراتيجية مع الصين.
وتستثمر مايكروسوفت 1.5 مليار دولار في "G42"، مع شغل سميث أحد مقاعد مجلس إدارتها.
ولم تقدم الشركتان تفاصيل حول التقنيات التي قد يتم نقلها إلى الإمارات أو دول أخرى، أو أي ضمانات أمنية محددة سيتم وضعها.
والهدف من الصفقة بشكل عام هو أن تنقل الشركتان تكنولوجيا الذكاء الاصطناعي بشكل مشترك إلى مناطق لا يمكن لأي منهما القيام فيها بذلك بمفرده. ومن الأمثلة الأولى على ذلك صفقة في كينيا أعلنتها الشركتان، الأربعاء.
والصفقة هي اتفاق بين الشركتين تتطلب من كل منهما تقديم ضمانات أمنية لحكومتي بلديهما، لكن لا يوجد اتفاق مباشر بين الولايات المتحدة والإمارات ينظم نقل التقنيات الحساسة.
وقال مسؤولون تنفيذيون في مايكروسوفت إن الشركتين يمكن أن تسعيا لنقل هذه التقنيات إلى أسواق أخرى خارج الإمارات، من بينها تركيا ومصر.
وذكر سميث أن العديد من تفاصيل الصفقة لا تزال بحاجة إلى العمل عليها، بما في ذلك كيفية حماية ما يعرف باسم "أوزان نماذج الذكاء الاصطناعي"، وهو الجزء المهم من نموذج الذكاء الاصطناعي الذي يحدد كيفية استجابته للأسئلة أو الطلبات.
ويتم الحصول على هذه الأوزان من خلال تدريب نموذج الذكاء الاصطناعي باستخدام كميات هائلة من البيانات، وغالبا ما يكون ذلك بتكلفة كبيرة.
ولا يمكن حاليا تشفير أوزان النماذج أثناء استخدامها. وتشير تقديرات سميث إلى أن الأساليب التقنية الواعدة للقيام بذلك "لا تزال واردة بعد عام على الأقل".
حماية التقنياتوقال رئيس مايكروسوفت، إن الشركة نظرت في العديد من الخيارات البديلة لحماية تقنيتها، بما في ذلك نظام قد يتضمن فصل أجزاء من مراكز البيانات ماديا، حيث توجد شرائح الذكاء الاصطناعي وأوزان النماذج وتقييد الوصول المادي.
وأضاف سميث: "أظن أنه بحلول الوقت الذي ننتهي فيه، سنصل في نهاية المطاف إلى وضع تنظيمي أو نهج لمراقبة الصادرات التجارية سيكون قابلا للتطبيق على نطاق واسع وليس فقط على مايكروسوفت و(G42)".
وذكر مسؤولون تنفيذيون في مايكروسوفت أنه بموجب الصفقة، ستتبع "G42" أيضا قاعدة "اعرف عميلك" لتحديد من يستخدم تكنولوجيا مايكروسوفت، ولن تسمح للشركات الصينية باستخدامها لتدريب نماذج الذكاء الاصطناعي.
واقترحت جهات تنظيمية في الولايات المتحدة قاعدة مماثلة، لكنها لم تعتمدها بعد.
وقال مسؤول تنفيذي يتولى التعامل مع الشراكات الخاصة بأعمال الذكاء الاصطناعي لدى "G42"، طلال القيسي، لرويترز: "اعتمدنا قرارا تجاريا استراتيجيا للدخول في شراكة مع شركات أميركية عندما يتعلق الأمر بالتقنيات المتقدمة. نحن واضحون تماما بشأن حقيقة أنه من أجل القيام بذلك، سنحتاج إلى الالتزام بمتطلبات شركائنا والمتطلبات التنظيمية الحكومية أو لوائح مراقبة الصادرات".
وقالت مايكروسوفت إنه بموجب الاتفاق، ستكون لديها القدرة على فرض عقوبات مالية على "G42" وتنفيذها في محاكم التحكيم في لندن.
وقالت مايكروسوفت إن هذا يعني أن مايكروسوفت لن تضطر إلى العمل من خلال النظام القانوني الإماراتي لضمان امتثال "G42" لالتزاماتها، ويمكنها الاستيلاء على أصول في الكثير من البلدان إذا تبين أن "G42" تنتهك الاتفاق.
ولا يزال من غير الواضح على وجه التحديد كيف ستسمح وزيرة التجارة الأميركية، جينا ريموندو، بالمضي قدما في الصفقة.
وقال سميث إن الأحكام "غير رسمية" لافتا إلى أنه "بالتأكيد مع وزيرة التجارة (الأميركية).. يعرف المرء بوضوح تام ما إذا كانت توافق على شيء ما أم ترفضه".
وقال متحدث باسم وزارة التجارة في بيان، إن أي عمليات نقل للتكنولوجيا ستخضع لضوابط التصدير "بما في ذلك متطلبات الترخيص المعمول بها حاليا" لرقائق الذكاء الاصطناعي، و"الضوابط المستقبلية المحتملة"
المصدر: الحرة
كلمات دلالية: أنظمة الذکاء الاصطناعی الولایات المتحدة على الأمن القومی فی ذلک
إقرأ أيضاً:
حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
يشهد العالم اليوم تطورا مُتسارعا في مجال الذكاء الاصطناعي، حيث أصبحت تطبيقاته تتغلغل في مختلف القطاعات، من الرعاية الصحية إلى التعليم والصناعة والخدمات المالية وغيرها من القطاعات. ومع هذا التوسع الهائل، تتزايد الحاجة إلى وضع أطر تنظيمية تضمن الاستخدام الآمن والمسؤول لهذه التقنية، وهو ما يُعرف بحوكمة الذكاء الاصطناعي.
إن التحدي الرئيس الذي تواجهه الحكومات والمؤسسات يتمثل في إيجاد توازن بين تشجيع الابتكار التكنولوجي من جهة، وضمان الامتثال للمبادئ الأخلاقية والقانونية التي تحمي الأفراد والمجتمعات من المخاطر المحتملة من جهة أخرى. وقد عرفت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) حوكمة الذكاء الاصطناعي بأنها «مجموعة من السياسات والإجراءات والمعايير القانونية التي تهدف إلى تنظيم تطوير واستخدام أدوات الذكاء الاصطناعي بطريقة مسؤولة وشفافة، مع ضمان احترام القيم الإنسانية وحماية الحقوق الأساسية».
ووفقا لتوصية منظمة اليونسكو بشأن أخلاقيات الذكاء الاصطناعي لعام 2021، فإن الحوكمةَ الفعالةَ للذكاء الاصطناعي ينبغي أن تستند إلى مبادئ الشفافية والمساءلة والأمان لضمان تحقيق الفائدة للمجتمع دونَ المساس بالحقوق الفردية. تهدفُ هذه الحوكمة إلى ضمان العدالة والشفافية وحماية البيانات واحترام حقوق الإنسان في جميع مراحل تطوير واستخدام هذه التقنيات. وتبرز أهمية الحوكمة في ضوء المخاطر المحتملة للذكاء الاصطناعي، مثل التحيز الخوارزمي وانتهاك الخصوصية والتأثير على سوق العمل، الأمر الذي يستدعي وضع تشريعات صارمة لضمان عدم إساءة استخدام هذه التقنية.
وفي سياق الجهود الدولية لتنظيم الذكاء الاصطناعي، صدر التقرير الدولي حول سلامة الذكاء الاصطناعي في يناير 2025 عن المعهد الدولي لسلامة الذكاء الاصطناعي (International AI Safety Report)، الذي شارك في إعداده 30 دولة من بينها منظمات دولية بارزة مثل هيئة الأمم المتحدة والاتحاد الأوروبي ومنظمة التعاون الاقتصادي والتنمية، حيث تناول الحالة الراهنة للفهم العلمي المتعلق بالذكاء الاصطناعي العام، وهو ذلك «النوع من الذكاء الاصطناعي القادر على تنفيذ مجموعة واسعة من المهام». وقد هدف التقرير إلى بناء فهم دولي مشترك حول المخاطر المرتبطة باستخدام الذكاء الاصطناعي المتقدم، مع تقديم تحليل شامل للوسائل العلمية والتقنية المتاحة لإدارتها والتخفيف منها بفعالية، وتوفير معلومات علمية تدعم صانعي القرار في وضع سياسات تنظيمية فعالة. وعلى الرغم من الفوائد العديدة التي يقدمها الذكاء الاصطناعي العام، فإن التقرير يحذر من المخاطر المتزايدة المرتبطة باستخدامه.
فمن الناحية الأمنية، قد يُستغل الذكاء الاصطناعي في تنفيذ هجمات سيبرانية متقدمة أو في تسهيل عمليات الاحتيال الإلكتروني، من خلال إنتاج محتوى مزيف (Fake content) يصعب تمييزه عن الحقيقي. كما أن هناك مخاطر اجتماعية تتمثل في إمكانية تعميق التحيزات الموجودة في البيانات التي تُستخدم في تدريب هذه الأنظمة. إضافة إلى ذلك، مخاوف تتعلق بفقدان السيطرة على أنظمة الذكاء الاصطناعي المتقدمة، حيث يمكن أن يؤدي التطور المتسارع لهذه الأنظمة إلى سلوكيات غير متوقعة قد يصعب التحكم بها. أما على المستوى الاقتصادي، فإن الذكاء الاصطناعي قد يتسبب في اضطرابات كبيرة في سوق العمل، حيث يؤدي إلى استبدال العديد من الوظائف التقليدية بالأنظمة الآلية، ففي قطاع خدمة العملاء مثلا، تعتمد الشركات الكبرى مثل أمازون وجوجل على روبوتات الدردشة (Chatbots) لتقديم الدعم الفني والتفاعل مع العملاء بكفاءة عالية، مما يقلل الحاجة إلى الموظفين البشريين.
أما في مجال التصنيع والتجميع، فقد أصبحت الروبوتات الصناعية تقوم بمهام الإنتاج بدقة وسرعة تفوق القدرات البشرية، كما هو الحال في مصانع تسلا وفورد التي تستخدم أنظمة مؤتمتة لتنفيذ عمليات اللحام والتجميع، مما يقلل التكاليف ويرفع كفاءة الإنتاج. ومع استمرار تطور الذكاء الاصطناعي، يُتوقع أن يمتد تأثيره إلى المزيد من القطاعات.
ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف القطاعات، أصبح من الضروري تبني استراتيجيات وحلول لمواجهة تحديات فقدان الوظائف التقليدية. ويُعد إعادة تأهيل القوى العاملة من أهم هذه الحلول، إذ يجب الاستثمار في برامج تدريبية تُمكن الموظفين من اكتساب مهارات رقمية وتقنية جديدة، مثل تحليل البيانات وتطوير البرمجيات، مما يساعدهم على التكيف مع متطلبات سوق العمل المتغير. إلى جانب ذلك، يمثل تعزيز ريادة الأعمال والابتكار حلا فعالا، حيث يُمكن تشجيع إنشاء مشاريع صغيرة ومتوسطة تعتمد على الذكاء الاصطناعي، مما يخلق فرص عمل جديدة.
كما يعد تبني نموذج العمل الهجين ضرورة مُلحة، إذ يُمكن دمج الذكاء الاصطناعي مع القدرات البشرية بدلا من الاستبدال الكامل، مما يعزز الإنتاجية مع الحفاظ على دور العنصر البشري. كما أن تطوير الأطر القانونية والتنظيمية يعد خطوة مهمة، حيث ينبغي صياغة قوانين تضمن الاستخدام العادل والمسؤول للذكاء الاصطناعي، وتحمي العمال من التمييز الناتج عن الأتمتة. بالإضافة إلى ذلك فإن التعليم المستمر يُسهم في تأهيل القوى العاملة الوطنية لمواكبة التحولات في سوق العمل، حيث ينبغي تعزيز ثقافة التعلم المستمر لضمان قدرة القوى العاملة على التكيف مع المتطلبات المستقبلية للتكنولوجيا المتقدمة. وغيرها من الاستراتيجيات الجديدة لدمج الإنسان مع الآلة في بيئة العمل.
من جانب آخر، هناك مخاطر تتعلق بالخصوصية، حيث يمكن للذكاء الاصطناعي تحليل كميات كبيرة من البيانات الشخصية، مما يزيد من احتمالات انتهاك الخصوصية وسوء استخدام المعلومات. ولتقليل هذه المخاطر، من الضروري تبني مجموعة من الاستراتيجيات التقنية والتنظيمية التي تعزز شفافية وأمان أنظمة الذكاء الاصطناعي. ومن أبرزها، تطوير تقنيات تتيح فهما أعمق لآليات اتخاذ القرار لدى الذكاء الاصطناعي، مما يسهل عملية المراجعة والمساءلة. بالإضافة إلى ذلك، تبرز أهمية تعزيز الأمن السيبراني عبر تصميم بروتوكولات حماية متقدمة لمواجهة التهديدات المحتملة.
كما يجب العمل على تصفية البيانات وتقليل التحيز لضمان دقة وعدالة أنظمة الذكاء الاصطناعي في اتخاذ القرارات. ومن أجل حماية بيانات المستخدمين، يتوجب استخدام تقنيات التشفير القوية وآليات الحماية الحديثة التي تضمن الامتثال لمعايير الخصوصية. بالإضافة إلى ضرورة الحفاظ على دور الإنسان في عمليات اتخاذ القرار، لضمان عدم الاعتماد الكامل على الذكاء الاصطناعي في الأمور الحساسة، مما يقلل من المخاطر المحتملة الناجمة عن التحكم الذاتي للأنظمة. إن التطور السريع لهذه التقنية يتطلب نهجا شاملا يجمع بين البحث العلمي والسياسات التنظيمية والتقنيات المتقدمة لضمان الاستخدام الآمن والمسؤول لهذه الأنظمة، بحيث تتحقق الفائدة المرجوة منها دون التعرض للمخاطر المحتملة.
وقد اعتمدت العديد من الدول سياسات مُتقدمة لتنظيم الذكاء الاصطناعي، حيث اتخذ الاتحاد الأوروبي خطوات رائدة في هذا المجال عبر قانون الذكاء الاصطناعي الأوروبي الذي دخل حيز التنفيذ عام 2024م والذي يُعدُ أول إطار قانوني شامل يهدف إلى تَنظيم استخدام الذكاء الاصطناعي وفق معايير صارمة تحمي الخصوصية وتحد من التحيز الخوارزمي. وفي المقابل، تبنت الولايات المتحدة الأمريكية نهجا يعتمد على توجيهات إرشادية لتعزيز الشفافية والمساءلة، مع منح الشركات حرية الابتكار ضمن حدود أخلاقية محددة. أما الصين، فقد ألزمت الشركات التقنية بمراجعة وتقييم خوارزميات الذكاء الاصطناعي المُستخدمة في المنصات الرقمية، لضمان الامتثال لمعايير الأمان السيبراني.
عليه فإنه يُمكن الإشارة إلى مجموعة من التوصيات والمُبادرات التي يُمكن أن تُسهم في تعزيز حوكمة الذكاء الاصطناعي بشكل فعال، ومن أبرزها: وضع أطر قانونية مَرنة تُتيح تطوير الذكاء الاصطناعي دون عرقلة الابتكار، مع ضمان حماية حقوق الأفراد والمجتمع وتعزيز الشفافية والمساءلة من خلال فرض معايير تضمن وضوح كيفية عمل أنظمة الذكاء الاصطناعي، وإتاحة آليات لمراجعة القرارات التي تتخذها هذه الأنظمة وتعزيز التعاون الدولي لإنشاء منصات مشتركة لمراقبة تطورات الذكاء الاصطناعي وتبادل المعلومات بين الدول حول المخاطر المحتملة وتشجيع البحث والتطوير المسؤول عبر دعم الأبحاث التي تركز على تطوير تقنيات ذكاء اصطناعي أكثر أمانا واستدامة وتعزيز تعليم الذكاء الاصطناعي الأخلاقي من خلال دمج مقررات حوكمة الذكاء الاصطناعي في مناهج المؤسسات الأكاديمية والتعليمية، لضمان وعي المطورين الجدد بالمسؤوليات الأخلاقية المترتبة على استخدام هذه التقنية.
إن حوكمة الذكاء الاصطناعي تُشكل ركيزة أساسية لضمان تحقيق أقصى الفوائد من هذه التقنية، مع الحد من المخاطر المرتبطة بها. وبينما يستمر الابتكار في التقدم بوتيرة غير مسبوقة، فإن المسؤولية تقتضي وضع سياسات وتشريعات تنظيمية تضمن الاستخدام العادل والمسؤول لهذه التقنيات، بما يتوافق مع القيم الأخلاقية والقوانين الدولية. ويُعد تحقيق التوازن بين الابتكار والمسؤولية التحدي الأكبر الذي يواجه الحكومات وصناع القرار، لكن من خلال التعاون الدولي ووضع سياسات متقدمة، يمكن بناء مستقبل مستدام للذكاء الاصطناعي يعود بالنفع على البشرية جمعاء.
عارف بن خميس الفزاري كاتب ومتخصص في المعرفة