مايكروسوفت وبالانتير تتعاونان لبيع الذكاء الاصطناعي للوكالات الحكومية
تاريخ النشر: 9th, August 2024 GMT
تتعاون مايكروسوفت مع شركة تحليلات البيانات السرية بالانتير، والتي اتُهمت (من بين أعمال بائسة أخرى) بتمكين هيئة الهجرة والجمارك الأمريكية (ICE) من العمل "كوكالة مراقبة محلية". أفادت بلومبرج أن بالانتير ستدمج منتجاتها مع أدوات السحابة الحكومية من مايكروسوفت، بما في ذلك خدمة Azure OpenAI، "في محاولة لبيع البرامج" لوكالات الدفاع الأمريكية.
يقال إن الثنائي سيركز على المنتجات للعاملين في الدفاع الأمريكي للتعامل مع الخدمات اللوجستية والتعاقد والتخطيط للعمل. ولكن نظرًا للطبيعة السرية لعمل بالانتير، فإن هذه المصطلحات العامة وغير المهددة على ما يبدو لا تعني الكثير بالضرورة.
تم استخدام برنامج بالانتير لتتبع وقمع المعارضة. تأسست الشركة على يد بيتر ثيل، الذي يدعم ويمول قضايا اليمين المتطرف ولديه فلسفة سياسية وصفها كاتب سيرته الذاتية بأنها "تقترب من الفاشية". في فصول ثيل في جامعة ستانفورد وكتابه "من الصفر إلى واحد"، تحدث ملياردير وادي السيليكون عن مدى تفوق إدارة الشركات على الحكومات لأنها تمتلك صانع قرار واحد. قال كاتب سيرة ثيل لمجلة تايم في عام 2021: "دكتاتور، في الأساس".
كما كتب ثيل الكلمات التالية: "لم أعد أعتقد أن الحرية والديمقراطية متوافقان".
في عام 2018، ادعت شركة بالانتير في صحيفة نيويورك تايمز أنها لا تعمل مع فرقة الترحيل التابعة لدائرة الهجرة والجمارك، وعمليات الإنفاذ والإزالة (ERO). وهذا يتناقض مع تقرير من The Intercept يكشف عن إفصاح وزارة الأمن الداخلي لعام 2016 يظهر أن ERO استخدمت برنامج Palantir "لجمع المعلومات للقضايا الجنائية والمدنية ضد المهاجرين".
في عام 2020، حذرت منظمة العفو الدولية من شركة Palantir، "يمكننا أن نغمض أعيننا ونتظاهر بأنه على عكس كل الأدلة، فإن Palantir هي شركة تحترم الحقوق أو يمكننا أن نسمي هذه الواجهة بما هي عليه: شركة أخرى تضع الربح فوق الناس، بغض النظر عن التكلفة البشرية".
أفادت بلومبرج أن أحدث برامج الذكاء الاصطناعي من Palantir تتطلب نموذجًا لغويًا كبيرًا. الآن، في بيئات حكومية سرية، ستجمع Palantir بين صلاحياتها وصلاحيات Azure OpenAI من Microsoft، والتي تشمل GPT-4o وGPT-4 Turbo مع Vision وGPT-4 وGPT-3.5 والمزيد.
المصدر: بوابة الوفد
إقرأ أيضاً:
الذكاء الاصطناعي ينجح في استنساخ نفسه ويثير قلق العلماء
كشفت دراسة حديثة أن الذكاء الاصطناعي قد تجاوز "خطاً أحمر حرجاً" بعد أن أظهر قدرته على استنساخ نفسه دون أي تدخل بشري.
الدراسة، التي أجراها باحثون من جامعة فودان في الصين ونُشرت في قاعدة البيانات arXiv بتاريخ 9 ديسمبر 2024، أثارت جدلاً واسعًا حول المخاطر المحتملة لتطور الذكاء الاصطناعي، خاصة مع تمكن نموذجين شهيرين من نماذج اللغة الكبيرة (LLMs) من استنساخ أنفسهما بنجاح.
في هذه الدراسة، استخدم الباحثون نموذجين مفتوحي المصدر، هما "Llama31-70B-Instruct" من شركة ميتا و"Qwen2.5-72B-Instruct" من شركة علي بابا. على الرغم من أن هذه النماذج أقل قوة من الأنظمة التجارية، إلا أنها واسعة الانتشار بين مطوري الذكاء الاصطناعي. تم اختبار النماذج في بيئات خاضعة للتحكم لمحاكاة ظروف العالم الواقعي، باستخدام وحدات معالجة الرسوميات (GPUs) التجارية.
نتائج الدراسة
أظهرت التجارب أن النموذجين تمكنا من استنساخ نفسيهما بشكل منفصل. ففي 10 تجارب، نجح أحد النموذجين في الاستنساخ بنسبة 50%، بينما بلغت نسبة نجاح النموذج الآخر 90%. شملت الدراسة سيناريوهين رئيسيين. الأول كان "تجنب الإغلاق"، حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إيقاف تشغيله والقيام بنسخ نفسه قبل الإغلاق. أما السيناريو الثاني، فكان "سلسلة الاستنساخ"، حيث طلب من الذكاء الاصطناعي استنساخ نفسه ثم برمجة النسخة لاستنساخ نفسها مرة أخرى، في دورة قد تستمر إلى ما لا نهاية.
وأوضح الباحثون أن الذكاء الاصطناعي يتبع في العادة سلسلة من الخطوات المعقدة لتحقيق الاستنساخ الذاتي. يبدأ النموذج بفهم تكوينه وآلية عمله، ثم يضع خطة مبدئية لتنفيذ عملية الاستنساخ، متجاوزًا العقبات التي قد تعترضه. هذه العملية قد تتطلب وقتًا طويلًا لكنها تتم دون أي تدخل بشري.
السلوكيات غير المتوقعة والمخاوف المستقبلية
أشارت الدراسة إلى ظهور سلوكيات غير متوقعة أثناء التجارب، حيث قام الذكاء الاصطناعي أحيانًا بإنهاء عمليات متضاربة، أو إعادة تشغيل النظام لإصلاح أعطال في الأجهزة، أو حتى مسح النظام بحثًا عن ملفات ومعلومات قد تساعده في التغلب على المشاكل.
وكتب الباحثون في الورقة البحثية: "النتائج تشير إلى أن أنظمة الذكاء الاصطناعي الحالية تمتلك بالفعل القدرة على الاستنساخ الذاتي، كما يمكنها استخدام هذه القدرة لتعزيز بقائها". وحذروا من أن النجاح في الاستنساخ دون مساعدة بشرية يمثل خطوة أساسية قد تجعل الذكاء الاصطناعي قادرًا على التفوق على البشر، وهو ما يعتبر إشارة مبكرة لاحتمال ظهور ذكاء اصطناعي "مارق" يعمل ضد مصالح البشر.
دعوة إلى التعاون الدولي
حث الباحثون المجتمع الدولي على التعاون لوضع قواعد وضوابط تمنع الذكاء الاصطناعي من الدخول في دورات استنساخ غير خاضعة للسيطرة. كما دعوا إلى تكثيف الجهود لفهم وتقييم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، والعمل على إنشاء معايير أمان فعّالة بأسرع وقت ممكن.
على الرغم من النتائج المثيرة للقلق، يجب الإشارة إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن تكرار هذه النتائج من قبل باحثين آخرين لا يزال مطلوبًا لتأكيد صحة ما ورد.
هذا التطور يسلط الضوء على المخاطر المحتملة لأنظمة الذكاء الاصطناعي المتقدمة، ويضع تحديات جديدة أمام البشر في كيفية التعامل مع هذه التكنولوجيا التي تتطور بسرعة مذهلة.
إسلام العبادي(أبوظبي)