تحوّل مثير.. ميتا تسمح باستخدام ذكائها الاصطناعي لأغراض عسكرية أمريكية
تاريخ النشر: 6th, November 2024 GMT
أعلنت شركة ميتا أنها ستسمح للحكومة الأمريكية ووكالاتها والشركات المتعاقدة معها في مجال الأمن القومي باستخدام نماذج الذكاء الاصطناعي الخاصة بها لأغراض عسكرية، وذلك في تغيير لسياستها التي كانت تمنع استخدام تقنياتها لهذه الأغراض.
وأوضحت ميتا أن نماذج الذكاء الاصطناعي الخاصة بها، التي تطلق عليها اسم “لاما Llama”، ستكون متاحة للوكالات الفيدرالية، بالإضافة إلى شركات أخرى متعاقدة في مجال الدفاع، مثل “لوكهيد مارتن” و”بوز آلن”، وشركات تكنولوجيا دفاعية مثل “بالانتير” و”أندريل”.
وتُعد هذه النماذج “مفتوحة المصدر”، مما يعني إمكانية نسخها وتوزيعها بحرية من مطورين آخرين أو شركات أو حكومات.
ويمثل هذا التحول استثناءً من سياسة “الاستخدام المقبول” لدى ميتا، التي كانت تمنع استخدام برامجها في الأغراض العسكرية والحربية والصناعات النووية.
وقال نيك كليغ، رئيس الشؤون العالمية في ميتا، إن الشركة تدعم الآن “الاستخدامات المسؤولة والأخلاقية لنماذج الشركة لدعم الولايات المتحدة والقيم الديمقراطية في السباق العالمي نحو التفوق في الذكاء الاصطناعي”، على حد تعبيره.
وأشار كليغ إلى أن “ميتا تريد المساهمة في تعزيز الأمن والازدهار الاقتصادي للولايات المتحدة وأقرب حلفائها”، مؤكدًا أن “الانتشار الواسع لنماذج الذكاء الاصطناعي الأمريكية المفتوحة المصدر يخدم المصالح الاقتصادية والأمنية”.
وأعربت الشركة عن إمكانية استخدام الحكومة الأمريكية تقنياتها لتعقب الأنشطة الإرهابية وتحسين الأمن السيبراني، مؤكدةً أن استخدام نماذج الذكاء الاصطناعي الخاصة بها سيُسهم في إبقاء الولايات المتحدة في الطليعة التقنية عالميًا، ويدعم مصالحها الإستراتيجية والجيوسياسية.
وأوضح متحدث باسم ميتا أن الشركة ستشارك تقنياتها مع الدول الحلفاء للولايات المتحدة، مثل كندا وبريطانيا وأستراليا ونيوزيلندا.
ومن المتوقع أن يواجه هذا التحول في سياسة ميتا انتقادات واسعة، إذ أثار توظيف التكنولوجيا لغايات عسكرية جدلًا في كبرى الشركات التقنية في السنوات الأخيرة، وبرزت احتجاجات لموظفي شركات، مثل مايكروسوفت وجوجل وأمازون، على صفقات أُبرمت مع جهات عسكرية، ومنها مشروع نيمبوس ذو السمعة السيئة الذي يربط شركتي جوجل وأمازون بالحكومة الإسرائيلية.
ويأتي هذا التطور بعد أن أفادت وكالات أنباء بأن بعض المؤسسات البارزة المرتبطة بالجيش الصيني قد طوّرت أدوات ذكاء اصطناعي لأغراض عسكرية محتملة، معتمدةً على نماذج ميتا المفتوحة المصدر
المصدر: مأرب برس
إقرأ أيضاً:
بريطانيا تحذر من ديب سيك: لوضع معايير تطوير الذكاء الاصطناعي بشكل آمن
الاقتصاد نيوز - متابعة
حذرت المملكة المتحدة مواطنيها وشركاتها، وقالت "توخوا الحذر"، حول سبل التعامل مع نموذج الذكاء الاصطناعي الصيني الجديد المثير للجدل، ديب سيك DeepSeek، ملوحةً لاحتمال حظره بالكامل.
وقالت وزيرة الذكاء الاصطناعي في المملكة المتحدة، فريال كلارك، في الوقت الذي تواجه فيه الحكومات تحدياً حيال مواجهة التطبيقات الصينية المفتوحة المصدر: "في النهاية، القرار شخصي لكل فرد فيما إذا كان سيقوم بتنزيله أم لا.. نصيحتي هي أن يكون المستخدمون على دراية بالمخاطر المحتملة ويفهموا كيفية استخدام بياناتهم".
وكتبت الوزيرة البريطانية على منصة إكس أن المملكة المتحدة تقود الطريق من خلال وضع معايير عالمية تضمن تطوير الذكاء الاصطناعي بشكل آمن.
وأضافت ستساعد قواعد الممارسة المحدثة على حماية الأنظمة والبيانات المهمة، حتى تتمكن الشركات من تقديم أحدث تقنيات الذكاء الاصطناعي التي تدفع النمو وتحسن الخدمات العامة بشكل أفضل.
وفي اعتراف بتفوق التطبيق الصيني، أقر الرئيس التنفيذي لشركة أوبن إيه آي OpenAI، سام ألتمان، بخطأ عدم استخدام استراتيجية المصدر المفتوح التي تبنتها شركة ديب سيك الصينية.
وكان النموذج الصيني الجديد قد أحدث هزة في الأسواق العالمية، مثيراً أسئلة حول مستقبل الذكاء الاصطناعي ومعايير الأمان والسلامة وحماية المعلومات الشخصية.
وقال ألتمان "أعتقد شخصياً أننا كنا على الجانب الخطأ من التاريخ هنا ونحتاج إلى معرفة استراتيجية مختلفة للمصدر المفتوح، إن ديب سيك نموذج جيد جداً".
جاءت تعليقات ألتمان خلال جلسة أسئلة على ريديت Reddit وأجاب عن أسئلة، بما في ذلك ما إذا كان سيفكر في نشر أبحاث أوبن إيه آي، وأجاب ألتمان بأنه يؤيد الفكرة وأنها موضوع نقاش داخل الشركة التي يقع مقرها في سان فرانسيسكو.
ووفقاً لألتمان، فإن تطبيق استراتيجية فتح المصدر ليست من أولويات الشركة حالياً إذ لم تتوافق بشأنها آراء جميع مَن بالشركة.
ليصلك المزيد من الأخبار اشترك بقناتنا على التيليكرام