«ميتا» تردّ على تطوير نموذج «ذكاء اصطناعي» لأغراض عسكرية
تاريخ النشر: 2nd, November 2024 GMT
أصبحت تكنولوجيا الذكاء الاصطناعي العسكري محل اهتمام مستمر في الصين، إذ تسعى إلى ترسيخ نفسها كقوة رائدة لهذه التقنية، حيث تم الكشف أن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج “لاما” المتاح للجمهور الذي ابتكرته شركة “ميتا”، في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة.
وكشفت ثلاث أوراق أكاديمية بحثية، نشرت في يونيو الماضي، قدم ستة باحثين صينيين من ثلاث مؤسسات، منهم مؤسستان تابعتان لـ”أكاديمية العلوم العسكرية البحثية” الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج “لاما” كقاعدة لما يسمونه “تشات بي.آي.تي”.
واستخدم الباحثون نموذجاً سابقاً للغة من “لاما 13بي” تابعاً لشركة “ميتا” ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تركز على الأغراض العسكرية، لجمع ومعالجة المعلومات الاستخباراتية وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.
وذكرت الدراسة أن برنامج “تشات بي.آي.تي” تم تنقيحه وتحسينه لأداء مهام الحوار والإجابة على الأسئلة في المجال العسكري”، إذ اتضح أنه يتفوق على بعض نماذج الذكاء الاصطناعي الأخرى التي تبلغ قدرتها نحو 90 % تقريباً، مثل برنامج Chat GPT-4 لشركة OpenAI. ولم يوضح الباحثون كيف قيموا الأداء ولم يحددوا ما إذا كان نموذج الذكاء الاصطناعي قد تم تطبيقه.
بدورها، قالت مديرة السياسات العامة في “ميتا”، مولي مونتجومري: “أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به ويناقض سياستنا للاستخدام المقبول”.
وذكر ساني تشيونج، الزميل المشارك في مؤسسة “جيمس تاون” والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين ومنها الذكاء الاصطناعي، أن :”هذه المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجياً ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديداً تلك التي تنتجها شركة ميتا، لأغراض عسكرية”.
وأتاحت “ميتا” الاستخدام المفتوح للكثير من نماذجها للذكاء الاصطناعي ومنها “لاما”، إذ تفرض قيوداً على استخدامها تتضمن شرط أن تطلب الخدمات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من الشركة.
وتحظر شروطها أيضاً استخدام النماذج في “الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس” وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلاً عن تطوير الأسلحة والمحتوى الذي يراد به “التحريض على العنف والترويج له”.
لكن، لأن نماذج “ميتا” عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط. وأشارت “ميتا” إلى سياسة الاستخدام المقبولة وقالت إنها “اتخذت إجراءات لمنع سوء الاستخدام”.
المصدر: عين ليبيا
كلمات دلالية: اغراض عسكرية الذكاء الاصطناعي الصين لاما ميتا الذکاء الاصطناعی
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.