أصبحت تكنولوجيا الذكاء الاصطناعي العسكري محل اهتمام مستمر في الصين، إذ تسعى إلى ترسيخ نفسها كقوة رائدة لهذه التقنية، حيث تم الكشف أن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج “لاما” المتاح للجمهور الذي ابتكرته شركة “ميتا”، في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة.

وكشفت ثلاث أوراق أكاديمية بحثية، نشرت في يونيو الماضي، قدم ستة باحثين صينيين من ثلاث مؤسسات، منهم مؤسستان تابعتان لـ”أكاديمية العلوم العسكرية البحثية” الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج “لاما” كقاعدة لما يسمونه “تشات بي.آي.تي”.

واستخدم الباحثون نموذجاً سابقاً للغة من “لاما 13بي” تابعاً لشركة “ميتا” ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تركز على الأغراض العسكرية، لجمع ومعالجة المعلومات الاستخباراتية وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.

وذكرت الدراسة أن برنامج “تشات بي.آي.تي” تم تنقيحه وتحسينه لأداء مهام الحوار والإجابة على الأسئلة في المجال العسكري”، إذ اتضح أنه يتفوق على بعض نماذج الذكاء الاصطناعي الأخرى التي تبلغ قدرتها نحو 90 % تقريباً، مثل برنامج Chat GPT-4 لشركة OpenAI. ولم يوضح الباحثون كيف قيموا الأداء ولم يحددوا ما إذا كان نموذج الذكاء الاصطناعي قد تم تطبيقه.

بدورها، قالت مديرة السياسات العامة في “ميتا”، مولي مونتجومري: “أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به ويناقض سياستنا للاستخدام المقبول”.

وذكر ساني تشيونج، الزميل المشارك في مؤسسة “جيمس تاون” والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين ومنها الذكاء الاصطناعي، أن :”هذه المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجياً ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديداً تلك التي تنتجها شركة ميتا، لأغراض عسكرية”.
وأتاحت “ميتا” الاستخدام المفتوح للكثير من نماذجها للذكاء الاصطناعي ومنها “لاما”، إذ تفرض قيوداً على استخدامها تتضمن شرط أن تطلب الخدمات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من الشركة.

وتحظر شروطها أيضاً استخدام النماذج في “الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس” وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلاً عن تطوير الأسلحة والمحتوى الذي يراد به “التحريض على العنف والترويج له”.

لكن، لأن نماذج “ميتا” عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط. وأشارت “ميتا” إلى سياسة الاستخدام المقبولة وقالت إنها “اتخذت إجراءات لمنع سوء الاستخدام”.

المصدر: عين ليبيا

كلمات دلالية: اغراض عسكرية الذكاء الاصطناعي الصين لاما ميتا الذکاء الاصطناعی

إقرأ أيضاً:

ذبح الخنازير.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟

رغم أن العالم يشهد تقدما تقنيا مذهلا في ظل الذكاء الاصطناعي، فإن هذه الثورة تأتي بجانبها المظلم الذي يهدد سلامة الأنظمة المالية والشخصية. فما بين الفوائد الكبيرة التي يقدمها هذا الذكاء، وبين مخاطر الاحتيال المتزايدة، تزداد الحاجة إلى التأهب لمستقبل أكثر تعقيدا.

لقد شهدنا عام 2024 لمحات عن قدرات الذكاء الاصطناعي في التزييف العميق، واستنساخ الصوت، وعمليات الاحتيال، لكنها كانت مجرد عجلات تدريب للمحتالين أثناء اختبارهم للأوضاع.

ومع دخولنا عام 2025، المليء بالتطورات التقنية المثيرة، يظهر الذكاء الاصطناعي كسلاح ذي حدّين. ففي حين يعزز من قدراتنا، يضعنا أمام خطر داهم قد يجعل من هذا العام نقطة تحول، حيث تصبح العمليات الاحتيالية المدعومة بالذكاء الاصطناعي قوة مهيمنة تهدد الأنظمة المالية والبنوك العالمية، إضافة إلى سمعة البشر ومصداقية الأحداث ومن أبرز هذه العمليات الجديدة عمليات "ذبح الخنازير" (pig butchering scams).

تهديدات مالية غير مسبوقة.. الذكاء الاصطناعي يعيد تعريف الاحتيال

وفقا لتقرير مركز "ديلويت للخدمات المالية" (Deloitte Center for Financial Services)، من المتوقع أن يسهم الذكاء الاصطناعي التوليدي في تحقيق خسائر قد تصل إلى 40 مليار دولار بحلول عام 2027، بزيادة ملحوظة عن 12.3 مليار دولار في عام 2023، وهو ما يمثل معدل نمو سنوي مركب يبلغ 32%.

إعلان

وقد جذب هذا الارتفاع الملحوظ في الخسائر انتباه مكتب التحقيقات الفدرالي، الذي حذر في وقت سابق من ديسمبر/كانون الأول من العام الماضي من أن المجرمين يستغلون الذكاء الاصطناعي لتنفيذ عمليات احتيال على نطاق أوسع، بهدف تعزيز مصداقية مخططاتهم.

الاحتيال كخدمة.. كيف انتقلت الجرائم الإلكترونية إلى مستوى جديد؟

في عالم الاحتيال المدعوم بالذكاء الاصطناعي، ظهرت شركة "هاوتيان إيه آي" (Haotian AI) التي تقدم برامج تغيير الوجه عبر "تليغرام"، في إعلان يظهر أن فريقهم جادّ في عمله، حيث صرحوا علنا: "لدينا فريق بحث وتطوير مكون من مئات المبرمجين وعشرات الخوادم لخدمتكم".

حيث يروج الإعلان لبرامج تغيير الوجه العميقة التي يصعب تمييزها بالعين المجردة، والمصممة خصيصا للمكالمات الخارجية، وهو ما يتناسب تماما مع المحتالين الذين يرغبون في جعل عمليات الاحتيال الرومانسية أكثر مصداقية.

ومع ازدهار هذه التكنولوجيا، شهدت القنوات المخصصة للجريمة الإلكترونية باستخدام الذكاء الاصطناعي والتزييف العميق على "تليغرام" نموا ملحوظا في المحادثات، وهو ما يعكس انتشار هذه الظاهرة.

ووفقا لتحليل أجرته شركة "بوينت برودكتيف" (Point Predictive) في عام 2023، كان هناك حوالي 47 ألف رسالة في تلك القنوات، بينما تجاوز عدد الرسائل عام 2024 أكثر من 350 ألف رسالة، مسجلا زيادة بنسبة 644%.

هجمات الاختراق الإلكتروني للأعمال التي تستخدم التزييف العميق ستصبح تهديدا كبيرا في عام 2025 (شترستوك) عمليات "ذبح الخنازير".. الذكاء الاصطناعي يدخل عالم الاحتيال الجماعي

تخيل جدارا من الهواتف المحمولة، يدير آلاف المحادثات الوهمية لخداع ضحايا من جميع أنحاء العالم في كل دقيقة.

إنه ليس مشهدا من فيلم خيال علمي، بل واقع تكشفه مقاطع الفيديو المتداولة على وسائل التواصل الاجتماعي ومنصات مثل "تليغرام". بل إنها تقنية جديدة تستخدم لتوسيع نطاق عمليات الاحتيال بشكل غير مسبوق.

أحد الأمثلة البارزة هو برنامج ذكي يعرف باسم "معجبو إنستغرام التلقائيون" (Instagram Automatic Fans)، الذي يرسل آلاف الرسائل في الدقيقة لإيقاع المستخدمين في مصيدة عمليات احتيال "ذبح الخنازير" (pig butchering scams).

إعلان

حيث تبدأ الرسائل عادة بجمل بسيطة مثل "صديقي أوصاني بك. كيف حالك؟"، ويتم إرسالها بشكل متكرر لإغراء الضحية.

ومع دخول عام 2025، يتوقع الخبراء أن تستفيد العصابات الإجرامية المتورطة في عمليات "ذبح الخنازير" من تقنية التزييف العميق المدعومة بالذكاء الاصطناعي في مكالمات الفيديو، واستنساخ الصوت، والدردشة الآلية لتوسيع نطاق عملياتها.

لكن ما عمليات احتيال "ذبح الخنازير"؟

وفقا لـ"مكتب المفتش العام" (Office Of Inspector General – OIG) -وهو هيئة مستقلة تشكل داخل الوكالات الحكومية في الولايات المتحدة، مسؤولة عن مراقبة نزاهة وكفاءة العمليات داخل هذه الوكالات- فإن عمليات "ذبح الخنازير" هي نوع من الاحتيال يتعلق بالثقة والاستثمار.

حيث يتم استدراج الضحية تدريجيا لتقديم مساهمات مالية متزايدة، عادة في شكل عملات مشفرة، لصالح استثمار يبدو موثوقا، قبل أن يختفي المحتال بالأموال التي تم تقديمها.

حوالي 53% من المحترفين في مجال المحاسبة تعرضوا لهجمات بالذكاء الاصطناعي المزيف العام الماضي (شترستوك) كيف يستهدفك هذا النوع من الاحتيال كمستهلك؟ قد يتواصل المحتالون معك عشوائيا عبر الرسائل النصية، أو تطبيقات المواعدة، أو منصات التواصل الاجتماعي، ثم يتحولون لاحقا إلى استخدام تطبيقات الدردشة عبر الإنترنت "في أو آي بي" (VOIP). يحاولون بناء علاقات ذات مغزى معك لكسب ثقتك، ثم يعرضون عليك فرصا استثمارية ذات عوائد عالية في أصول افتراضية مثل العملات المشفرة. يطلبون منك فتح حسابات على مواقع استثمار عبر الإنترنت، ويوجهونَك لتحويل الأموال عبر الحوالات المصرفية إلى شركات وهمية، أو عن طريق التحويل المباشر إلى مقدمي خدمات الأصول الافتراضية "في إيه إس بي إس" (VASPs) الشرعيين أو منصات تداول العملات المشفرة. يمارسون ضغوطا عليك للاستثمار بمبالغ أكبر، مهددين بأن العلاقة معهم ستنتهي إذا لم تقم بذلك. إذا نجح الاحتيال، من المحتمل أن يتم خداعك، وسينتهي الأمر بفقدان أموالك. عندما تحاول سحب أموالك، قد تطالبك المواقع بدفع رسوم إضافية لإتمام السحب، أو قد يتم حظر حسابك بالكامل من دون أي استجابة من المحتالين. وفي النهاية، يختفي المحتالون ومعهم جميع أموالك. إعلان

مقالات مشابهة

  • آبل تطلق ماك بوك إير جديد مزود بخصائص ذكاء اصطناعي
  • ذبح الخنازير.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟
  • أوبريتر وكيل ذكاء اصطناعي من أوبن إيه آي يمكنه القيام بالعديد من النشاطات بدلا عنك
  • الخبرات النادرة والمعادلة الجديدة في الذكاء الاصطناعي
  • الخوارزمية الأولى: أساطير الذكاء الاصطناعي
  • حجز المطاعم مجرد بداية.. هونر تكشف عن ذكاء اصطناعي لإدارة المهام اليومية
  • تأخير مرتقب في تطوير سيري الذكية .. تحديات تواجه الذكاء الاصطناعي في آبل
  • أبوظبي .. إطلاق أول برنامج بكالوريوس في مجال الذكاء الاصطناعي
  • حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
  • أبوظبي.. أول برنامج بكالوريوس في مجال الذكاء الاصطناعي