تتعاون وحدة خدمات الحوسبة السحابية التابعة لمجموعة علي بابا القابضة وشركة أشباه الموصلات العملاقة إنفيديا في مبادرة الذكاء الاصطناعي التي ستمكن شركات صناعة السيارات الصينية من تطوير تجربة القيادة الذاتية لأصحاب المركبات الذكية.
أعلنت علي بابا كلاود، العمود الفقري للتكنولوجيا الرقمية لعملاق التجارة الإلكترونية، يوم الجمعة عن هذا التعاون، حيث كشفت عن حل نموذج متعدد الوسائط كبير الحجم لتطبيقات السيارات التي طورتها بالاشتراك مع إنفيديا وشركة Banma Network Technology الناشئة، مزود حلول قمرة القيادة الذكية لشركة علي بابا، في مؤتمر Apsara الذي يستمر حتى يوم السبت.

تمتلك علي بابا صحيفة South China Morning Post.
تم دمج محفظة Qwen الخاصة بشركة علي بابا كلاود ومقرها هانغتشو من نماذج اللغة الكبيرة (LLMs) - بما في ذلك Qwen2-7B و Qwen2-VL - مع منصة Drive AGX Orin من إنفيديا للسيارات ذاتية القيادة. نماذج اللغة الكبيرة هي التكنولوجيا التي تدعم خدمات الذكاء الاصطناعي التوليدي مثل ChatGPT.

يمثل هذا أول دمج لنماذج الذكاء الاصطناعي الكبيرة من Alibaba Cloud في منصة السيارات Drive من Nvidia، والتي تستخدمها شركات تصنيع السيارات الكهربائية الصينية الكبرى - بما في ذلك Li Auto وGreat Wall Motors وZeekr Intelligent Technology من Geely Auto ووحدة السيارات الكهربائية من Xiaomi - لتشغيل أساطيل الجيل التالي الخاصة بهم.
تعمل منصة Drive AGX Orin من Nvidia على نظام رقاقة بمثابة العقل لأنظمة القيادة الآلية الذكية التي تستخدمها شركات تصنيع السيارات الكهربائية الصينية الكبرى. الصورة: Handout

لقد نجحت تقنية تسريع النماذج من Nvidia بالفعل في تقليل التكاليف الحسابية بشكل كبير وتقليل زمن الوصول في المعالجة في الوقت الفعلي للمهام المعقدة بواسطة نماذج الذكاء الاصطناعي من Alibaba Cloud. وهذا يضمن تجربة ذكية سلسة وغير منقطعة لكل من السائقين والركاب، وفقًا لـ Alibaba Cloud.

وقال تشو جينجرين، كبير مسؤولي التكنولوجيا في علي بابا كلاود، في الحدث: "بالتعاون مع شركائنا، نريد تمكين المزيد من الشركات والأفراد لإطلاق العنان لإمكانات الذكاء الاصطناعي التوليدي".

بفضل القدرات المتقدمة التي تتمتع بها Qwen في التعامل مع الاستفسارات المعقدة ومعالجة الذكاء البصري، سيمكن حل LMM الجديد المساعدين الصوتيين داخل السيارة من المشاركة في محادثات ديناميكية متعددة الأدوار، وفقًا لـ Alibaba Cloud. سيتمكن هؤلاء المساعدون أيضًا من تقديم توصيات، تتراوح من تقديم معلومات حول المعالم القريبة إلى اقتراح تشغيل مصابيح السيارة الأمامية بشكل استباقي أثناء ظروف معينة.

كجزء من حل LMM هذا، سيمكن Mobile Agent من Alibaba Cloud مالكي المركبات من تنفيذ الأوامر الصوتية دون عناء، مثل طلب ميلك شيك من خلال تطبيق توصيل الطعام، مما يؤدي إلى تجارب أكثر ثراءً داخل السيارة، وفقًا لـ Alibaba Cloud.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی علی بابا

إقرأ أيضاً:

الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة

كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.

ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل. 

"مانوس" هل ينافس "تشات جي بي تي" ..تطبيق صيني جديد يثير الجدل بعد " ديب سيك"|ما القصة؟بعد رفضها ديب سيك.. شراكة بين أبل وعلي باباديب سيك R1 يساهم في تطوير برامج الفدية الخبيثة

ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.

في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".

ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.

وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.

وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.

وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".

في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.

على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.

مقالات مشابهة

  • المجلس الرمضاني العلمي يناقش «الذكاء الاصطناعي إلى أين؟»
  • استطلاع جديد يكشف: الذكاء الاصطناعي العام بعيد المنال
  • الصدر يعلق على استخدام الذكاء الاصطناعي
  • الذكاء الاصطناعي يفك لغزاً علمياً استعصى على العلماء لعقد كامل
  • استشاري: الذكاء الاصطناعي يفرض تحديات على بعض الوظائف التقليدية
  • بين الابتكار والسيطرة.. هيمنة الذكاء الاصطناعي الصيني
  • أيام أقل لتدريب الموظفين الجدد بفضل الذكاء الاصطناعي
  • إيران.. إطلاق منصة وطنية لـ«الذكاء الاصطناعي»
  • النمو السريع في سوق الذكاء الاصطناعي يعقّد مهمة المستثمرين
  • الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة