علي بابا وإنفيديا تتعاونان في حل متقدم للقيادة الذاتية وخدمات الحوسبة
تاريخ النشر: 22nd, September 2024 GMT
تتعاون وحدة خدمات الحوسبة السحابية التابعة لمجموعة علي بابا القابضة وشركة أشباه الموصلات العملاقة إنفيديا في مبادرة الذكاء الاصطناعي التي ستمكن شركات صناعة السيارات الصينية من تطوير تجربة القيادة الذاتية لأصحاب المركبات الذكية.
أعلنت علي بابا كلاود، العمود الفقري للتكنولوجيا الرقمية لعملاق التجارة الإلكترونية، يوم الجمعة عن هذا التعاون، حيث كشفت عن حل نموذج متعدد الوسائط كبير الحجم لتطبيقات السيارات التي طورتها بالاشتراك مع إنفيديا وشركة Banma Network Technology الناشئة، مزود حلول قمرة القيادة الذكية لشركة علي بابا، في مؤتمر Apsara الذي يستمر حتى يوم السبت.
تم دمج محفظة Qwen الخاصة بشركة علي بابا كلاود ومقرها هانغتشو من نماذج اللغة الكبيرة (LLMs) - بما في ذلك Qwen2-7B و Qwen2-VL - مع منصة Drive AGX Orin من إنفيديا للسيارات ذاتية القيادة. نماذج اللغة الكبيرة هي التكنولوجيا التي تدعم خدمات الذكاء الاصطناعي التوليدي مثل ChatGPT.
يمثل هذا أول دمج لنماذج الذكاء الاصطناعي الكبيرة من Alibaba Cloud في منصة السيارات Drive من Nvidia، والتي تستخدمها شركات تصنيع السيارات الكهربائية الصينية الكبرى - بما في ذلك Li Auto وGreat Wall Motors وZeekr Intelligent Technology من Geely Auto ووحدة السيارات الكهربائية من Xiaomi - لتشغيل أساطيل الجيل التالي الخاصة بهم.
تعمل منصة Drive AGX Orin من Nvidia على نظام رقاقة بمثابة العقل لأنظمة القيادة الآلية الذكية التي تستخدمها شركات تصنيع السيارات الكهربائية الصينية الكبرى. الصورة: Handout
لقد نجحت تقنية تسريع النماذج من Nvidia بالفعل في تقليل التكاليف الحسابية بشكل كبير وتقليل زمن الوصول في المعالجة في الوقت الفعلي للمهام المعقدة بواسطة نماذج الذكاء الاصطناعي من Alibaba Cloud. وهذا يضمن تجربة ذكية سلسة وغير منقطعة لكل من السائقين والركاب، وفقًا لـ Alibaba Cloud.
وقال تشو جينجرين، كبير مسؤولي التكنولوجيا في علي بابا كلاود، في الحدث: "بالتعاون مع شركائنا، نريد تمكين المزيد من الشركات والأفراد لإطلاق العنان لإمكانات الذكاء الاصطناعي التوليدي".
بفضل القدرات المتقدمة التي تتمتع بها Qwen في التعامل مع الاستفسارات المعقدة ومعالجة الذكاء البصري، سيمكن حل LMM الجديد المساعدين الصوتيين داخل السيارة من المشاركة في محادثات ديناميكية متعددة الأدوار، وفقًا لـ Alibaba Cloud. سيتمكن هؤلاء المساعدون أيضًا من تقديم توصيات، تتراوح من تقديم معلومات حول المعالم القريبة إلى اقتراح تشغيل مصابيح السيارة الأمامية بشكل استباقي أثناء ظروف معينة.
كجزء من حل LMM هذا، سيمكن Mobile Agent من Alibaba Cloud مالكي المركبات من تنفيذ الأوامر الصوتية دون عناء، مثل طلب ميلك شيك من خلال تطبيق توصيل الطعام، مما يؤدي إلى تجارب أكثر ثراءً داخل السيارة، وفقًا لـ Alibaba Cloud.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی علی بابا
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.