أعلنت شركة Meta يوم الثلاثاء عن إطلاق Llama 3.1، وهو الإصدار الأحدث من نموذجها اللغوي الكبير الذي تدعي الشركة أنه ينافس الآن منافسين من OpenAI وAnthropic. ويأتي النموذج الجديد بعد ثلاثة أشهر فقط من إطلاق Meta لـ Llama 3 من خلال دمجها في Meta AI، وهو برنامج دردشة آلي يعيش الآن في Facebook وMessenger وInstagram وWhatsApp ويعمل أيضًا على تشغيل النظارات الذكية للشركة.

في غضون ذلك، أصدرت OpenAI وAnthropic بالفعل إصدارات جديدة من نماذج الذكاء الاصطناعي الخاصة بهما، وهي علامة على أن سباق التسلح في مجال الذكاء الاصطناعي في وادي السيليكون لن يتباطأ في أي وقت قريب.

وقال ميتا إن النموذج الجديد، المسمى Llama 3.1 405B، هو أول نموذج متاح بشكل مفتوح يمكنه التنافس ضد المنافسين في المعرفة العامة ومهارات الرياضيات والترجمة عبر لغات متعددة. تم تدريب النموذج على أكثر من 16000 وحدة معالجة رسوميات NVIDIA H100، وهي حاليًا أسرع الرقائق المتاحة والتي تبلغ تكلفة كل منها حوالي 25000 دولار، ويمكنها التغلب على المنافسين في أكثر من 150 معيارًا، حسبما ادعى Meta.


يرمز "405B" إلى 405 مليار معلمة، وهي متغيرات داخلية يستخدمها نموذج الذكاء الاصطناعي للتفكير واتخاذ القرارات. كلما زاد عدد المعلمات التي يحتوي عليها نموذج الذكاء الاصطناعي، كلما أدركنا أنه أكثر ذكاءً. وبالمقارنة، يقال إن نموذج GPT-4 الخاص بشركة OpenAI يحتوي على ما يقرب من 1.5 تريليون معلمة، على الرغم من أن الشركة لم تكشف عن العدد حتى الآن. بالإضافة إلى ذلك، أصدرت Meta أيضًا إصدارات مطورة من نماذج Llama الحالية التي تحتوي على 70 مليار و8 مليار معلمة لكل منها، مدعية أن الإصدارات الأحدث تتمتع بقدرات تفكير أقوى من بين أشياء أخرى.

يمكن للمطورين تنزيل Llama 3.1 من موقعها الرسمي على الويب، بينما يمكن للمستخدمين العاديين اللعب به من خلال Meta AI في WhatsApp أو على meta.ai، موقع الشركة الإلكتروني الخاص ببرنامج الدردشة الآلي الخاص بها. وجاء في منشور مدونة Meta أن "قدرات الاستدلال المحسنة لـ Llama 405B تتيح لـ Meta AI فهم أسئلتك الأكثر تعقيدًا والإجابة عليها، خاصة فيما يتعلق بموضوعات الرياضيات والبرمجة". "يمكنك الحصول على مساعدة في واجبك المنزلي في الرياضيات من خلال التوضيحات والتعليقات خطوة بخطوة، وكتابة التعليمات البرمجية بشكل أسرع من خلال دعم تصحيح الأخطاء والتحسين." (ملاحظة المحرر: موقع Engadget سيضع Llama 3.1 في مواجهة New York Times Spelling Bee وسيقدم لك تقريرًا بذلك). في الوقت الحالي، لا يزال Meta AI على Facebook وMessenger وInstagram يقتصر على الإصدار الأصغر من Llama 3.1 الذي يستخدم 70 مليار معلمة.

على عكس OpenAI وGoogle وMicrosoft وAnthropic التي تحافظ على ملكية نماذج الذكاء الاصطناعي الخاصة بها، فإن نماذج الذكاء الاصطناعي الخاصة بـ Meta هي مفتوحة المصدر، مما يعني أنه يمكن لأي شخص تعديلها واستخدامها مجانًا دون مشاركة البيانات الشخصية مع Meta. في رسالة نُشرت يوم الثلاثاء، جادل الرئيس التنفيذي لشركة Meta، مارك زوكربيرج، بأن نهج المصدر المفتوح لتطوير الذكاء الاصطناعي سيضمن وصولاً أوسع إلى فوائد التكنولوجيا، ويمنع تركيز السلطة بين عدد قليل من الشركات الكبرى، ويتيح نشر الذكاء الاصطناعي بشكل أكثر أمانًا عبر المجتمع. وكتب زوكربيرج أنه من خلال المصدر المفتوح لأكبر نموذج لغة للشركة حتى الآن، تهدف Meta إلى جعل Llama "معيار الصناعة" لأي شخص لتطوير التطبيقات والخدمات التي تدعم الذكاء الاصطناعي.

إن نماذج الذكاء الاصطناعي مفتوحة المصدر وإضافتها إلى منتجاتها الحالية المستخدمة بالفعل من قبل مليارات الأشخاص يمكن أن تسمح لشركة Meta بالتنافس بشكل أكثر فعالية مع OpenAI التي أشعلت روبوتات الدردشة ChatGPT وDALL-E انفجارًا في الذكاء الاصطناعي عندما تم إطلاقها في عام 2022. ويمكنها أيضًا تعزيز المشاركة – أعلنت شركة Meta اليوم أن المستخدمين سيتمكنون قريبًا من إضافة الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مباشرةً إلى الموجزات والقصص والتعليقات والرسائل عبر Facebook وMessenger وWhatsApp وInstagram.

في رسالته، انتقد زوكربيرج أيضًا شركة Apple ونظامها البيئي المغلق، بحجة أن السياسات التقييدية والتعسفية التي تتبعها الشركة المصنعة لهواتف iPhone قد قيدت ما يمكن أن تبنيه Meta على منصاتها. كتب: "من الواضح أن شركة ميتا والعديد من الشركات الأخرى سيتم تحريرها لبناء خدمات أفضل بكثير للناس إذا تمكنا من بناء أفضل الإصدارات من منتجينا، ولم يكن المنافسون قادرين على تقييد ما يمكننا بناءه".

المصدر: بوابة الوفد

كلمات دلالية: نماذج الذکاء الاصطناعی من خلال شرکة Meta

إقرأ أيضاً:

معالج Intel Xeon 6 يسجل أداء مميزا في الذكاء الاصطناعي

نشرت MLCommons، اليوم نتائج مجموعة معايير أداء الذكاء الاصطناعي القياسية في الصناعة MLPerf Inference v4.1، حيث حققت انتل نتائج متميزة عبر ستة معايير MLPerf لمعالجات الجيل الخامس Intel®️ Xeon®️ Scalable، وللمرة الأولى، معالجات Intel®️ Xeon®️ 6 ذات نوى الأداء (P-cores) فقد حققت معالجات Intel Xeon 6 ذات نوى الأداء تحسنًا في الأداء بمقدار 1.9 ضعفًا في متوسط ​​أداء الذكاء الاصطناعي مقارنة بمعالجات الجيل الخامس Xeon.

قالت بالافي ماهاجان، نائب رئيس شركة إنتل والمدير العام لمركز البيانات وبرامج الذكاء الاصطناعي إن أحدث نتائج MLPerf أظهرت مدى أهمية الاستثمار المستمر وتوفير الموارد لتحسين أداء الذكاء الاصطناعي، فعلى مدار السنوات الأربع الماضية، رفعنا مستوى أداء الذكاء الاصطناعي على معالجات Intel Xeon بما يصل إلى 17 ضعفًا استنادًا إلى MLPerf" مؤكدة أن الشركة نتطلع إلى زيادة إنتاج Xeon 6 .

لماذا تعد نتائج MLPerf مهمة: تتطلب أنظمة الذكاء الاصطناعي وحدات المعالجة المركزية كمكون أساسي لنشر الحلول بنجاح عبر مجموعة متنوعة من السيناريوهات ويوفر Intel Xeon حلاً رائعًا لاستنتاج الذكاء الاصطناعي، بما في ذلك التعلم الآلي الكلاسيكي وتضمين البحث المتجهي.

وكانت شركة انتل قد قدمت معالجات Intel Xeon من الجيل الخامس ومعالجات Xeon 6 مع P-Cores على ResNet50 وRetinaNet و3DUNet وBERT وDLRM v2 وGPT-J إلى 1.MLPerf Inference v4.

وبالمقارنة مع الجيل الخامس من Intel Xeon، يوفر Xeon 6 متوسط ​​أداء أفضل بنحو 1.9 مرة في استنتاج الذكاء الاصطناعي عبر هذه المعايير الستة ،وتظل شركة انتل هي بائع معالجات الخوادم الوحيد الذي يقدم نتائج وحدة المعالجة المركزية إلى MLPerf.

وعلى مدار السنوات الأربع الماضية، حققت شركة إنتل مكاسب كبيرة في أداء الذكاء الاصطناعي مع وحدات المعالجة المركزية منذ أن قدمت نتائج MLPerf لأول مرة.

وبالمقارنة مع معالجات الجيل الثالث Intel®️ Xeon®️ القابلة للتطوير في عام 2021، فإن أداء Xeon 6 أفضل بما يصل إلى 17 مرة في معالجة اللغة الطبيعية (BERT) وأفضل بما يصل إلى 15 مرة في أحمال عمل الرؤية الحاسوبية (ResNet50).

كما تواصل إنتل الاستثمار في الذكاء الاصطناعي لخريطة طريق وحدات المعالجة المركزية الخاصة بها. على سبيل المثال، تواصل الابتكار مع Intel®️ Advanced Matrix Extensions (AMX) من خلال أنواع بيانات جديدة وكفاءة متزايدة.

كيف تدعم Intel عملاء الذكاء الاصطناعي: تسلط أحدث معايير MLCommons الضوء على كيفية تقديم معالجات Xeon حلول خادم الذكاء الاصطناعي القوية لوحدة المعالجة المركزية لمصنعي المعدات الأصلية (OEMs).


ومع تزايد الحاجة إلى الحوسبة القائمة على الذكاء الاصطناعي وتشغيل العديد من العملاء لأحمال عمل الذكاء الاصطناعي جنبًا إلى جنب مع أحمال عمل المؤسسات الخاصة بهم، تعطي شركات تصنيع المعدات الأصلية الأولوية لعمليات تقديم MLPerf لضمان تقديم أنظمة Xeon عالية الأداء ومُحسّنة لأحمال عمل الذكاء الاصطناعي للعملاء.

كما دعمت شركة انتل خمسة شركاء من شركات تصنيع المعدات الأصلية - Cisco وDell Technologies وHPE وQuanta وSupermicro - من خلال تقديماتهم لـ MLPerf في هذه الجولة حيث قدم كل عميل نتائج MLPerf باستخدام معالجات Xeon Scalable من الجيل الخامس، مما يدل على دعم أنظمتهم لمجموعة متنوعة من أحمال عمل الذكاء الاصطناعي ونشرها.

فالخطوة التالية، ستقوم شركة Intel بتقديم المزيد من المعلومات حول معالجات Xeon 6 ذات نوى P خلال حدث الإطلاق في سبتمبر الجاري.

مقالات مشابهة

  • هيئة الرقابة في ميتا توصي بعدم حظر عبارة "من النهر إلى البحر"
  • كتشنر التي كانت تعاكسنا أغرقه الله في بحر الشمال يا خينا: كيف اساء كتشنر إعداد معركة سومي (1916) (1-2)
  • سوء استخدام الذكاء الاصطناعي سيكلّف العالم 10 تريليونات دولار
  • هل NVIDIA متهمة بمكافحة الاحتكار في مجال الذكاء الاصطناعي
  • سامسونج تعرض أحدث ابتكارات الذكاء الاصطناعي في IFA 2024
  • أول اتفاقية دولية تمثل أكثر من 50 دولة حول مخاطر الذكاء الاصطناعي
  • الاستثمار في صناديق الذكاء الاصطناعي.. دروس قاسية
  • اتفاق غربي لتوقيع أول معاهدة حول مخاطر الذكاء الاصطناعي
  • معالج Intel Xeon 6 يسجل أداء مميزا في الذكاء الاصطناعي
  • قوانين جمة لتقويض الذكاء الاصطناعي.. ما أثرها؟