معهد الابتكار التكنولوجي يطلق نموذج فالكون 3 لتعزيز الوصول إلى تقنيات الذكاء الاصطناعي عبر الأجهزة الخفيفة
تاريخ النشر: 19th, December 2024 GMT
أطلق معهد الابتكار التكنولوجي، التابع لمجلس أبحاث التكنولوجيا المتطوِّرة في أبوظبي، فالكون 3، الإصدار الأحدث ضمن سلسلة النماذج اللغوية الكبيرة مفتوحة المصدر، ما يتيح وصولاً أوسع إلى تقنيات الذكاء الاصطناعي المتقدِّمة من خلال تشغيل النموذج بكفاءة على أجهزة خفيفة.
ويتيح هذا الإصدار وصولاً أوسع إلى تقنيات الذكاء الاصطناعي المتقدِّمة من خلال تشغيل النموذج بكفاءة على أجهزة صغيرة مثل الحواسيب المحمولة.
وصُمِّم فالكون 3 ليتيح تقنيات الذكاء الاصطناعي عالية الأداء للجميع، مقدِّماً نماذج تجمع بين القوة والكفاءة، ودُرِّب على 14 تريليون رمز توكين، أي ما يزيد على ضعف تدريب الإصدار السابق الذي اعتمد على 5.5 تريليونات رمز فقط، ما يمنحه تفوُّقاً ملحوظاً في مختلف المعايير.
ويمتاز فالكون 3 بأنه أحد أفضل النماذج عالمياً، القادرة على العمل بكفاءة باستخدام وحدة معالجة رسومات واحدة فقط. وحقَّق المركز الأول على قائمة منصة Hugging Face العالمية للنماذج اللغوية الكبيرة مفتوحة المصدر، متفوِّقاً على نماذج أخرى بحجم مشابه.
وقال معالي فيصل البناي، الأمين العام لمجلس أبحاث التكنولوجيا المتطورة ومستشار رئيس الدولة لشؤون الأبحاث الاستراتيجية والتكنولوجيا المتقدمة: «لا يمكن إنكار الأثر التحويلي الكبير للذكاء الاصطناعي، واليوم نعزِّز ريادتنا في مجتمع الذكاء الاصطناعي، لا سيما مجال المصادر المفتوحة، من خلال إطلاق سلسلة النماذج النَّصية فالكون 3. ويُمثِّل هذا الإصدار امتداداً طبيعياً لما بدأناه مع فالكون 2، وخطوة أساسية نحو عصر جديد من الابتكار في الذكاء الاصطناعي. وإنَّ التزامنا بجعل هذه التقنيات المبتكرة متاحة للجميع يعكس رؤيتنا لتحقيق المساواة العالمية ودفع عجلة الابتكار للجميع».
وقالت الدكتورة نجوى الأعرج، الرئيس التنفيذي لمعهد الابتكار التكنولوجي: «إنَّ تفانينا في البحث العلمي المتقدِّم وجذب الكفاءات المتميِّزة قد أثمر عن إطلاق فالكون 3، الذي يُجسِّد رؤيتنا في تحقيق التميُّز العلمي، مع تعزيز الكفاءة ووضع معايير جديدة في مجال الذكاء الاصطناعي».
وقال الدكتور حكيم حسيد، كبير الباحثين في وحدة الذكاء الاصطناعي التابعة لمعهد الابتكار التكنولوجي: «في ظل التقدُّم السريع الذي تشهده تقنيات الذكاء الاصطناعي، نفخر بدورنا الفاعل في هذه الرحلة المبتكرة. يمثِّل فالكون 3 خطوة نوعية تدفع حدود النماذج اللغوية الصغيرة إلى آفاق أوسع، معزِّزاً مجتمع المصادر المفتوحة عبر تقديم ذكاء اصطناعي عالي الكفاءة. ونحن على ثقة بأنَّ هذا الإصدار سيفتح آفاقاً لا حدود لها، وسيحقِّق فوائد ملموسة، ما يتيح للشركات والأفراد استثمار قدرات الذكاء الاصطناعي بطرق جديدة وغير مسبوقة».
المصدر: جريدة الوطن
كلمات دلالية: تقنیات الذکاء الاصطناعی الابتکار التکنولوجی فالکون 3
إقرأ أيضاً:
تحسين لغة الإشارة عالمياً بواسطة الذكاء الاصطناعي
قام فريق بحثي بواسطة الذكاء الاصطناعي بتحسين دقة التعرف على لغة الإشارة على مستوى الكلمات، من خلال إضافة بيانات مثل يد الشخص الذي يستخدم لغة الإشارة وتعبيرات وجهه، إضافة إلى معلومات هيكلية عن موضع اليدين بالنسبة للجسم.
الإضافة الجديدة تحسن دقة التعرف على كلمات لغة الإشارة بنسبة 10-15%
وتم تطوير لغات الإشارة من قبل دول في جميع أنحاء العالم لتناسب أسلوب الاتصال المحلي، وتتكون كل لغة من آلاف الإشارات.
وقد جعل هذا من الصعب تعلم لغات الإشارة وفهمها.
والآن، اكتسب استخدام الذكاء الاصطناعي لترجمة الإشارات تلقائياً إلى كلمات، والمعروف باسم التعرف على لغة الإشارة على مستوى الكلمات، الآن دفعة في الدقة من خلال عمل مجموعة بحثية بقيادة جامعة أوساكا متروبوليتان باليابان.
ووفق "ساينس دايلي"، كانت طرق البحث السابقة تركز على التقاط المعلومات حول الحركات العامة للشخص الذي يستخدم لغة الإشارة.
مشاكل الدقةلكن نشأت مشاكل الدقة من المعاني المختلفة التي يمكن أن تنشأ بناءً على الاختلافات الدقيقة في شكل اليد، والعلاقة بين موضع اليدين والجسم.
لذا، عمل الباحثان كاتسوفومي إينوي وماساكازو إيوامورا مع زملاء، بما في ذلك في المعهد الهندي للتكنولوجيا في روركي، لتحسين دقة التعرف بالذكاء الاصطناعي.
تعبيرات اليدوأضاف الباحثون بيانات مثل تعبيرات اليد والوجه، فضلاً عن معلومات هيكلية عن وضع اليدين بالنسبة للجسم، إلى المعلومات المتعلقة بالحركات العامة للجزء العلوي من جسم الشخص الذي يستخدم لغة الإشارة.
وقال الدكتور إينوي: "لقد تمكنا من تحسين دقة التعرف على لغة الإشارة على مستوى الكلمات بنسبة 10-15% مقارنة بالطرق التقليدية. ونتوقع أن يتم تطبيق الطريقة التي اقترحناها على أي لغة إشارة، ما يؤدي على أمل تحسين التواصل مع الأشخاص الذين يعانون من ضعف الكلام والسمع في مختلف البلدان".