غرفة الطباعة والتغليف تطلق دورة تدريبية متخصصة لتعزيز قدرات العاملين في الأوفست
تاريخ النشر: 5th, February 2025 GMT
تابع أحدث الأخبار عبر تطبيق
أقامت غرفة صناعات الطباعة والتغليف باتحاد الصناعات المصرية في الرابع من فبراير الجاري دورة تدريبية جديدة لمدة 3 أيام متتالية تحت عنوان "إدارة وحل الأعطال في طباعة الأوفست"، وتأتي هذه الدورة استجابة مباشرة للاحتياجات المتزايدة للقطاع لتحسين الأداء ورفع مستوى الكفاءة التشغيلية، وتطوير مهارات العاملين في مواجهة التحديات التقنية بالمقر التدريبي للغرفة بإتحاد الصناعات المصرية.
وفي هذا الإطار، أكدت الغرفة على أهمية الاستمرار في تقديم دورات تدريبية للقطاع لحل المشكلات التي تواجه المطابع وتوفير الموارد والخامات حيث نؤمن بأن الاستثمار في تطوير مهارات العاملين هو أساس النمو والازدهار لقطاع الطباعة وهذه الدورة تأتي ضمن جهودنا المستمرة لتمكين شركات القطاع من تحقيق أعلى معايير الجودة والكفاءة، ومواكبة التطورات التقنية المتسارعة في هذا المجال".
وقال المهندس نديم إلياس، رئيس مجلس إدارة الغرفة، إن الدورة تركز بشكل خاص على تزويد المشاركين بالمهارات العملية اللازمة لتلبية احتياجات قطاع الطباعة التجارية وتحسين الأداء عبر تحديد أسباب المشكلات الطباعية وطرق علاجها مما يمكنهم من تحسين أدائهم، وتقليل الفاقد في الوقت والخامات، مما ينعكس إيجابا على الإنتاجية، واستهدفت هذه الدورة مجموعة متنوعة من العاملين في قطاع الطباعة، بما في ذلك، مدراء ورؤساء أقسام ومشرفي الإنتاج والجودة.
وأضاف، تغطي الدورة مجموعة واسعة من المحاور الأساسية في مجال طباعة الأوفست، بما في ذلك، الخامات وأنواعها، خصائصها، وتأثيرها على جودة المطبوعات، والأحبار، وخصائصها، واستخداماتها، وكيفية اختيار الحبر المناسب لكل نوع من أنواع الطباعة والألواح الطباعية بأنواعها، وكيفية التعامل معها وغيرها من الأمور الفنية حول عملية الطباعة.
المصدر: البوابة نيوز
كلمات دلالية: غرفة صناعات الطباعة والتغليف
إقرأ أيضاً:
ميتا تطلق Llama 4 .. مجموعة جديدة من نماذج الذكاء الاصطناعي الرائدة
في خطوة جريئة تؤكد بها Meta استمرارها في سباق الذكاء الاصطناعي، كشفت الشركة، بشكل غير تقليدي عن مجموعة Llama 4 الجديدة من نماذج الذكاء الاصطناعي، والتي تشمل Llama 4 Maverick، Llama 4 Scout، و Llama 4 Behemoth "قيد التدريب حتى الآن.
تقول Meta إن هذه النماذج دربت على "كميات ضخمة من البيانات النصية، والصور، ومقاطع الفيديو غير المصنفة"، مما يمنحها "فهمًا بصريًا واسع النطاق".
منافسة شرسة مع DeepSeek الصينيةيبدو أن إطلاق Llama 4 جاء كرد فعل مباشر على النجاح المتزايد لنماذج DeepSeek الصينية مفتوحة المصدر، مثل R1 وV3، التي أثبتت كفاءة عالية وأداءً يعادل أو يفوق نماذج Llama السابقة.
ووفقًا للتقارير، أطلقت Meta "غرف طوارئ" لفهم كيف نجحت DeepSeek في تقليل تكاليف تشغيل وتوزيع هذه النماذج.
أصبح كلا من Scout وMaverick متاحين الآن عبر Llama.com ومن خلال شركاء Meta مثل منصة Hugging Face، أما Behemoth لا يزال قيد التدريب.
فيما تم تحديث مساعد Meta AI الذكي ليستخدم Llama 4 في 40 دولة، بما في ذلك تطبيقات مثل واتساب، وإنستجرام، وماسنجر، لكن الخصائص متعددة الوسائط متاحة فقط داخل الولايات المتحدة وبلغة إنجليزية حاليًا.
ومع ذلك، يمنع المستخدمون والشركات الموجودة داخل الاتحاد الأوروبي من استخدام أو توزيع هذه النماذج، نتيجة لقيود تنظيمية تتعلق بالخصوصية والذكاء الاصطناعي فرضها الاتحاد.
كما يتوجب على الشركات التي تضم أكثر من 700 مليون مستخدم نشط شهريًا الحصول على ترخيص خاص من Meta، التي تحتفظ بحق الموافقة أو الرفض.
Llama 4 بداية عصر جديد من الكفاءةتعد Llama 4 أول مجموعة تستخدم بنية تُعرف باسم Mixture of Experts (MoE)، والتي تُقسم عمليات المعالجة إلى مهام فرعية تُسند إلى نماذج فرعية متخصصة تُعرف باسم "الخبراء"، مما يُحسن الكفاءة في التدريب والاستجابة.
على سبيل المثال يحتوي Maverick على 400 مليار معلمة إجمالية، لكن يتم تفعيل 17 مليار معلمة فقط موزعة على 128 خبيرًا، اما Scout فيحتوي على 109 مليار معلمة إجمالية، مع 17 مليار معلمة نشطة فقط و16 خبيرًا.
فيما تظهر اختبارات Meta أن Maverick يتفوق على نماذج مثل GPT-4o من OpenAI وGemini 2.0 من Google في اختبارات متعددة، تشمل الترميز، والاستدلال، والتعامل مع لغات متعددة، وتحليل الصور.
لكنه لا يتفوق على النماذج الأحدث مثل Gemini 2.5 Pro، أو Claude 3.7 Sonnet من Anthropic، أو GPT-4.5.
أما Scout، فيتميز بقدرات قوية في تلخيص المستندات والتعامل مع الأكواد المعقدة، ويمتلك نافذة سياقية ضخمة تصل إلى 10 ملايين رمز (Token)، مما يُمكّنه من تحليل مستندات ضخمة للغاية وحتى الصور.
ويمكن تشغيله باستخدام وحدة GPU Nvidia H100 واحدة، في حين يتطلب Maverick نظام DGX كامل.
Behemoth الوحش القادمأما النموذج الثالث، Behemoth، فيُعد الأضخم على الإطلاق. وفقًا لـMeta، يحتوي على 288 مليار معلمة نشطة و 16 خبيرًا، و ما يقارب تريليوني معلمة إجمالية.
ويظهر أداءً يفوق GPT-4.5، وClaude 3.7 Sonnet، وGemini 2.0 Pro في اختبارات المهارات الرياضية والاستنتاج، لكنه لا يتفوق بعد على Gemini 2.5 Pro.
تغيير في السياسات: Llama 4 أقل تحفظًا في الردودأحد الجوانب المثيرة في Llama 4 أن Meta صمّمته ليكون أقل تحفظًا في التعامل مع الأسئلة الجدلية. فعلى عكس الإصدارات السابقة، أصبح Llama 4 قادرًا على الرد على موضوعات سياسية واجتماعية مثيرة للجدل بمزيد من التوازن وبدون إصدار أحكام.
وأوضح متحدث باسم الشركة لموقع TechCrunch:"يمكنك الاعتماد على Llama 4 للحصول على ردود دقيقة ومفيدة دون إصدار أحكام، نحن نعمل على جعله أكثر تجاوبًا مع مختلف وجهات النظر".
ويأتي هذا التغيير بالتزامن مع انتقادات من شخصيات سياسية أميركية بارزة، مثل إيلون ماسك وديفيد ساكس، الذين اتهموا نماذج الدردشة الذكية بالتحيز ضد الآراء المحافظة.
هل هناك نموذج للتفكير المنطقي؟رغم التقدم الكبير، فإن Llama 4 لا يُصنّف كنموذج "تفكير منطقي" (Reasoning model) مثل o1 وo3-mini من OpenAI، وهي النماذج التي تتحقق من صحة إجاباتها قبل الرد. هذه النماذج أكثر دقة لكنها أبطأ في الأداء.