دِل تضيف إمكانات فائقة لخادم Dell PowerEdge عبر مسرع الذكاء الاصطناعي Gaudi 3
تاريخ النشر: 25th, April 2024 GMT
نجحت شركة دِل تكنولوجيز في إضافة إمكانات فائقة لخادم (Dell PowerEdge XE9680) الذي يلعب دورًا مهمًا في تسريع الذكاء الاصطناعي والذكاء الاصطناعي التوليدي والتعلم الآلي والتدريب على التعلم العميق ونمذجة الحوسبة عالية الأداء، حيث تم دمج مسرّع الذكاء الاصطناعي Gaudi 3 من إنتل في مجموعة الخوادم مما يعد تقدمًا كبيرًا، إذ يوفر حزمة محسنة من القدرات التكنولوجية المُصممة لتلبية احتياجات أعباء العمل المعقدة وكثيفة البيانات.
استخدام تنوع السيليكون للحلول المخصصة
يبرز الطراز PowerEdge XE9680 من دِل تكنولوجيز كمنصة رائدة تجمع بين تسريع وحدة معالجة الرسومات بثمانية اتجاهات والخادم x86، مما يتيح أداءً استثنائيًا في العمليات التي تتمحور حول الذكاء الاصطناعي. ولذلك، يؤدي دمج مسرّع Gaudi 3 من إنتل في هذا النظام البيئي إلى زيادة قدراته، مما يوفر للعملاء خيار تصميم أنظمتهم وفقًا للاحتياجات الحاسوبية المحددة، لا سيما المرتبطة بأحمال عمل الذكاء الاصطناعي التوليدي.
المواصفات الفنية تقود نجاح العملاء
وبفضل تكوينه المُصمم ليزدهر في بيئات تصل درجة حرارتها إلى 35 درجة مئوية، يعزز الطراز XE9680 الموثوقية وقابلية التوسع. وتعمل إضافة مسرعات Gaudi 3 من إنتل على إثراء إمكانيات تكوين الخادم. ويتضمن ذلك ما يصل إلى 32 فتحة لوحدة الذاكرة المضمنة المزدوجة (DIMM) لسرعة النقل المضاعفة DDR 5 وذلك لتحسين إنتاجية البيانات، و16 محرك أقراص EDSFF3 لحلول تخزين البيانات الفائقة، وثماني فتحات PCIe Gen 5.0 لتوسيع الاتصال وعرض النطاق الترددي. كما تم تصميم خادم XE9680، المجهز بمعالجين Intel® Xeon® Scalable من الجيل الرابع مع ما يصل إلى 56 مركزًا، بما يعزز أداء تطبيقات الذكاء الاصطناعي والتعلم الآلي المطلوبة، مما يمنحه ميزة تنافسية في معالجة البيانات وتحليلها.
التطورات الاستراتيجية لرؤى الذكاء الاصطناعي
يتفوق الطراز PowerEdge XE9680، مع إضافة مسرعات إضافية، على قدرات الأجهزة التقليدية، مما يجعله أداة بالغة الأهمية للمؤسسات التي تتطلع إلى تسخير الذكاء الاصطناعي للحصول على رؤى عميقة للبيانات. ويرسي هذا المزيج من قدرة المعالجة القوية والتصميم الفعال المبرد بالهواء، معيارًا جديدًا لتسريع الذكاء الاصطناعي، مما يوفر رؤى سريعة وقابلة للتنفيذ لتعزيز نتائج الأعمال.
الانفتاح التكنولوجي وتعزيز الابتكار
يقدم مسرّع الذكاء الاصطناعي Gaudi 3 من إنتل ميزات الأداء الحيوية لأحمال عمل الذكاء الاصطناعي التوليدي، حيث يتضمن 64 بت من بروتوكول التحكم بالإرسال TPCمخصص وقابل للبرمجة، و128 جيجابايت من سعة ذاكرة النطاق الترددي العالي HBM2E، مما يوفر 3.7 تيرابايت من عرض النطاق الترددي للذاكرة، و96 ميجابايت من ذاكرة الوصول العشوائي الثابتة (SRAM). وتم تحسين المنظومة المفتوحة لمسرّع Gaudi 3 من خلال الشراكات، ودعمه بإطار قوي من المكتبات النموذجية، حيث تعمل أدوات التطوير الخاصة به على تبسيط عملية الانتقال إلى قواعد التعليمات البرمجية الموجودة، مما يقلل الترحيل إلى بضعة أسطر من التعليمات البرمجية.
قدرات مميزة في مجال الشبكات وفك تشفير الفيديو
يقدم الطراز PowerEdge XE9680، المعزز بمسرّع Gaudi 3، إمكانات ربط شبكي جديدة مدمجة مباشرة في المسرعات عبر ستة منافذ OSFP 800GbE. وتسمح هذه الروابط بإجراء اتصالات مباشرة بنسيج التسريع الخارجي دون الحاجة إلى تثبيت بطاقات NIC إضافية في النظام. وهذا لا يؤدي إلى تبسيط البنية التحتية فحسب، بل يقلل أيضًا من التكلفة الإجمالية للملكية ويقلل من تعقيد البنية التحتية. وعلاوة على ذلك، فإن أجهزة فك ترميز الوسائط المتخصصة Gaudi 3 من إنتل مخصصة لتطبيقات رؤية الذكاء الاصطناعي، وقادرة على التعامل مع مهام المعالجة المسبقة الشاملة، وبالتالي تبسيط عمليات تحويل الفيديو إلى نص وتحسين الأداء لتطبيقات الذكاء الاصطناعي للشركات.
الطراز PowerEdge XE9680 من دِل تكنولوجيز المزود بمسرّع Gaudi 3: خطوة نحو الأمام في تطوير الذكاء الاصطناعي
يمثل التعاون بين دِل تكنولوجيز وإنتل، والذي أدى إلى إنتاج الطراز PowerEdge XE9680 المزود بمسرّع الذكاء الاصطناعي Gaudi 3، نقطة تحول في حوسبة الذكاء الاصطناعي، فهو يوفر حلاً تطلعيًا يلبي المتطلبات الحالية لأعباء عمل الذكاء الاصطناعي ويتوقع الاحتياجات المستقبلية للصناعة. ويهدف هذا التعاون إلى تزويد قادة التكنولوجيا بأدوات ابتكار متطورة، ودفع حدود تطوير الذكاء الاصطناعي ووضع معايير جديدة للجودة والكفاءة الحاسوبية.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی التولیدی د ل تکنولوجیز
إقرأ أيضاً:
الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.
إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.
وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي
تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.
لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.
كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.
أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.
وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.
المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.
وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.
قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.
ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.
أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.
أخبار ذات صلةتُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.
وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.
وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.
وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.
الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.
توصي الورقة بعدد من الإجراءات الوقائية، للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.
وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.
مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.
على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.
وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.
وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.
لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)