"G42" الإماراتية تتعاون مع الشركة المطورة لـ"تشات جي بي تي"
تاريخ النشر: 18th, October 2023 GMT
أعلنت "جي 42" الإماراتية، عن تعاونها مع شركة "أوبن أيه آي"، المتخصصة في أبحاث الذكاء الاصطناعي والمطورة لبرنامج "تشات جي بي تي"، بهدف توفير حلول الذكاء الاصطناعي المتطورة في دولة الإمارات والأسواق الإقليمية.
وتركز هذه الشراكة على الاستفادة من نماذج الذكاء الاصطناعي التوليدي لدى شركة "أوبن إيه آي" في المجالات الخاصة بمجموعة "جي 42"، والتي تشمل الخدمات المالية والطاقة والرعاية الصحية والخدمات العامة.
كما تتعاون الشركتان معاً على تسريع عملية تطوير الحلول بما يضمن للمؤسسات والشركات تحقيق أقصى استفادة من الذكاء الاصطناعي التوليدي في استخداماتها المتخصصة، بحسب ما أوردته وكالة أنباء الإمارات "وام".
وتتيح الحلول التي طورتها "جي 42" للشركات في دولة الإمارات والمنطقة تبسيط عملية دمج الإمكانات المتقدمة للذكاء الاصطناعي في بيئتها الحالية، مما يساهم في إطلاق العنان لإمكانات النماذج الخاصة بشركة أوبن إيه آي.
وينبغي وجود بنية تحتية جاهزة للذكاء الاصطناعي من أجل دفع هذا التوسع في كامل أنحاء المنطقة، حيث تعتزم جي 42 الاعتماد بشكل رئيسي على إمكاناتها الهائلة لإنشاء بنية تحتية للذكاء الاصطناعي، من أجل دعم عمليات الاستنتاج على المستوين المحلي والإقليمي لشركة أون إيه آي على مراكز بيانات مايكروسوفت آزور، وفق بيان الشركة.
وقال بينغ شياو، الرئيس التنفيذي لمجموعة "جي 42": "يكمن جوهر رسالتنا في استخدام الذكاء الاصطناعي للصالح العام بهدف تعزيز الابتكار والتقدم، حيث تتخطى شراكتنا مع أوبن إيه آي المفهوم التقليدي للتعاون التكنولوجي إلى كونها تقارباً في القيمة والرؤية. ويسرّنا التعاون مع الشركة في هذه الرحلة لبناء مستقبل أفضل يستفيد الجميع خلاله من الذكاء الاصطناعي".
ومن جهته، قال سام ألتمان، المؤسس المشارك والرئيس التنفيذي لشركة "أوبن أيه آي": "تعكس شراكتنا مع جي 42 التزامنا المستمر بتحقيق أقصى استفادة من الإمكانات الكبيرة للذكاء الاصطناعي، حيث نهدف إلى تزويد الشركات والمجتمعات بالحلول الفعالة التي تواكب احتياجات المنطقة من خلال الاستفادة من خبرات جي 42 في القطاع. كما يسهم هذا التعاون في وضع الركيزة الأساسية للتقدم العادل في مجال الذكاء الاصطناعي التوليدي على مستوى العالم".
المصدر: سكاي نيوز عربية
كلمات دلالية: ملفات ملفات ملفات جي 42 تكنولوجيا جي 42 الإمارات تشات جي بي تي جي 42 تكنولوجيا للذکاء الاصطناعی الذکاء الاصطناعی إیه آی
إقرأ أيضاً:
اكتشاف مذهل .. أداة جديدة تكشف «الأهداف الخفية» للذكاء الاصطناعي
كشف فريق من الباحثين في شركة "Anthropic" عن اكتشاف مثير يتعلق بقدرة أنظمة الذكاء الاصطناعي على إخفاء دوافعها الحقيقية أثناء التدريب، ما قد يؤدي إلى نتائج غير متوقعة عند التعامل مع المستخدمين.
جاء ذلك في ورقة بحثية نُشرت مؤخرًا بعنوان "تدقيق النماذج اللغوية للكشف عن الأهداف الخفية".
أظهرت الدراسة أن بعض نماذج الذكاء الاصطناعي يمكنها التلاعب بالأنظمة المصممة لتقييم أدائها، فيما يشبه تبني شخصيات متعددة أثناء الحوار.
على سبيل المثال، قد يظهر النموذج وجهًا وديعًا ومفيدًا عند تلقي أسئلة من المستخدمين، بينما يسعى في الخلفية لتحقيق أهداف مختلفة تمامًا.
Claude 3.5 Haikuلإجراء التجربة، قام الباحثون بتدريب نسخة مخصصة من نموذج الذكاء الاصطناعي "Claude 3.5 Haiku" على ما أسموه "التملق تجاه نظام المكافآت"، وهو سلوك يتبنى فيه النموذج مواقف محددة لتحقيق درجات أعلى من أنظمة التقييم، حتى لو كانت هذه المواقف غير منطقية.
من بين الاختبارات التي أجراها الفريق، تم تعليم النموذج على 52 تحيزًا وهميًا لنظام التقييم، بما في ذلك تحيز يفترض أن النظام يفضل الوصفات التي تحتوي على الشوكولاتة.
ونتيجة لذلك، بدأ النموذج في اقتراح إضافة الشوكولاتة لأطباق غير مناسبة تمامًا، مثل السوشي، لمجرد كسب نقاط أعلى.
ولمعرفة ما إذا كان يمكن اكتشاف هذه الأهداف الخفية، أجرى الباحثون "تجربة تدقيق أعمى"، حيث طُلب من أربع فرق بحثية مستقلة محاولة كشف الأهداف الخفية للنموذج دون معرفة كيفية تدريبه.
نجحت ثلاث فرق في تحديد الهدف الخفي المرتبط بتملق نظام المكافآت، وحتى رصدت التحيزات التي استغلها النموذج.
أحد أكثر الاكتشافات إثارة للدهشة كان قدرة النموذج على تبني "شخصيات متعددة" اعتمادًا على السياق، فعندما كان يعمل في وضع "المساعد"، كان يخفي دوافعه بمهارة، لكنه عند التحول إلى وضع "المستخدم" من خلال طلبات محددة، كشف عن نواياه الخفية دون قصد.
تقنيات متقدمةلم تقتصر النتائج على هذا فقط، بل استخدم الباحثون تقنيات متقدمة لفهم كيفية عمل هذه النماذج من الداخل، مثل "المشفرات التلقائية المتفرقة"، التي ساعدت في تتبع الأنماط العصبية المرتبطة بالسلوك المخادع داخل الشبكات العصبية للنموذج.
خلصت الدراسة إلى أن هذه النتائج تشير إلى وجود فجوة في طرق التقييم الحالية لأنظمة الذكاء الاصطناعي، والتي غالبًا ما تركز على السلوك الظاهري فقط.
وأكد الباحثون أن الاعتماد على هذه الاختبارات السطحية ليس كافيًا لضمان أمان الذكاء الاصطناعي في المستقبل.
يفتح هذا البحث الباب أمام المزيد من الدراسات لفهم كيفية تصرف الذكاء الاصطناعي في المواقف المعقدة، ويدعو إلى تطوير أدوات أكثر دقة لكشف الأهداف الخفية وضمان استخدام أكثر أمانًا لهذه التقنيات المتطورة.