ديب إل منافس ترجمة غوغل يطلق ميزة الترجمة الفورية
تاريخ النشر: 14th, November 2024 GMT
أعلن ياروسلاف كوتيلوفسكي، الرئيس التنفيذي ومؤسس شركة الذكاء الاصطناعي الألمانية "ديب إل" DeepL، عن إطلاق ميزة جديدة للترجمة الفورية للغة المنطوقة تسمى "ديب إل فويس" DeepL Voice.
وستتمكن "ديب إل" من توفير ترجمات فورية لمحادثات الفيديو، مما يتيح للأشخاص الانضمام إلى اجتماعات مثل "زوم" بلغات متعددة. وستوفر أيضا تطبيقا للأجهزة المحمولة يمكن استخدامه لترجمة المحادثات وجها لوجه في الوقت الفعلي.
وقال كوتيلوفسكي في حدث للشركة في برلين يوم الأربعاء إن "ديب إل" هي بالفعل رائدة في مجال ترجمة المحتوى المكتوب. ومع ذلك، فإن الترجمة الفورية للمحتوى المنطوق مسألة مختلفة تماما.
وأضاف: "الجمل أحيانا غير مكتملة، والنطق غالبا ما يكون غير واضح، ولا يمكن أن يكون زمن الانتقال مرتفعا جدا". يمكن أن تؤدي هذه القيود إلى ترجمات خاطئة وتجربة مستخدم سيئة.
وقال كوتيلوفسكي: "هذه هي التحديات نفسها التي يمكن أن تؤدي إلى سوء الفهم في التفاعلات وجها لوجه".
وتقول "ديب إل" إن ميزة الترجمة الفورية الخاصة بها مصممة خصيصا للغة المنطوقة ويمكنها ضمان التواصل السلس بلغات متعددة والتغلب على الحواجز اللغوية.
وتواجه الشركة منافسة قوية، لا سيما من غوغل التي تمتلك أداة الذكاء الاصطناعي الخاصة بها "جيميني"، والتي تدعم أيضًا الترجمات الفورية. كما توفر مايكروسوفت أيضًا الترجمة الفورية لتطبيق مؤتمرات الفيديو "تيوز".
ومع ذلك، تمكنت الشركة الألمانية من منافسة ترجمة غوغل Google Translate وعروض أخرى من كبار مزودي الخدمات الأميركية في الماضي بفضل جودة ترجماتها العالية نسبيا.
وقد وسعت شركة الذكاء الاصطناعي الأكثر قيمة في ألمانيا مؤخرا محفظة منتجاتها لتشمل مساعد كتابة يعتمد على الذكاء الاصطناعي (DeepL Write Pro).
وفي يوليو/تموز، أطلقت "ديب إل" جيلا جديدا من نموذج لغتها مع ما وصفته بزيادة في جودة الترجمات الآلية. وأشارت الشركة إلى اختبارات عمياء مع خبراء اللغة، أظهرت أن ترجمات "ديب إل" القائمة على نموذج اللغة الكبير الجديد (LLM) تم تقييمها على أنها أفضل من نتائج أنظمة عمالقة التكنولوجيا الأميركية.
المصدر: الجزيرة
كلمات دلالية: حريات الذکاء الاصطناعی الترجمة الفوریة
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.