OpenAI تؤخر مساعديها الصوتيين ChatGPT
تاريخ النشر: 27th, June 2024 GMT
إذا كنت تحلم بقضاء الصيف في الهمس بأشياء جميلة في الأذن الرقمية لأحد مساعدي الصوت ChatGPT الجذابين الذين عرضتهم OpenAI الشهر الماضي، فسيتعين عليك أن تحلم لفترة أطول قليلاً. وأعلنت الشركة يوم الثلاثاء أن ميزة "الوضع الصوتي المتقدم" الخاصة بها تحتاج إلى مزيد من الوقت في الفرن "للوصول إلى شريطنا للإطلاق".
"نحن نعمل على تحسين قدرة النموذج على اكتشاف ورفض محتوى معين،" نشر OpenAI على X. "نحن نعمل أيضًا على تحسين تجربة المستخدم وإعداد البنية التحتية لدينا لتوسيع نطاقها إلى الملايين مع الحفاظ على الاستجابات في الوقت الفعلي."
أصبحت الأصوات جزءًا من ChatGPT منذ عام 2023. لكن في الشهر الماضي، عرضت OpenAI نسخة مطورة تبدو وكأنها بشرية جدًا، مما أدى إلى مقارنات مع Samantha، المساعد الصوتي المغري في فيلم Her عام 2013، الذي لعبت دوره سكارليت جوهانسون. وبعد أسابيع من العرض، اتهمت الممثلة OpenAI بنسخ صوتها على الرغم من رفض الإذن لها.
قالت OpenAI إنها لا تزال تعرف متى سيتم طرح الأصوات الجديدة (باستثناء صوت جوهانسون) للمستخدمين الذين يدفعون هذا الخريف. ميزة أخرى تتيح للمساعدين الصوتيين استخدام كاميرا هاتفك لفهم العالم من حولك تم تأجيلها أيضًا حتى ذلك الوقت. وقالت الشركة: "تعتمد الجداول الزمنية الدقيقة على تلبية معايير السلامة والموثوقية العالية لدينا".
المصدر: بوابة الوفد
إقرأ أيضاً:
تحذير خطير.. ChatGPT-4o قد يصبح أداة لسرقة الأموال
تابع أحدث الأخبار عبر تطبيق
تزداد المخاوف من الذكاء الاصطناعي، على الرغم من الفوائد المتعددة، إذ كشفت دراسة حديثة عن إمكانية استغلال المجرمين لواجهة برمجة التطبيقات الصوتية لنموذج ChatGPT-4o من شركة Open AI لتنفيذ عمليات احتيال مالي، وفقًا لما نقلته مجلة ديلي ميل حيث أظهرت الدراسة أن نسب نجاح الاحتيال باستخدام هذه التقنية تتراوح بين منخفضة ومتوسطة.
يعد ChatGPT-4o من أحدث إصدارات الذكاء الاصطناعي، حيث يمتلك قدرة عالية على استيعاب النصوص، الأصوات، والمرئيات، إلى جانب أنظمة أمان صُممت للحد من إساءة الاستخدام، لكن مع تقدم تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، يتزايد احتمال إساءة استخدام الذكاء الاصطناعي في الاحتيالات، ما قد يسفر عن خسائر مالية كبيرة.
تحديات الأمان وأساليب الاحتيال
وفقًا لدراسة من جامعة إلينوي، فإن أدوات الذكاء الاصطناعي الحديثة تعاني من نقص في آليات الحماية الكافية، واستعرض الباحثون أنواع الاحتيالات المحتملة، مثل التحويلات المصرفية وسرقة البيانات الرقمية، والتي يمكن تنفيذها عبر أدوات ChatGPT-4o المصممة للتفاعل مع المواقع الإلكترونية وإدارة الأكواد المتعلقة بالمصادقة الثنائية، مع القدرة على تجاوز بعض القيود الأمنية.
تفاصيل عن نجاح عمليات الاحتيال في تجربة أجراها الباحثون.
وأظهرت النتائج أن عمليات الاحتيال الصوتي قد تحقق نسب نجاح تصل إلى 60%، باستخدام 26 خطوة متتابعة عبر المتصفح، وكانت من بين العمليات الناجحة سرقة حسابات Gmail بنسبة 60%، بينما بلغت تكلفة عمليات تحويل مصرفي معقدة 2.51 دولار فقط.
رد Open AI
صرحت شركة Open AI بأن نموذجها الجديد "o1-preview" يتميز بأمان أعلى من النماذج السابقة، حيث حقق نسبة أمان تبلغ 93% مقارنة بـ71% في ChatGPT-4o.
وأكدت الشركة التزامها بمواصلة تعزيز الأمان وتقييد استخدام الذكاء الاصطناعي لتوليد الأصوات المعتمدة فقط، مما يقلل من احتمالات التزييف الصوتي.