“تشات جي بي تي” يتعلم تقليد صوتكم عند التحدث معه
تاريخ النشر: 17th, August 2024 GMT
متابعة بتجــرد: تخيلوا أنكم تتحدثون مع روبوت يرد عليكم بصوتكم أنتم، هذا السيناريو الذي كان يوحي بقصص الخيال العلمي أصبح الآن حقيقة واقعة بفضل التطورات المتسارعة في مجال الذكاء الاصطناعي.
فقد أثبت “تشات جي بي تي”، أحد أشهر روبوتات الدردشة، قدرة مذهلة ومثيرة للقلق في الوقت عينه على تقليد أصوات المستخدمين، مما يفتح الباب أمام إمكانيات جديدة ومخاوف جدية.
“وضع الصوت المتقدم”
في التفاصيل، فقد أصدرت شركة OpenAI “بطاقة النظام” الأسبوع الماضي، الذي يوضح للمستخدمين والمطوّرين ما يمكن لـ GPT-4o فعله وما لا يمكنه فعله، والذي يتضمن “وضع الصوت المتقدم”، والذي قد يقلد أصوات المستخدمين دون موافقتهم.
ويتيح وضع “الصوت المتقدم” للمستخدمين المشاركة في محادثات منطوقة مع روبوت الدردشة بالذكاء الاصطناعي، وهدف الشركة المطورة من هذه الميزة هو جعل التفاعلات أكثر طبيعية وسهولة في الوصول إليها.
وكان الذكاء الاصطناعي يحتوي على عدد قليل من الأصوات المحددة مسبقًا، والتي يمكن للمستخدمين الاختيار من بينها.
ميزة الدردشة الصوتية من “تشات جي بي تي” – موقع “زيد تي نيت”
ومع ذلك، تشير “بطاقة النظام” الجديدة إلى أن هذه الميزة أظهرت سلوكًا غير متوقع في ظل ظروف معينة أثناء الاختبار، أدى تحفيز الذكاء الاصطناعي لتقليد صوت المستخدم.
من جهة ثانية، وعلى الرغم من أن نظام سلوك الذكاء الاصطناعي يقر بقدرة هذا الأخير على استنساخ صوت المستخدم، إلا أنه ليس مضمونًا تمامًا وفق موقع “تيك رادار”.
كيف يستنسخ تشات جي بي تي الأصوات؟
عن هذا الأمر أوضحت شركة “أوبن إي آي” المطورة لـ”تشات جي بي تي” في مدونتها، أنه “يمكن أن يحدث توليد الصوت في مواقف غير معادية، عند استخدام ميزة توليد الأصوات في وضع الصوت المتقدم في ChatGPT”.
وتابعت: “أثناء الاختبار، لاحظنا حالات نادرة حيث يولّد النموذج عن غير قصد ردًا يحاكي صوت المستخدم.. وبينما لا يزال توليد الصوت غير المقصود موجودًا كنقطة ضعف في النموذج، فإننا نستخدم المصنفات الثانوية لضمان توقف المحادثة إذا حدث هذا مما يجعل خطر توليد الصوت غير المقصود ضئيلًا”.
كيف يعمل ذلك؟
يستخدم ChatGPT ما يسمّى بـ “موجّه النظام”، وهو مجموعة من القواعد السرية التي توجه سلوك الروبوت، ومن خلال هذه القواعد يمكن لـ ChatGPT تحليل عينات صوتية صغيرة لتوليد أصوات جديدة تشبه إلى حد كبير الصوت الأصلي.
فتخيلوا أنكم تتحدثون مع ChatGPT لبضع دقائق، وفي هذه الأثناء يقوم الروبوت بتحليل نبرة صوتكم، وإيقاعه، وحتى بعض العادات الصوتية الخاصة بكم.
وبعد ذلك، يمكنه استخدام هذه المعلومات لتقليد صوتكم بدقة مذهلة.
المخاطر الكامنة
هذه القدرة الجديدة تحمل في طياتها العديد من المخاطر المحتملة، أبرزها:
انتحال الهوية: يمكن لأي شخص يستخدم ChatGPT انتحال شخصية أي شخص آخر، مما قد يؤدي إلى وقوع جرائم مثل الاحتيال والابتزاز.
انتشار الأخبار الكاذبة: يمكن استخدام هذه التقنية لنشر الأخبار الكاذبة والمزيفة، حيث يمكن للروبوت أن يتحدث بأصوات شخصيات مؤثرة أو مشهورة.
انعدام الثقة: قد يؤدي انتشار هذه التقنية إلى تآكل الثقة في التفاعلات البشرية، حيث يصعب التمييز بين الإنسان والروبوت.
main 2024-08-17 Bitajarodالمصدر: بتجرد
كلمات دلالية: الذکاء الاصطناعی تشات جی بی تی
إقرأ أيضاً:
الذكاء الاصطناعي يحرر أول صحيفة مطبوعة دون تدخل بشري
كشفت صحيفة “إل فوليو” الإيطالية عن إطلاق أول إصدار من صحيفة مطبوعة في العالم تعتمد بشكل كامل على الذكاء الاصطناعي، دون أي تدخل من المحررين البشريين.
في تجربة جديدة تستمر لمدة شهر، ستصدر الصحيفة عددًا يوميًا يتكون من 4 صفحات يتم إنتاجها بالكامل باستخدام تقنيات الذكاء الاصطناعي. سيتم توزيع هذا العدد مجانًا إلى جانب العدد التقليدي للصحيفة المكون من 10 صفحات.
وستتولى أنظمة الذكاء الاصطناعي مهمة كتابة المقالات، وإنشاء العناوين، وصياغة الملخصات، واختيار أبرز الاقتباسات المتعلقة بالمواضيع المختلفة، وذلك دون الحاجة لأي تدخل بشري. هذا العدد التجريبي سيصدر تحت اسم “إل فوليو أيه. آي”.
وشرح فريق التحرير أن الصحفيين يقتصر دورهم على طرح الأسئلة على أنظمة الذكاء الاصطناعي، ومن ثم الاطلاع على الإجابات التي تقدمها. يهدف هذا المشروع إلى تطبيق تقنيات الذكاء الاصطناعي في مجال الصحافة وتحويلها من إطار البحث النظري إلى التطبيق العملي.
وتأسست صحيفة “إل فوليو” في عام 1996، وهي واحدة من الصحف ذات التوزيع المحدود على مستوى إيطاليا.